Bereichsübergreifende Datenlöschung: Datenschutz-Umfrage zeigt Luft nach oben

Das neue Datenschutzgesetz (NDSG) tritt im kommenden Jahr in Kraft. Die Swiss Infosec AG wollte zusammen mit der Swiss GRC AG im Rahmen einer Datenschutz-Umfrage erfahren, ob die Aussicht auf das Inkrafttreten des NDSG per 1. September 2023 bereits Auswirkungen darauf hat, wie in den Unternehmen mit Datenschutz umgegangen wird.

Die Swiss Infosec und Swiss GRC Heartbeat-Umfrage fühlt den Puls zu aktuellen Themen. (Bild: Adobe Stock/stock.adobe.com)

An der Swiss Infosec Heartbeat-Umfrage zum Thema Datenschutz haben 115 Personen teilgenommen. Die meisten davon (40%) arbeiten in der IT-Abteilung ihres Unternehmens. Zahlreiche Antworten kamen aber auch aus den Abteilungen Legal und HR und aus dem Bereich Verwaltungsrat/Geschäftsleitung. Die Tatsache, dass Datenschutz auf Verwaltungsrat- und Managementebene als wichtiges Thema wahr- und ernstgenommen wird, stimmt die Autoren dieser Datenschutz-Umfrage zuversichtlich und spricht für einen höheren Stellenwert des Datenschutzes. 

Gutes Zeugnis punkto interner Datenschutzvorgaben

83% der Organisationen, die an der Datenschutz-Umfrage teilgenommen haben, verfügen über ein internes Dokument mit Datenschutzvorgaben. 12% haben kein solches Dokument und die verbleibenden 5% wissen nicht ob es interne Vorgaben zum Datenschutz gibt. Das Vorhandensein interner Datenschutzvorgaben zeigt, dass sich die Organisationen mit dem Thema Datenschutz/Datenschutzgesetz befassen und der Umgang mit Datenschutz nicht beliebig ist, sondern auf das Unternehmen bezogen klar festgeschrieben werden. Das schafft Sicherheit und Kontinuität. 66% der Organisationen setzen im übrigen Data Owner (Dateneigner) ein, die für einen bestimmten Teil der Daten innerhalb der Organisation verantwortlich sind.

Nur wenige Unternehmen haben noch keine Datenschutzerklärung

104 der 115 teilnehmenden Personen oder 90% bestätigen, dass ihre Organisation über eine Datenschutzerklärung (DSE) verfügt. Dieser hohe Wert ist erfreulich. Allerdings stellen sich die Datenschutzexpertinnen und -experten der Swiss Infosec AG die – in der Umfrage nicht explizit gestellte – Frage, ob diese DSE auch die Datenbearbeitungen jenseits der Webseite abdecken. Erfahrungsgemäss dürfte dies nicht überall der Fall sein. Im Hinblick auf das neue Datenschutzgesetz müssten diese Datenbearbeitungen aber durch die Datenschutzerklärungen abgedeckt sein.

Datenschutz-Umfrage zeigt Luft nach oben bei der regelmässigen, bereichsübergreifenden Datenlöschung

Nicht ganz unerwartet ist das Optimierungspotential bei der Datenlöschung am grössten. Zwar geben immerhin 39% der Umfrageteilnehmerinnen und -teilnehmer an, dass in ihrer Organisation Daten regelmässig und bereichsübergreifend gelöscht würden. In 43% der Unternehmen findet eine solche Datenlöschung aber nicht statt und die übrigen 8% der Antwortenden haben keine Kenntnis darüber. Eugen Roesle, Head of Legal and Data Privacy bei der Swiss Infosec AG, spricht in diesem Zusammenhang von der «letzten Meile des Datenschutzes», die noch viele Unternehmen zu absolvieren hätten, auch wenn sich bezüglich Datenlöschung mit dem NDSG rein rechtlich nichts ändere. Personendaten, die nicht mehr benötigt werden, weil sie ihren Zweck erfüllt haben, sind nach aktuell gültigem Recht nämlich bereits jetzt zu löschen.

Datenschutz-Governance berücksichtigen

Eine Kernforderung der Datenschutz-Governance ist die Implementierung eines Prozesses, der bei neuen Vorhaben mit Personendatenbezug die Einhaltung des Datenschutzes überprüft. 57% der teilnehmenden Organisationen erfüllen diese Forderung, 43% nicht beziehungsweise eher nicht. Handlungsbedarf im Bereich Datenschutz-Governance ist angezeigt, zumal die rechtzeitige und bestenfalls automatische Überprüfung der Einhaltung des Datenschutzes bei neuen Vorhaben Zeit spart und Unsicherheiten und böse Überraschungen eliminiert.

Unterstützung durch spezifische Tools/Softwarelösungen?

Organisationen, die im Bereich Datenschutz auf spezifische Tools/Softwarelösungen setzen, sind laut der Umfrage untervertreten. Immerhin 40% der Unternehmen nehmen solche Unterstützung in Anspruch, 60% (noch) nicht. Ob die Grösse des Unternehmens oder seine Komplexität die Entscheidung, Tools zu benutzen, beeinflussen oder entsprechende Angebote und ihre massgeschneiderten Lösungen zu wenig bekannt sind, bleibt offen.

Quelle: Swiss Infosec

Neun Tipps, wie man ein effektives Data-Governance-Modell aufbaut

Möchten Sie das volle Potenzial der Daten in Ihrem Unternehmen erschließen? Dann kommen Sie an einer effektiven Data-Governance-Strategie nicht vorbei. Diese stellt nicht nur sicher, dass die Daten reibungslos durch alle Geschäftsabteilungen fließen, sie wahrt auch die Qualität, Zugänglichkeit, Verwendbarkeit und Sicherheit der Informationen.

Übersicht über alle Daten: Ein effektives Data-Governance-Modell bildet die Basis, um das volle Potenzial der Daten zu erschliessen. (Bild: Pixabay.com)

Bevor Sie sich bei der strategischen Entscheidungsfindung ganz oder teilweise auf Analysen stützen, müssen Sie erst geeignete Prozesse implementieren. Das stellt sicher, dass die Daten reibungslos durch alle Geschäftsabteilungen fließen und ihre Qualität, Zugänglichkeit, Verwendbarkeit und Sicherheit gewahrt bleibt.

Hier finden Sie neun Tipps für den Aufbau einer effektiven Data-Governance-Strategie.

1. Datenbestände im Unternehmen prüfen

Damit Daten den größtmöglichen Nutzen bringen, müssen die Beteiligten wissen, wie sie diese auswählen, sammeln, speichern und effektiv nutzen. Nehmen Sie eine Bestandsaufnahme aller im Unternehmen vorhandenen Daten vor und identifizieren Sie ihre verschiedenen Quellen wie Verwaltungssysteme, Websites, soziale Netzwerke sowie Marketing- und Werbekampagnen. Anschließend definieren Sie die Reibungspunkte, an denen es aufgrund schlechter Datenqualität zu einem Wertverlust kommt.

Achten Sie besonders auf folgende Punkte:

  • Volumen: Die Menge der Daten ist in den letzten Jahren explodiert. Bestimmen Sie die Anzahl der in Ihren Datenbanken gespeicherten Informationen, um Ihre Datenverwaltungsmethode festzulegen.
  • Vielfältigkeit: Daten können komplex und vielfältig sowie strukturiert oder unstrukturiert vorliegen und aus einem breiten Spektrum von Informationssystemen stammen. Erfassen Sie sie an verschiedenen Stellen, zentralisieren Sie sie und gleichen Sie sie ab, um alle Informationen umfassend abzubilden.
  • Schnelligkeit: Setzen Sie auf leistungsstarke, flexible Software, die maschinelles Lernen beinhaltet. Prüfen Sie Ihre Infrastruktur, um die effizientesten Tools auszuwählen, die Ihren Anforderungen entsprechen, und schaffen Sie eine solide technische Basis.
  • Wahrhaftigkeit: Erklärungsfehler in Formularen, die Vielfalt der Erfassungsstellen, Bot-Aktionen, böswillige Handlungen, menschliche Fehler und mehr gefährden das Datenfundament. Auch bei der Analyse kann es zu Verzerrungen kommen. Führen Sie deshalb eine Diagnose der Qualität und Genauigkeit Ihrer Daten durch.
  • Wert: Die von Ihnen verwendeten Daten müssen perfekt auf die Geschäfts- und Marketingziele Ihres Unternehmens abgestimmt sein und sowohl für die Marke als auch für Ihre Kunden einen Mehrwert schaffen. Vereinheitlichen Sie die Daten und reagieren Sie schnell, um auf der Gewinnerseite zu stehen.

2. Eine einheitliche Data-Governance-Strategie einführen

Alle Abteilungen des Unternehmens müssen in die Datennutzung involviert sein – von der Geschäftsleitung über die Teamleiter bis hin zu den Betriebs- und Außendienstteams. Die gesamte Belegschaft sollte die Herausforderungen und Vorteile gemeinsam genutzter, qualitativ hochwertiger Daten verstehen. Berücksichtigen Sie folgende Punkte, um den gesamten Betrieb in diesen Übergang einzubeziehen:

  • Einzel- oder Gruppengespräche mit den verschiedenen Abteilungen, um die aktuelle Datenlage besser zu verstehen, die organisatorischen Anforderungen zu ermitteln und alle Data-Governance-Erwartungen zu berücksichtigen.
  • Workshops mit dem Ziel, gemeinsam einen ganzheitlichen methodischen Rahmen für die Data-Governance-Einführung zu entwickeln.
  • Reale Anwendungsfälle, in denen mit Unterstützung einer Reihe von Mitarbeitern ein Geschäftsproblem in Verbindung mit einem bestimmten Datenbereich analysiert wird. Im E-Commerce-Sektor könnte es sich beispielsweise um Fehler bei den Abmessungen der Produktverpackungen handeln, die zu logistischen Schwierigkeiten und zum Kaufabbruch führen, weil der Kunde zu hohe Lieferkosten feststellt.

Legen Sie anschließend strategische Ziele fest, die für das gesamte Unternehmen oder einzelne Geschäftsbereiche gelten. Definieren Sie dann alle Leistungsindikatoren der Organisation, damit jeder seine Rolle beim Governance-Modell versteht.

3. Geeignetes Data-Governance-Modell wählen

Wenn Sie ein Data-Governance-Projekt starten, sollten Sie nicht in die Falle tappen, alle technischen, organisatorischen und regulatorischen Fragen gleichzeitig zu beantworten. Sie benötigen Zeit für die ersten greifbaren Ergebnisse. Erstellen Sie eine genaue, von den Beteiligten bestätigte Roadmap mit Zwischenzielen, um die bisherigen Bemühungen und Fortschritte zu bewerten.

Bedenken Sie zudem, dass es verschiedene Data-Governance-Modelle gibt. Wählen Sie dasjenige, das am besten zu Ihrer Umgebung, Ihren Bedürfnissen, Ihren personellen und finanziellen Ressourcen und Ihrem Datenreifegrad passt.

4. Ermittlung und Auswahl aller Datenakteure

Ernennen Sie zunächst einen Chief Data Officer (CDO), der die Data Governance im gesamten Unternehmen verantwortet. Er genehmigt Projekte und ordnet sie nach Prioritäten, verwaltet Budgets, rekrutiert Personal für das Programm und stellt eine vollständige Dokumentation sicher. Idealerweise sollte der CDO direkt dem CEO unterstellt sein. Wenn Ihre Firma kleiner ist, können Sie diese Rolle einer anderen Führungskraft auf einer vergleichbaren Ebene zuweisen.

Erweitern Sie dann das Projektteam, indem Sie eine multidisziplinäre Gruppe mit den folgenden Profilen zusammenstellen:

  • Dateneigentümer: Sie beaufsichtigen die Daten in einem bestimmten Bereich und überwachen die Prozesse zur Gewährleistung der Sammlung, Sicherheit und Qualität der Daten. Sie bestimmen, wie Daten zur Lösung eines bestimmten Problems zum Einsatz kommen. So kann der Marketingleiter der Dateneigentümer der Kundendaten sein oder der Personalleiter der Dateneigentümer der internen Mitarbeiterinformationen.
  • Datenverantwortliche: Sie sind die Datenkoordinatoren und Administratoren des zentralen Datenspeichers. Sie verantworten die Organisation und Verwaltung aller Daten oder einer bestimmten Dateneinheit und überwachen die Einhaltung von Richtlinien und Vorschriften. Sie erfassen und korrigieren Datenelemente, verhindern Duplikate und überprüfen die Qualität der Datenbanken.
  • Datenverwalter: Dieser sorgt für den ordnungsgemäßen Lebenszyklus der Daten, indem er den Zugriff auf die Daten autorisiert und kontrolliert, technische Prozesse zur Gewährleistung der Datenintegrität definiert und Kontrollen zur Sicherung und Archivierung der Daten und der an ihnen vorgenommenen Änderungen durchführt.

5. Datensilos beseitigen

Sobald Sie Ihr Data-Governance-Projektteam zusammengestellt haben, können Sie es in einem Gremium zusammenführen, das strategische Entscheidungen über die Umsetzung in den verschiedenen Geschäftsbereichen trifft. Dieses Gremium genehmigt Datenrichtlinien und befasst sich mit allen Fragen rund um Datenverwaltung, -sicherheit und -qualität. Halten Sie zudem regelmäßig Sitzungen ab mit der Möglichkeit, Feedback zu geben.

Idealerweise sollten Sie sich für eine horizontale Governance entscheiden, indem Sie die Daten in den Mittelpunkt Ihrer Tätigkeit und Ihrer Geschäftsangelegenheiten stellen. Auf der Grundlage dieses Prinzips können Sie beispielsweise den Abbau von Silos zwischen Direktmarketing, Werbung und Kundenservice beschleunigen und CRM- und Medienfachwissen sowie Technologien innerhalb von Unternehmen, Marken und ihren Agenturen vereinen. Informieren Sie Ihre Mitarbeiter über die Vorteile der Zusammenarbeit und des täglichen Datenaustauschs.

Stellen Sie anschließend sicher, dass alle für die Durchführung der Projekte nützlichen Daten auf einer Datenverwaltungsplattform konsolidiert werden, die die Zuverlässigkeit und Verknüpfung der Daten gewährleistet. Es ist wichtig, allen Teams die Existenz eines zentralisierten Datenbestands bewusst zu machen. Das schafft eine gemeinsame Vision.

6. Projekt und Ressourcen dokumentieren

Um ein Data-Governance-Projekt erfolgreich zu implementieren, müssen Sie Standardprozesse einrichten und eine gemeinsame Sprache innerhalb der Organisation finden. Stellen Sie Ihren Teams dafür eine „Datenmappe“ zur Verfügung: Sie ermöglicht die Identifizierung der Datenbestände, ihrer Flüsse, ihrer Speicherung und ihrer Verarbeitungsmethoden. So machen Sie die Daten für alle Mitarbeiter zugänglich und verständlich.

Die Datenmappe besteht aus einem Geschäftsglossar mit genauen Definitionen aller Terminologien im Zusammenhang mit den im Umlauf befindlichen Daten. Hinzu kommt ein Modell, das die Struktur der Unternehmensdaten zeigt und Auskunft über deren Speicherung gibt. Auch ein Datenflussdiagramm darf nicht fehlen. Die Datenmappe enthält außerdem einen Abschnitt über das Format der verschiedenen Datentypen und informiert über ihre Zugangs- und Einsatzbedingungen.

7. Qualität der Daten sicherstellen

Daten steuern die meisten Ihrer Entscheidungen, beispielsweise die Art und den Zeitpunkt von Werbemaßnahmen oder Kommunikationskampagnen, die Segmentierung von Zielgruppen, die Korrektur oder Ergänzung von Funktionen auf einer Website oder einer mobilen Anwendung. Dabei müssen Sie sich auf die Qualität der Daten verlassen können. Denn minderwertige Daten können schwerwiegende Folgen für Ihre Firma haben, etwa geringere Einnahmen, durch Adblocker blockierten Verkehr oder überschätzte Conversions aufgrund mangelhafter Quellenzuordnung.

Um diese Risiken zu reduzieren, sollten Sie in allen Phasen des Datenlebenszyklus wachsam sein – beginnend im kritischen Moment der Datenerfassung. Jede Änderung oder Aktualisierung der Website oder des Trackings stellt eine Gefahr für die Qualität der Erfassung dar. Führen Sie wirksame Methoden und Instrumente ein, um diesen Prozess zu steuern und zu dokumentieren.

Achten Sie zunächst auf die korrekte Implementierung der Tags in Ihren Tagging-Plänen. Überprüfen Sie sie regelmäßig und vollständig, idealerweise mit automatisierten Akzeptanztests, da die manuelle Durchführung nicht nur viel Zeit kostet, sondern auch das Fehlerrisiko erhöht.

8. Konformität der Daten gewährleisten

Spätestens seit der Umsetzung der Datenschutz-Grundverordnung (DSGVO) wissen die Unternehmen, wie wichtig es ist, den Schutz der personenbezogenen Daten der Nutzer auf ihren verschiedenen digitalen Plattformen zu beachten. Bei Verletzungen drohen nicht nur Sanktionen, es kann auch dem Markenimage schaden und zu einem Vertrauensverlust bei den Kunden führen.

Deshalb sollten Sie auf Ihren Websites und in Ihren mobilen Anwendungen sicherstellen, dass die Zustimmung Ihrer Besucher ordnungsgemäß, frei und in Kenntnis der Sachlage eingeholt wird. Zu diesem Zweck müssen Sie einen Anbieter wählen, der über eine strenge Datenverwaltung verfügt und die gesetzlichen Bestimmungen vollständig einhält.

9. Interne Datennutzung demokratisieren

Die Demokratisierung von Daten innerhalb eines Unternehmens zählt zu den elementaren Bestandteilen eines Data-Governance-Ansatzes. Dabei werden alle Informationen und Ressourcen, den Mitarbeitern zur Verfügung gestellt, die zur Erfüllung ihrer Aufgaben und zur Wertschöpfung erforderlich sind. Einige Maßnahmen können dabei helfen, etwa die Festlegung der Anwendungsfälle für diese Daten sowie Angaben, wo sich die Daten befinden und wie man auf sie zugreifen kann. Auch die Ernennung von Datenreferenten, die Usern im Alltag helfen, erweist sich in der Praxis als gute Idee.

Als Nächstes sollten Sie ein spezifisches Unterstützungsprogramm einrichten. So können Sie beispielsweise Schulungen und interne Workshops organisieren, um die Nutzer in der operativen Nutzung der Tools und in der Verwendung der Daten zu bestimmten Themen anzuleiten. Um die Mitarbeiter zur Nutzung der Daten zu animieren, kann das Datenteam außerdem Dashboards für die Verwaltung der einzelnen Aktivitäten entwerfen.

Autor:
Adrien Guenther ist Director of Analytics bei Piano am Standort München, wo er seit einem Jahrzehnt Unternehmen in der DACH-Region strategisch in der Planung und Implementierung digitaler Analysen berät. Bevor er zu AT Internet (2021 von Piano übernommen) kam, war Guenther Leiter des Bereichs Business Intelligence bei einer Werbeagentur. Er hat außerdem Erfahrung in der Suchmaschinenoptimierung, Suchmaschinenentwicklung, als auch in der Entwicklung von digitalen Assets, Websites und Online-Apps.

Vision 2022: Positive Vorzeichen für die 30. Ausgabe

Nach einer erfolgreichen Messe im vergangenen Jahr knüpft das Team der Messe Stuttgart an die positive Stimmung an. Vom 4. bis 6. Oktober 2022 öffnet die Vision, die Weltleitmesse für Bildverarbeitung, ihre Tore auf dem Stuttgarter Messegelände.

Positive Vorzeichen für die Vision 2022 vom 4. – 6. Oktober 2022. (Bild: Landesmesse Stuttgart GmbH)

Die Vision 2022, Weltleitmesse für Bildverarbeitung, findet vom 4. bis 6. Oktober 2022 auf der Messe Stuttgart statt. Alle zwei Jahr bildet die Fachmesse das komplette Spektrum der Bildverarbeitungstechnologie ab. Für dieses Jahr geben sich die Messeveranstalter optimistisch: „Die Bildverarbeitungsindustrie entwickelt sich dynamisch und gewinnt immer mehr an Bedeutung. Die Perspektiven für die Vision 2022 sind daher vielversprechend und die Erwartungen hoch“, so Roland Bleinroth, Geschäftsführer der Messe Stuttgart. Anne Wendel vom deutschen Maschinenindustrie-Dachverband VDMA unterstreicht die Entwicklung der Bildverarbeitungsindustrie: „Die Robotik- und Automationsbranche und ganz besonders die industrielle Bildverarbeitungsindustrie verzeichnet volle Auftragsbücher. 2021 wurde in der europäischen Machine Vision Industrie laut VDMA Marktbefragung ein Umsatzplus von 17 Prozent verzeichnet. Die Prognosen für 2022 fallen trotz geringerer Erwartungen durch gestörte Zulieferketten positiv aus. Unsere Prognosen sagen ein Plus von 5 Prozent und einen Umsatz von 3,2 Milliarden Euro für die deutsche industrielle Bildverarbeitungsindustrie voraus. Für die gesamte Robotik und Automation wird mit einem Wachstum von 6 Prozent gerechnet auf 14,4 Milliarden Euro. Dies lässt uns positiv auf die bevorstehende Vision 2022 blicken.“

Wachsende Ausstellendenzahlen

An drei Tagen kommen auf der Fachmesse BesucherInnen aus aller Welt mit Start-ups und Keyplayern zusammen. Dabei steht vor allem der Austausch und Wissenstransfer im Fokus. Aktuell haben sich über 300 Unternehmen – und damit bereits jetzt mehr als im vergangenen Jahr – für die Vision 2022 angemeldet. „Der aktuelle Anmeldestand und die Reservierungen zeigen den großen Zuspruch der Branche. Insgesamt rechnen wir bis Oktober bei den Ausstellendenzahlen mit einem Wachstum von rund 25 Prozent im Vergleich zum Vorjahr“, so Florian Niethammer, Leiter Messen & Events bei der Messe Stuttgart.

Neben nationalen und internationalen Keyplayern darf die Messe Stuttgart in diesem Jahr viele neue Akteure begrüßen. Rund 17 Prozent der angemeldeten Unternehmen sind erstmalig bei der Messe dabei. Die steigenden Ausstellendenzahlen spiegeln sich auch in der bespielten Fläche wider. Erneut findet die VISION in der Paul Horn Halle (Halle 10) sowie der Alfred Kärcher Halle (Halle 8) statt, die beiden Hallen sind im Vergleich zu 2021 allerdings rund ein Viertel mehr belegt: Auf 25.000 Quadratmetern dreht sich alles um das Thema Bildverarbeitung.

Hohe Internationalität der Ausstellenden

Die hohe internationale Bedeutung der Vision 2022 zeigt sich bereits am internationalen Anteil bei den Ausstellenden: Nachdem 2021 das Verhältnis von nationalen und internationalen AusstellerInnen fast ausgeglichen war, liegt der Auslandsanteil für 2022 aktuell bei 56 Prozent. Die Weltleitmesse entwickelt sich damit wieder in Richtung bekannter Strukturen. Besonders stark vertreten sind in diesem Jahr ausstellende Unternehmen aus den USA, gefolgt von Japan, China, den Niederlanden und der Schweiz. Die positive Stimmung der AusstellerInnen ist deutlich zu vernehmen. So auch bei dem Kamera-Anbieter Vieworks aus Südkorea. Janice Lee, Sales Manager bei Vieworks: „Wir sind schon mehrere Jahre als Aussteller auf der Vision vertreten. Aufgrund von COVID-19 konnten wir 2021 nicht an der Messe teilnehmen. Umso mehr freuen wir uns, 2022 wieder dabei zu sein und unsere Kunden persönlich hier anzutreffen, unsere Produkte und Technologien zu präsentieren und die neuesten Markttrends kennenzulernen. Die Bildverarbeitungsmesse in Stuttgart hat eine unübertroffene internationale Bedeutung.“

Vision 2022: Trendthemen Bildverarbeitung

Die Bildverarbeitung ist auf dem Vormarsch. Neue Trendthemen übernehmen das Feld und künstliche Intelligenz ist mittlerweile nicht mehr wegzudenken. So auch in Stuttgart. Angesichts der technischen Entwicklungen ist Florian Niethammer überzeugt, dass die Vision für unzählige Anwenderbranchen die passenden Lösungen bietet: „Auf der Vision 2022 wird es spannend sein, zu sehen, welche neuen Möglichkeiten das Thema Hyperspectral Imaging bietet, wo es bei den Trendthemen AI und Deep Learning hin geht und welche neuen Entwicklungen im Bereich Embedded Vision und 3D zu sehen sein werden.“

Die ausstellenden Unternehmen zeigen, welche Chancen Bildverarbeitung für unterschiedliche Branchen bietet – unter anderem für die Medizin- und Pharmaindustrie, die Nahrungsmittel- und Getränkeindustrie, die Verkehrstechnik und Infrastruktur, den Retail und Einzelhandel, die Automotive- und Zuliefererindustrie, den Maschinen- und Anlagenbau sowie die Logistik. Neben Komponenten werden leistungsstarke Bildverarbeitungssysteme vorgestellt. Unter den Systemanbietern 2022 ist auch das Schweizer Unternehmen Compar aus Pfäffikon SZ vertreten. Für Stefan Basig, Marketing & Sales Manager bei Compar, hat die Weltleitmesse eine besondere Bedeutung: „Für unsere Branche steht die Bildverarbeitungsmesse für eine klare Vision. An drei Tagen dreht sich alles um Technologietrends, Produkthighlights und Wissenstransfer. Seit mehreren Jahren nutzen wir die Plattform, um unser Wissen im Bereich Machine Vision zu vertiefen. Als Systemintegrator ist es für uns besonders wichtig, potenziellen Kunden raffinierte und kosteneffiziente Systeme vorzustellen und sie bei der Auswahl effizienter Lösungen aus einem breiten Produktspektrum zu unterstützen. Dabei sollen nicht Worte überzeugen, sondern die Systeme selbst.“

Weitere Informationen zur Vision in Stuttgart vom 4. – 6.10.2022 unter: www.vision-messe.de

IWC Schaffhausen erhält Equal Salary-Zertifizierung

Ähnlich wie die ISO für Industriestandards funktioniert die Equal Salary-Zertifizierung für Löhne und Gehälter. Sie dient als Symbol für hervorragende Leistungen im Bereich der Lohngleichheit und belohnt ein starkes Engagement für die Förderung von Fairness und die Schaffung von Vertrauen und Respekt für die Mitarbeitenden. Kürzlich wurde auch der Uhrenhersteller IWC Schaffhausen mit dem Zertifikat für Lohngleichheit ausgezeichnet.

Inspiriert vom ersten gemeinsamen Markenstore von IWC Schaffhausen und Mercedes-Benz wurde in der Mercedes-Benz Niederlassung München die „Big Pilot Bar“ eröffnet, eine Lounge, die zum Verweilen und Geniessen einlädt und die Leidenschaft der beiden Partner für zukunftsweisendes Design und technische Exzellenz bis ins kleinste Detail widerspiegelt. Kürzlich wurde IWC Schaffhausen zudem mit dem Equal Salary-Zertifikat ausgezeichnet, als Nachweis für die erfolgreiche Praxis von Lohngleichheit zwischen den Geschlechtern. (Bild: IWC)

Die Stiftung Equal Salary hat dem Uhrenhersteller IWC Schaffhausen das Equal Salary-Zertifikat verliehen, ein Symbol für Exzellenz im Bereich der Lohngleichheit, wie es heisst. Der Zertifizierungsprozess verlief in zwei Phasen: Zunächst musste IWC Schaffhausen ihre Gehälter statistisch analysieren lassen. Massgebend ist, dass das geschlechtsspezifische Lohngefälle weniger als fünf Prozent beträgt. Diesen Punkt konnte das Unternehmen erfüllen. Es folgte ein internes, von PwC durchgeführtes Audit, um die Konformität der Prozesse nachzuweisen, d.h. zu bestätigen, dass die Lohngleichheit zwischen Frauen und Männern auch wirklich angewendet werden. Dabei werden sowohl das allgemeine Engagement des Unternehmens für die Lohngleichheit als auch die Umsetzung in den Prozessen der Personalabteilung überprüft. Die Equal Salary-Zertifizierung ist für drei Jahre gültig, in denen sich das Unternehmen zwei Überwachungsaudits unterzieht. Nach drei Jahren muss das Unternehmen das Zertifizierungsverfahren mit einer neuen Gehaltsanalyse und einem vollständigen Audit vor Ort erneuern.

„Ein solches Engagement für Lohngleichheit und Chancengleichheit ist ein Versprechen für die Gleichstellung der Geschlechter am Arbeitsplatz. Mit der Equal Salary-Zertifizierung geht IWC mit gutem Beispiel voran und bringt noch mehr Vertrauen und Transparenz in die Schweizer Feinuhrmacherei“, kommentierte Lisa Rubli, Co-CEO der Stiftung Equal Salary. „Wir bei IWC stehen für ein integratives Arbeitsumfeld, das allen unseren Mitarbeitenden gleiche Chancen bietet. Gleiche Arbeit verdient gleichen Lohn. Die Erlangung der Equal Salary-Zertifizierung als eines unserer strategischen Unternehmensziele zeigt uns, dass unsere Bemühungen erfolgreich waren. Sie unterstreicht unseren ehrlichen und offenen Kommunikationsfluss. Wir hören zu und schätzen das Feedback unserer Mitarbeiter. Wir sind stolz darauf, dass wir dank des Beitrags aller unserer Kolleginnen und Kollegen einen weiteren Schritt in Richtung einer fairen und transparenten Arbeitsplatzkultur gemacht haben“, ergänzt Christoph Grainger-Herr, CEO von IWC Schaffhausen.

Die Equal Salary-Zertifizierung ist ein inzwischen etabliertes Instrument, mit dem Unternehmen nachweisen und kommunizieren können, dass sie Frauen und Männer gerecht bezahlen. Sie ist eine praktische und wissenschaftliche Lösung, um Transparenz zu schaffen unter gleichzeitiger Wahrung der Vertraulichkeit. Ebenfalls kürzlich neu zertifiziert wurden die Firmen SGS Société Générale de Surveillance SA (Genf), Hyposwiss Private Bank (Genf) und Rehab Basel.

Quelle: Equal Salary Foundation

Brennstoffzellen: Dichtheitsprüfaufgaben bei der Fertigung von FCEV-Komponenten

Alternative Antriebe sind die Zukunft der Branche. Neben der reinen Elektromobilität wird auch die Brennstoffzellentechnologie bedeutsam. Auf die Hersteller der entsprechenden Komponenten – von Bipolarplatten bis zu Wasserstofftanks – kommen dabei neue Anforderungen an die Dichtheitsprüfung und Qualitätssicherung zu.

Für Nutz- und Langstreckenfahrzeuge sind Antriebe mit Brennstoffzellen eine interessante Option. Hersteller wie Honda, Hyundai und Toyota etwa bieten Fuel Cell Electric Vehicles (FCEV) an. Auch der Zulieferer Robert Bosch arbeitet derzeit an einem Brennstoffzellen-Stack, der vor allem schwerere und Nutzfahrzeuge antreiben soll. (Bild: Depositphotos.com)

Fuel Cell Stacks sind das Herz von Brennstoffzellenfahrzeugen. Diese Stapel von Brennstoffzellen bestehen aus zwei Endplatten, zwischen denen mehrere Bipolarplatten geschichtet sind. Diese sind jeweils durch Membran-Elektroden-Einheiten (Membrane Electrode Assembly, MEA) getrennt. Die elektrisch leitenden Bipolarplatten haben die Aufgabe, die Anode einer Zelle mit der Kathode der anderen Zelle zu verbinden. Jede Bipolarplatte enthält zwei Hohlräume für die Prozessgase Wasserstoff und Luftsauerstoff sowie meist eine interne Kühlschleife. Abgehend von den Hohlräumen der Prozessgasführung werden die Prozessgase Wasserstoff und Luftsauerstoff über das sogenannte Flow Field großflächig an die Membrane der Membran-Elektroden-Einheit geleitet. Der entsprechende Hochtemperatur-Kühlkreislauf hat die Funktion, eine optimale Prozesstemperatur des gesamten Brennstoffzellensystems aufrechtzuerhalten. Im Wesentlichen ergeben sich daraus für eine Brennstoffzelle vier Versagensmodi:

  1. Wasserstoffverlust generell.
  2. Crossover-Lecks zwischen Anode und Kathode oder Overboard-Lecks an Dichtungen – mit einer unkontrollierten Reaktion zwischen Wasserstoff und Sauerstoff.
  3. Kühlflüssigkeitsverlust, der die Effizienz des Fuel Cell Stacks verringert und zur Beschädigung führt.
  4. Wasserstoffaustritt in den Kühlkreislauf wirkt korrosiv, beeinträchtigt wegen der Gasblasen die Effizienz der Flüssigkeitskühlung und kann sogar die Pumpe beschädigen.

Brennstoffzellen-Stacks und die Dichtheit der einzelnen Zellen

Aus den Fehlerszenarien ergeben sich konkrete Anforderungen an die Leckrate. Gegen den Wasserstoffaustritt – sowohl nach außen als auch in den Kühlkanal – ist das Gesamtsystem gegen Leckraten im Bereich von 10-3 bis 10-5 mbar∙l/s zu prüfen. Wasserstoff ist bekanntlich leicht brennbar und in dem breiten Konzentrationsbereich zwischen 4 und 73 Prozent Wasserstoff in Luft zündfähig. Einige Hersteller von Brennstoffzellen beziehen sich auf die Norm DIN EN IEC 62282-2, deren jüngste Fassung im April 2021 veröffentlicht wurde. Die Norm behandelt die Sicherheit von Brennstoffzellenmodulen, allerdings beschäftigt sie sich erklärtermassen nicht mit Anwendungen von Brennstoffzellen in Straßenfahrzeugen. Die DIN EN IEC 62282-2 spezifiziert für einen gesamten Brennstoffzellen-Stack eine Wasserstoff-Grenzleckrate von 5 cm³/min und schreibt vor, dass der Anwender für eine gute Belüftung der Brennstoffzelle zu sorgen hat. Da dies beim Einbau in ein Straßenfahrzeug aber nicht immer gewährleistet werden kann – man denke nur an ein Fahrzeug, das in einer Einzelgarage geparkt ist –, stellen automobile Anwendungen oft strengere Anforderungen an die Dichtheit. Aber unabhängig davon, welche Leckrate für den gesamten Stack angesetzt wird, gilt: Weil ein kompletter Stack aus mehreren hundert Einzelzellen besteht, deren Leckraten in Summe betrachtet werden müssen, sind diese einzelnen Komponenten gegen Grenzleckraten zu prüfen, die nochmals zwei Dekaden kleiner sind. Besteht der Brennstoffzellen-Stack beispielsweise aus 350 Zellen und sollen die einzelnen Zellen mit Helium-Prüfgas auf ihre Dichtheit getestet werden, errechnet sich aus den Vorgaben der oben angegebenen Norm eine Helium-Grenzleckrate von circa 10-4 mbar∙l/s. Für strengere Vorgaben in automobilen Anwendungen können bei einzelnen Bipolarplatten auch Grenzleckraten bis in den Bereich von 10-6 mbar∙l/s notwendig sein. Allerdings wird im Kontext von Entwicklungsprojekten und in der wissenschaftlichen Forschung durchaus schon diskutiert, ob in Zukunft nicht noch kleinere Grenzleckraten bis hinab zu 10-7 mbar∙l/s sinnvoller wären.

Schematische Darstellung des Aufbaus einer einfachen Brennstoffzelle. (Bild: Depositphotos.com)

Die Vakuummethode für die Linienfertigung

Um Kurzschlüsse zu vermeiden, muss das Kühlmedium im Hochtemperatur-Kühlkreislauf der Bipolarplatten eine geringe Leitfähigkeit aufweisen. In der Regel dient darum deionisiertes Wasser mit einem Frostschutzzusatz als Kühlflüssigkeit. Um zu vermeiden, dass diese Flüssigkeit aus dem Kühlkanal austritt, ist eine Dichtheitsprüfung gegen Leckraten im Bereich von 10-3 bis 10-4 mbar∙l/s sinnvoll. Dies ist die übliche Größenordnung für Flüssigkeitsdichtheit, denn das Wasser selbst verschließt Lecks dieser Größe. Für diese und andere Dichtheitsprüfaufgaben bei der Fertigung empfiehlt sich die prüfgasbasierte Vakuummethode. Sie verbindet hohe Zuverlässigkeit mit kurzen Taktzeiten und eignet sich darum besonders für Prüfaufgaben in der Fertigungslinie. Das Prüfteil wird dafür in eine Vakuumkammer gebracht, zunächst evakuiert und dann mit Helium beaufschlagt. Anhand des Prüfgases, das aus etwaigen Lecks in das Vakuum der Kammer austritt, ergibt sich die Leckrate des Prüfteils. Neben dem Hochtemperatur-Kühlkreislauf, der die Bipolarplatten durchströmt, verfügen FCEV-Fahrzeuge auch über einen oder mehrere Niedertemperatur-Kühlkreisläufe, die elektrische Komponenten wie Antrieb, Wandler und Leistungselektronik in Temperaturbereichen von unter 60° C halten. Sie werden mit einem herkömmlichen Wasser-Glykol-Gemisch betrieben und sind ebenfalls gegen Flüssigkeitsdichtheit zu prüfen.

Prüfung der Bipolarplatte auf Wasserstofflecks

Die Vakuummethode dient auch dazu, die Bipolarplatten selbst auf Wasserstoffleckagen zu prüfen. Dabei wird der Wasserstoffhohlraum der Bipolarplatte abgedichtet, evakuiert und mit Helium gefüllt. In einer evakuierten Vakuumkammer kann dann ein Lecksuchgerät gegen Grenzleckraten von 10-4 bis 10-5 mbar∙l/s testen. Ist im Vakuum der Kammer kein Helium nachweisbar, existieren keine Lecks – weder aus dem Wasserstoffhohlraum nach außen noch in den Kühlkanal hinein. Detektiert das Gerät allerdings ein Leck, ist eine weitere Ursachenforschung möglich. Dabei nutzt man den Umstand, dass der Wasserstoffhohlraum der Bipolarplatte nach der Prüfung in der Vakuumkammer noch mit Helium befüllt und abgedichtet ist. Allerdings wird jetzt nur noch der Kühlkanal selbst an eine Vakuumpumpe angeschlossen. So lässt sich nachweisen, ob Helium ins Vakuum des Kühlkanals eindringt. Anderenfalls steht fest, dass das ursprünglich identifizierte Leck nach außen führt.

Tests montierter Brennstoffzellen-Stacks

Nach dem Zusammenbau der Bipolarplatten zu kompletten Fuel Cell Stacks sind End-of-line-Tests erforderlich – wobei auch nach vorangehenden Zwischenschritten bereits Prüfungen sinnvoll sein können. Für all diese Tests an montierten Fuel Cell Stacks dient ebenfalls Helium als Prüfgas. Wollte man stattdessen mit Wasserstoff prüfen, entstünde das Risiko, dass die Brennstoffzelle bereits ungewollt Strom produziert. Auch aus Sicherheitsgründen verbietet sich Wasserstoff als Prüfgas, weil Groblecks im Wasserstoffkreislauf schnell zu zündfähigen Wasserstoffkonzentrationen von mehr als 4 Prozent in Luft führen könnten. Typische Helium-Grenzleckraten für die Dichtheitsprüfung an assemblierten Brennstoffzellen-Stacks liegen in der Praxis im Bereich von ungefähr 10-3 bis 10-5 mbar∙l/s. Welche Grenzleckrate für den komplettierten Fuel Cell Stack tolerabel ist, hängt entscheidend auch von der konkreten Einbausituation im Fahrzeug ab. Bei welcher Leckrate eine zündfähige Wasserstoffkonzentration von 4 Prozent in Luft entstehen kann, ist eben nicht nur eine Frage der Dichtheit des Brennstoffzellen-Stacks, sondern auch eine des ihn umgebenden Volumens im Fahrzeug und des Luftaustauschs in dieser Umgebung. Auch diese Faktoren gilt es bei der Festlegung einer sinnvollen Leckrate zu berücksichtigen.

Dichtheit der Wasserstoffrezirkulation

Weitere Dichtheitsprüfungen sind an Komponenten wie der Medienverteilerplatte einer Brennstoffzelle (die Wasserstoff, Luft und Kühlmittel leitet), an ihren diversen Ventilen, Pumpen und ihrer Wasserstoffrezirkulation erforderlich. Brennstoffzellen führen den Membran-Elektroden-Einheiten ihrer Bipolarplatten Wasserstoff und Luftsauerstoff überstöchiometrisch zu. Das heißt: Bei der Reaktion zu Wasser bleiben jeweils Reste der beiden Gase übrig. Aus diesem Grund benötigen Brennstoffzellen eine Wasserstoffrezirkulation. Dabei durchlaufen die Prozessgase zunächst einen Wasserabscheider, der Wasserstoffanteil wird dann rezirkuliert und erneut verwendet. Auch bei den wasserstoffführenden Komponenten der Wasserstoffrezirkulation empfiehlt sich eine Prüfung gegen Leckraten im Bereich von 10-4 bis 10-6 mbar∙l/s.

Permeationsgrenzwerte für Wasserstofftanks

Die Wasserstofftanks, die in FCEVs verbaut werden, sind meist sogenannte Typ-IV-Tanks, hergestellt aus Verbundwerkstoffen. Solche Tanks für Pkw sollen üblicherweise Betriebsdrücken von bis zu 700 bar widerstehen. Die weit größeren Wasserstofftanks für Busse sollen Betriebsdrücken von 350 bar standhalten. Die Dichtheitsanforderungen für Wasserstofftanks entstehen aus einer Reihe von internationalen Normen, die maximal zulässige Permeationsraten definieren. Bei einem Pkw-Wasserstofftank mit 30 l Kapazität und 700 bar Druck ergibt sich beispielsweise nach den Permeationsgrenzwerten der ISO 15869 B.16 umgerechnet eine Helium-Grenzleckrate von 2,3 ∙ 10-2 mbar∙l/s. In der Praxis werden Wasserstofftanks aber oft nicht bloß den Normen entsprechend geprüft, sondern gegen Leckraten im Bereich 10-3 mbar∙l/s. Denn jede gemessene Leckrate, die die unvermeidbare Permeation des Materials selbst übersteigt, ist notwendigerweise ein Indiz für ein reales Leck.

Akkumulationsprüfung am Wasserstofftank

Wenn an einen Wasserstofftank die erforderlichen Armaturen und Ventile angebracht sind, wird aus dem ursprünglichen Tankkörper das sogenannte Tankmodul. Für die Vorprüfung der Tankkörper eignen sich sowohl die Vakuummethode mit Helium als auch die Akkumulationsmethode mit Formiergas. Bei letzterer beaufschlagt man das Prüfteil mit einem unbrennbaren Gemisch aus 5 Prozent Wasserstoff und 95 Prozent Stickstoff, dem handelsüblichen Formiergas. Aus der Prüfgasmenge, die dann in einer einfachen Prüfkammer aus dem Prüfteil wieder austritt und dort im Laufe eines definierten Zeitraums akkumuliert, ergibt sich die Leckrate. Weil derzeit die Produktionszahlen noch nicht hoch genug sind, als dass sich die Vakuumprüfung ihrer kürzeren Taktzeiten wegen lohnen würde, wird oft noch diese Akkumulationsmethode angewandt. Gerade die großen Wasserstofftanks von Bussen, die Volumina von bis zu 1.700 l aufweisen, prüft man in Akkumulationskammern mit bis zu 4.000 l Kammervolumen. Wegen der geringeren Prüfgaskosten wird der Prüfling dabei mit dem günstigeren Formiergas befüllt. Allerdings mit einem Druck von 700 bar, weil die ansonsten deutlich kleineren Leckraten in der sehr großen Akkumulationskammer nicht nachweisbar wären. Wegen des hohen Prüfdrucks gibt es in diesem speziellen Fall in der Akkumulationskammer auch einen Notauslass, der bei Überdruck öffnet.

Schnüffellecksuche an kompletten Tanks mit allen Armaturen

Auch nach dem Zusammenbau des Tankkörpers mit allen Armaturen – Befüll- und Auslassventile sowie Drucksensoren – sind noch Dichtheitsprüfungen erforderlich. Allerdings verwendet man hier üblicherweise die sogenannte Schnüffellecksuche. Der fertige Tank wird dazu entweder mit Helium oder Formiergas als Prüfgas befüllt und abgedichtet. Anschließend fährt man mit einer Schnüffelspitze an der Oberfläche des Tanks entlang. Dabei konzentriert man sich auf die neuralgischen Punkte, also die Verbindungsstellen zu den Armaturen. Die automatisierte, dynamische Schnüffellecksuche, bei der ein Roboterarm die Schnüffelspitze führt, vermeidet etwaige Fehler eines menschlichen Prüfers und garantiert maximalen Durchsatz. Allerdings sind dazu Lecksuchgeräte erforderlich, die einen besonders hohen Gasfluss aufweisen. Ansonsten könnte der Roboterarm die Schnüffelspitze nicht schnell genug und auch nicht mit dem gebotenen Sicherheitsabstand über das Prüfteil hinwegbewegen. Typische Grenzleckraten bei diesen End-of-line-Prüfungen an fertigen Wasserstofftanks liegen im Bereich 5∙10-2 mbar∙l/s.

Dichtheit von Elektro- und Wasserstoffkomponenten

Letztlich sind es Elektromotoren, die ein Brennstoffzellenfahrzeug bewegen. Auch die Lithium-Ionen-Batterien, die die Motoren speisen, sind ihrem Prinzip nach dieselben wie in Elektrofahrzeugen – wenngleich die Traktionsbatterie im FCEV weit kleiner ist und nur als Puffer fungiert. Auch hier existieren Dichtheitsprüfaufgaben. Aus Lithium-Ionen-Zellen etwa darf kein Elektrolyt austreten, und in die Zellen darf keine Luftfeuchtigkeit eindringen. Sonst könnte der Elektrolyt mit dem Wasser zu Flusssäure reagieren. Die Prüfaufgaben für die Batterien, Steuermodule und Elektromotoren von FCEVs sind dieselben wie bei Elektrofahrzeugen. Aber auch die spezifischen Komponenten von Brennstoffzellenfahrzeugen erfordern eine sehr zuverlässige Dichtheitsprüfung. Zumal der Begriff Wasserstoff im Bewusstsein der Öffentlichkeit schnell mit dem Wort Gefahr assoziiert wird. Eine konsequente Qualitätssicherung ist also unverzichtbar. Prüfgasbasierte Verfahren sind der Weg dorthin.

Autorin:
Sandra Seitz ist Market Manager Automotive Leak Detection Tools bei Inficon. Weiterführende Informationen finden sich im E-Book „E-Mobilität: Dichtheitsprüfung für Fahrzeuge mit alternativen Antrieben“. Es behandelt die vielfältigen Prüfaufgaben bei der industriellen Fertigung von Komponenten für Battery Electric Vehicles (BEV), Plug-in Hybrid Electric Vehicles (PHEV) und Fuel Cell Electric Vehicles (FCEV). Das E-Book steht hier zum kostenlosen Download zur Verfügung: https://www.inficon.com/de/maerkte/automobilindustrie/dichtheitspruefung-emobilitaet-elektroauto-brennstoffzelle

Versicherungsbranche: Digitale Investitionen nehmen zu

Das Beratungsunternehmen Colombus Consulting hat die 5. Studienausgabe über die Digitalisierung der Kundenerfahrung in der Schweizer Versicherungsbranche veröffentlicht. Nach einem zaghaften Aufschwung im Jahr 2021 wird die Versicherungsbranche 2022 dynamischer investieren. Es gibt zahlreiche Initiativen, die darauf abzielen, das Kundenerlebnis zu verbessern, insbesondere bei mobilen Anwendungen. Innovation wird ebenso durch die Entwicklung von InsurTech und die Schaffung neuer Geschäftsökosysteme stattfinden.

So digital ist die Schweizer Versicherungsbranche: Hier das globale Ranking des digitalen Index, welcher die digitale Performance von Versicherungen anhand von 50 Indikatoren misst, die in vier Bereiche unterteilt sind: Web, Mobile, Marketing und Social. (Grafik: Colombus Consulting)

Die Digitalisierung beschleunigt sich: Die Versicherer Helsana, TCS und Groupe Mutuel, die das Ranking dominieren, machen im Durchschnitt mehr Fortschritte als die anderen Marktteilnehmer. Dies liege daran, dass die Kundenbeziehungen weiterentwickelt sind und Interaktionen häufiger mit mehr digitalen Dienstleistungen erfolgen (Scannen und Versenden von Rechnungen, Änderung der Selbstbeteiligung, Beantragung neuer Zusatzprodukte, Fragen zur Produktabdeckung usw.). Zu diesem Ergebniss kommt die Studie von Colombus Consulting über die Digitalisierung der Schweizer Versicherungsbranche. Ferner sind die für digitale Medien bereitgestellten Budgets deutlich gestiegen (+31%), vor allem bei den Krankenversicherern, die mehr investieren als die Schaden- und Unfallversicherer (10 Punkte Unterschied liegen im Wachstum der Budgets für digitale Medien zwischen den beiden Versicherungsarten).

Die Versicherer entwickeln ihre Zielgruppen und Dienste

Der Trend geht gemäss der Studie in folgende Richtungen: Die Versicherungsbranche strebt an, sich auf Instant Messaging, Chatbots und einer besseren Integration sozialer Netzwerke in den Kundenservice zu berufen sowie differenzierte Interaktionsdienste zu entwickeln. „Das Ziel der Versicherer besteht heute darin, die Kundenbeziehungen auf digitalen Kanälen flüssiger zu gestalten, ohne dabei zu vergessen, dass Agenturen und Berater die Hauptanlaufstelle für Kunden bleiben. Wir sprechen von einem digital erweiterten Berater“, sagt Rémi Chadel, stellvertretender Direktor von Colombus Consulting.

Mobile Apps stehen im Mittelpunkt der Innovation in der Branche

Während mobile Apps in der Vergangenheit Funktionen angeboten haben, die die Grundbedürfnisse abdeckten (Schadenmanagement, Scannen von Rechnungen, Kontakt mit der Versicherung), entwickelt sich dieses Angebot weiter: SWICA, CSS, Sanitas und Helsana bieten nun ein digitales Gesundheitscoaching über fortschrittlichere mobile Anwendungen an. Der neue Dienst Twint+ bietet in Partnerschaft mit Würth Finanzdienstleistungen auf dem „App Only“-Markt Reiseversicherungen oder Versicherungen für Alltagsgegenstände an, während die Revolut-Reiseversicherung nur in Europa und nicht in der Schweiz verfügbar ist.

Anhaltendes Wachstum von InsurTech treibt die Versicherungsbranche an

Trotz einer Verlangsamung der Mittelbeschaffung verzeichnen die InsurTech-Akteure im Jahr 2022 ein anhaltendes Wachstum. Auf europäischer Ebene wird der Sektor in zwei Familien unterteilt: einerseits Unternehmen, die sich als direkte Konkurrenten der traditionellen Versicherer positionieren (z.B. das deutsche Unternehmen Wefox und die französischen Unternehmen Alan und +Simple), und andererseits Anbieter von spezialisierten Dienstleistungen und Lösungen (z.B. das französische Unternehmen Shift Technology, das auf Betrugserkennung spezialisiert ist, und das englische Unternehmen Envelop Risk, das sich auf Rückversicherung spezialisiert hat). Ähnlich wie bei AXA Schweiz, die 2022 das Start-up Kinastic gekauft hat, gehen die Übernahmen oder Partnerschaften zwischen Versicherern und InsurTech weiter.

Neue Ökosysteme nehmen Gestalt an

Die Dynamik der InsurTech-Akteure hat die Versicherungsunternehmen zu Innovationen gedrängt, was zur Entstehung eines neuen Trends geführt hat: Unternehmens-Ökosysteme, die es Akteuren desselben Sektors ermöglichen, ihre Kräfte zu bündeln, um neue Dienstleistungen zu schaffen. So verzeichnet man die Ankunft von Well, ein Zusammenschluss von CSS Insurance, Visana, dem Telemedizinanbieter Medi24 und der Online-Apotheke Zur Rose, welches neue integrierte Dienstleistungen zwischen den Unternehmen anbietet. In der gleichen Dynamik bündeln sich in Compensana die Versicherer Groupe Mutuel, Helsana und Swica sowie die Gesundheitskonzerne Medbase und Hirslanden. Sie werden voraussichtlich Dienstleistungen lancieren, die vom Markt ebenfalls genau unter die Lupe genommen werden. „Die Kundenerwartungen im Versicherungssektor sind in der Tat hoch, denn das digitale Kundenerlebnis hinkt anderen Sektoren oft hinterher“, sagt Rémi Chadel.

Sollte die Digitalisierung durch „Open Insurance“ erreicht werden?

Durch die Integration neuer Dienstleistungen, Partnerschaften und die Schaffung von Ökosystemen wird der Versicherungsmarkt immer offener. Während in der Vergangenheit die Zusammenarbeit zwischen Unternehmen darauf abzielte, das Angebot an Dienstleistungen zu erweitern, sollte Open Insurance heute die Möglichkeit bieten, neue End-to-End-Dienste anzubieten oder sogar branchenfremde Akteure zu integrieren. „Hervorragende Erfahrungen für Kunden und Mitarbeiterende bleiben ein starker Motor für Innovationen in einem Markt, der ständig nach neuen Wegen sucht“, schliesst Rémi Chadel.

Quelle und weitere Informationen: Colombus Consulting

Vielen Unternehmen fehlt umfassende DevOps-Kultur

Moderne Software-Entwicklung lebt von DevOps-Initiativen und agilen Arbeitsweisen. Doch eine aktuelle Studie zeigt, dass dieses Potenzial in internationalen Unternehmen längst nicht ausgeschöpft wird: Weniger als die Hälfte der befragten Entwickler-Teams nutzt die relevanten Arbeitsmethoden bereits umfassend und weist einen entsprechend hohen DevOps-Reifegrad auf.

Wer als Unternehmen in DevOps investiert, profitiert. Gemäss einer Studie ist es deshalb an der Zeit, agile Arbeitsweisen zu Ende zu denken. (Bild: Unsplash.com)

Unternehmen verschenken Potenzial bei der Software-Entwicklung: Weniger als die Hälfte haben eine umfassende DevOps-Kultur. Dies zeigt die State of Developer Experience Survey 2022 von LeanIX. Gemäss dieser Studie wenden die meisten Befragten die für DevOps charakteristischen Methoden nur vereinzelt an und beklagen häufiger, dass Hindernisse in der täglichen Arbeit zur Herausforderung werden. Bedenkt man die Bedeutung der Software-Entwicklung für das Erreichen geschäftlicher Ziele, ist es alarmierend, dass die Mehrheit der Entwickler-Teams wenig Einblick in den unmittelbaren Kundennutzen ihrer Arbeit habe, resümiert die Studie. Nur wenige Kennwerte sind verfügbar und auch die Effizienz der Software-Entwicklung wird nur unzureichend gemessen. Ein Viertel der Befragten ermittelt nicht eine der vier anerkannten DORA-Metriken. Fehlen solche Kennzahlen zu Kundennutzen und Effizienz, erschwert das die Kommunikation: So geben nur 42 Prozent der Befragten an, dass IT und Business in ihrem Unternehmen eine gemeinsame Sprache sprechen. Die 2022 erstmals durchgeführte LeanIX State of Developer Experience Survey verdeutlicht: Ein bisschen DevOps ist nicht genug – und ein stärkerer Fokus darauf kann die Software-Entwicklung entscheidend verbessern.

Potenzial von DevOps wird in der täglichen Arbeit nicht ausgeschöpft

Die Studienteilnehmer wurden nach dem Einsatz von fünf charakteristischen Arbeitsmethoden für DevOps gefragt – mit ernüchterndem Ergebnis:

Zwar geben jeweils knapp 60 Prozent der Befragten an, auf sich ändernde Kundenbedürfnisse flexibel reagieren zu können und über CI/CD-Pipelines zu verfügen. Doch die Flexibilität mit Blick auf den Kunden und die Möglichkeit, über CI/CD-Pipelines Änderungen am Code automatisiert ausführen und testen zu lassen, ist zentral für DevOps-Initiativen. Es ist daher bemerkenswert, dass bei mehr als 40 Prozent der Teams diese Grundvoraussetzung nur teilweise oder gar nicht erfüllt ist. Noch schlechter stellt sich das Bild dar, wenn es um das für DevOps typische Prinzip „build-ship-own your code“ geht, die auf Team-Topologien basierende Team-Organisation oder die freie Wahl des Tech Stacks. Zusammenfassend lässt sich sagen: DevOps-Initiativen sind in internationalen Unternehmen ausbaufähig.

DevOps-Reifegrad beeinflusst Wahrnehmung von Hindernissen bei der Arbeit

Blickt man auf die fünf abgefragten Arbeitsmethoden, so zeigt sich, dass mit 53 Prozent die Mehrheit der Entwickler-Teams nur bis zu drei dieser Methoden einsetzen. Dieser niedrige DevOps-Reifegrad hat Einfluss auf die Beurteilung von Hindernissen in der täglichen Arbeit. Befragte solcher Teams bewerten diese durchgehend als größere Herausforderung:

Den manuellen Aufwand aufgrund mangelnder Automatisierung zu reduzieren – das steht bei allen Befragten ganz oben auf der Liste der Hindernisse, die als „große Herausforderung“ beschrieben werden. Teams mit einem niedrigeren DevOps-Reifegrad nehmen dies mit 41 Prozent versus 25 Prozent jedoch deutlich stärker wahr. Ob Abbau von Silos oder die Schwierigkeit, sich aufgrund häufiger Kontextwechsel auf seine Aufgaben zu fokussieren, ob das Aufdecken von Bottlenecks, die Herausforderung der Priorisierung von Projekten oder der effizienten Allokation von Ressourcen: Theoretisch führen agile Arbeitsweisen zu einer Beseitigung oder deutlichen Reduktion dieser Hindernisse. Die Tatsache, dass die Mehrheit der Befragten diese Themen als herausfordernd beschreibt, ist ein weiterer Hinweis darauf, dass DevOps-Teams noch auf der Reise sind. Hier können die Verantwortlichen ansetzen, um die Software-Entwicklung im Unternehmen weiter zu verbessern und zu beschleunigen.

Es fehlt eine gemeinsame Sprache von IT und Business

Erfolgreiche DevOps-Initiativen benötigen die Kollaboration mit allen Stakeholdern im Unternehmen – darauf weisen die Analysten von Gartner hin. Sie merken an, dass viele Initiativen auch deshalb scheitern, weil innerhalb des Unternehmens die damit verknüpften Erwartungen nicht klar definiert sind. Um diese Erwartungen zu steuern, sollten sich IT und Business auf gemeinsame Ziele und Metriken – und damit auf eine gemeinsame Sprache – verständigen, fordern die Experten.

Genau diese gemeinsame Sprache fehlt aber in den Unternehmen: Nur 42 Prozent der Befragten in dieser Studie geben an, dass IT und Business einander verstehen. Betrachtet man, welche Metriken überhaupt erfasst und näher betrachtet werden, wird die fehlende Basis zur Verständigung offensichtlich.

Wenig Einblick in den Kundennutzen und in die Effizienz der Software-Entwicklung

Rund 70 Prozent der Entwickler-Teams blicken in Bezug auf den Kunden und ihre Arbeit auf zwei Kennwerte: die offenen Support-Tickets und die monatlichen aktiven Nutzer – also leicht zugängliche Metriken, die das größte Frustrationspotenzial bergen und keinen direkten Bezug zur ausgelieferten Software und deren Wert für den Kunden herstellen:

Ob Feature Adoption, Abwanderungsquote, Return on Investment oder Net Promoter Score als Ausdruck der Zufriedenheit: Jede dieser Kennzahlen wird von weniger als der Hälfte der Software-Entwicklungsteams betrachtet. Die meisten Teams haben also kaum Einblick in den tatsächlichen Erfolg und Kundennutzen ihrer konkreten Arbeitsleistung – und können diesen auch nicht mit dem Business teilen.

Auch die Möglichkeit, die Performance der Software-Entwicklung anhand der vier anerkannten DORA-Metriken (Deployment Frequency, Failure Rate, Lead Time for Changes, Mean Time to Recovery) zu messen, wird nicht umfassend wahrgenommen. Ein Viertel der Befragten betrachtet nicht mal einen dieser Kennwerte. Dabei würde auch eine solche Erfassung der Leistungsfähigkeit zu einer gemeinsamen Sprache beitragen, die gegenseitige Wertschätzung erst möglich macht.

Verschiedene Datenquellen erschweren den Überblick

Die notwendigen Informationen für relevante Kunden-Kennwerte oder die DORA-Metriken sind oftmals auf verschiedene Quellen verteilt. Ihre Erfassung wird häufig mit großem manuellen Aufwand – und in knapp 40 Prozent der Fälle sogar mit Excel-Tabellen – betrieben.

Moderne Value Stream Management-Plattformen könnten helfen. Doch nur 20 Prozent der Befragten setzen diese bereits ein, um Datenströme automatisiert miteinander zu verknüpfen und den unmittelbaren Zusammenhang zu den Geschäftsergebnissen herzustellen.

Agile Arbeitsweisen trotz überwiegend positiver Developer Experience ausbauen

Keine umfassende DevOps-Implementierung, Hürden bei der täglichen Arbeit, wenig Einblick in den unmittelbaren Kundennutzen der entwickelten Software – trotz dieser Situation in den Entwickler-Teams bewertet die knappe Mehrheit der Befragten die Developer Experience grundsätzlich eher positiv:

Was zunächst gut klingt, zeigt bei genauerer Betrachtung aber auch, dass sich fast die Hälfte der Befragten nicht zu einer positiven Bewertung entschließen kann. Vor dem Hintergrund des massiven Fachkräftemangels in der IT und der steigenden Bedeutung von Software als Differenzierungsmerkmal am Markt sollten Unternehmen alles daran setzen, ihre Software-Entwicklungsteams an sich zu binden.

Optische Oberflächenmesstechnik für mehr Fertigungsqualität

Oberflächeneigenschaften spielen bei vielen Produkten eine wichtige Rolle, da sie nicht nur Haptik und Ästhetik, sondern auch mechanisches, elektrisches oder chemisches Verhalten beeinflussen können. Informationen über die Ebenheit oder Rauheit bilden deshalb eine wichtige Grundlage für Optimierungen. Mit ihrer Hilfe lassen sich z.B. Reibung erhöhen oder vermindern, Verschleiss minimieren, die Unempfindlichkeit gegenüber äusseren Einflüssen steigern oder die Übertragungsfähigkeit verbessern.

Bild1: Optische Messverfahren als berührungslose und zerstörungsfreie Analyse- und Prüfmethode erschliessen für Qualitätskontrolle und Fertigungsoptimierung viele Möglichkeiten, da sie für nahezu alle Materialien einsetzbar sind und sich auch für empfindliche Oberflächen eignen. (Quelle: Polytec)

Oberflächen sind meist das Ergebnis eines oft mehrstufigen Herstellungsprozesses. Deshalb kann nur ein sorgsam abgestimmter und qualitätsüberwachter Fertigungsprozess zum gewünschten Ergebnis führen. Optische Messverfahren als berührungslose und zerstörungsfreie Analyse- und Prüfmethode (Bild 1) erschliessen hier interessante Möglichkeiten, da sie für nahezu alle Materialien einsetzbar sind und sich auch für empfindliche Oberflächen eignen.

Bewährte Messverfahren mit Grenzen

Traditionell werden in der Oberflächenmesstechnik meist noch taktile Messgeräte eingesetzt. Besonders verbreitet ist das sogenannte Tastschnittverfahren. Dabei wird eine feine Diamant-Tastspitze über die Oberfläche geführt und durch die Oberflächentextur vertikal ausgelenkt. Die Information über die Oberfläche wird somit zweidimensional entlang eines Profils gewonnen. Das Verfahren ist in einschlägigen Normen wie der DIN EN ISO 3274 oder DIN 4287 ausführlich beschrieben und hat sich in der Praxis durchaus bewährt. Inwieweit die Reduzierung der Oberfläche auf einen Profilschnitt ausreichende Ergebnisse liefert, hängt aber von den Anforderungen ab, denn das Ergebnis für den Rauheitskennwert wird stark von der gewählten Messposition beeinflusst. Die Beschreibung der Oberflächenbeschaffenheit als Profilschnitt genügt deshalb in der Regel nicht für Aussagen über die Funktionalität der gesamten Oberfläche oder für eine Optimierung der Fertigung. Dies ist bei der dreidimensionalen optischen Messung anders, da sie über die gesamte Oberfläche detektieren kann. Bei dem berührungslosen Verfahren sind zudem Beschädigungen der Oberfläche ausgeschlossen (Bild 2).

Bild2: Eine taktile Höhenmessung hat 70 nm tiefe Kratzer in der Oberfläche hinterlassen, die in der selben Grössenordnung liegen wie die zu messende Stufe. (Quelle: Polytec)

Die Wahl der Grenzwellenlänge

Rauheit, Form und Welligkeit sind bei der optischen Oberflächenmessung keine scharf voneinander abgegrenzten Merkmale, die separiert nebeneinander vorliegen. Stattdessen lässt sich eine Oberfläche als Überlagerung zahlreicher Wellenlängen beschreiben, wobei der Übergang von den besonders langwelligen Formanteilen über die Welligkeitsanteile bis hin zu den kurzwelligen Rauheitsanteilen fliessend ist (Bild 3). Für die Separierung sind Frequenzfilter zuständig. Durch Anwendung dieser Tief- bzw. Hochpassfilter mit Gauß-Charakteristik liegt dann der weiteren Auswertung ein bandbreitenbegrenztes Profil bzw. eine bandweitenbegrenzte Oberfläche vor. Der Wahl der jeweiligen Grenzwellenlängen kommt dabei eine zentrale Bedeutung zu, denn je nach Einstellung können sich unterschiedliche Messwerte für die gesuchte Messgrösse ergeben.

Bild3: Bei Oberflächen mit zufällig verteilten Strukturen ist der Messwert bei profilhafter Rauheitsmessung abhängig von der Messposition. Flächenhafte Rauheitskennwerte liefern stabilere und zuverlässigere Ergebnisse. (Quelle: Polytec)

Die Messketten für die flächen- bzw. profilhafte Auswertung, die sich heute auf die optische Messtechnik anwenden lassen, sind in den Normenreihen ISO 25178 bzw. ISO 4287 beschrieben. Bei der profilhaften Messung werden die Grenzwellenlänge, die Einzelmessstrecke und die Auswertelänge in Abhängigkeit von der Oberflächeneigenschaften auf Grundlage einer Tabelle ermittelt. Hierzu werden die zu erwartenden Texturparameter zunächst geschätzt und dann Testmessungen durchgeführt. Für die flächenhafte Messung gibt es keine vergleichbare Tabelle, es ist jedoch empfehlenswert, dieselben oder ähnliche Werte als Basis für Testmessungen zu wählen. Die häufig in der Praxis angewendeten Amplituden und Höhenparameter wurden weitgehend in der neueren Norm auf die flächenhafte Auswertung erweitert. Dabei hat die flächige Messung und Auswertung der Topografie den Vorteil, dass sie nicht von der Wahl der Messposition abhängt und somit – vor allem bei inhomogenen oder fehlerhaften Oberflächen – zuverlässigere Ergebnisse liefert (Bild 4).

Bild 4: Bei Oberflächen mit zufällig verteilten Strukturen ist der Messwert bei profilhafter Rauheitsmessung abhängig von der Messposition. Flächenhafte Rauheitskennwerte liefern stabilere und zuverlässigere Ergebnisse. (Quelle: Polytec)

Kenngrössen in der Oberflächenmesstechnik

Für die Vielzahl der Kenngrössen aus den Profilnormen ISO 4287 und ISO 13565 findet sich ein Äquivalent in der neueren Flächennorm ISO 25178. Darüber hinaus bietet die flächenhafte Auswertung der Topografie jedoch aufgrund der hinzukommenden Dimension zusätzliche Möglichkeiten, die eine funktionsorientierte Bewertung der Oberfläche erlauben. Materialanteilkurven, die auf flächenhaft ermittelten Daten beruhen, machen es beispielsweise möglich, das funktionale Verhalten einer Oberfläche zu beschreiben (Bild 5a, b). Hinzukommen können noch weitere Auswertungen, die auf Materialvolumen- oder Topografieparametern basieren und zusätzliche Erkenntnisse liefern.

Bild 5a + b: Aus der Materialanteilkurve lassen sich funktionsrelevante Eigenschaften einer Oberfläche ableiten. (Quelle: Polytec)

Zusammenfassend lässt sich sagen, dass die profilhafte 2D-Oberflächenmesstechnik mittelfristig wohl nur dort weiter sinnvoll sein wird, wo ihre Aussagekraft ausreicht. Die flächenhafte Charakterisierung der Oberfläche mit Hilfe der optischen 3D-Messtechnik bietet wesentlich mehr Möglichkeiten. Messeinrichtungen sollten deshalb spätestens dann ergänzt oder ersetzt werden, wenn 2D-Kennwerte die Charakteristik oder Funktion einer Oberfläche nicht mehr ausreichend genau oder nur unzuverlässig beschreiben können. Dann liefert die dreidimensionale optische Messtechnik nicht nur eine funktions- und strukturorientierte Auswertung, sondern auch ein für die menschliche Auffassungsgabe leichter verständliches Abbild der Oberfläche.

Autoren:
Dr.-Ing. Özgür Tan, Jan Zepp, Polytec GmbH, und Ellen-Christine Reiff, M.A., Redaktionsbüro Stutensee (http://www.rbsonline.de)

Über Polytec

Als Lasertechnologie-Pionier bietet Polytec bereits seit 1967 optische Messtechnik-Lösungen für Forschung und Industrie. Nach den Anfangsjahren als Distributor machte sich das Hochtechnologie-Unternehmen mit Sitz in Waldbronn bei Karlsruhe schon in den 70er Jahren einen Namen als Entwickler eigener laserbasierter Messgeräte und ist heute Weltmarktführer im Bereich der berührungslosen Schwingungsmesstechnik mit Laservibrometern. Systeme für die Längen- und Geschwindigkeitsmessung, Oberflächencharakterisierung, Analytik sowie die Prozessautomation gehören ebenfalls zur breiten Palette an Eigenentwicklungen. Eine weitere Kernkompetenz von Polytec ist die Distribution von Bildverarbeitungskomponenten und optischen Systemen.

Weitere Informationen zum Thema finden Sie unter: https://www.polytec.com/de/rauheitsmessung

Swiss Artificial Intelligence Research Overview Platform (SAIROP) lanciert

Vor etwas über einem Jahr gaben die SAIROP-Partner bekannt, gemeinsam eine Schweizer Forschungsübersicht im Bereich Künstliche Intelligenz zu erarbeiten. Nun ist es endlich so weit: SAIROP – die Swiss Artificial Intelligence Research Overview Platform – ist am 23. Juni 2022 live gegangen.

Screenshot der neuen Plattform SAIROP (Ausschnitt; www.sairop.swiss).

Die Schweiz verfügt über das ganze Land verteilt über mehrere international führende Forschungsinstitutionen im Bereich der Künstlichen Intelligenz (KI). Unabhängig davon nimmt die Bedeutung und der Einsatz von KI als Basistechnologie in immer mehr Forschungsgebieten und Anwendungsbereichen stetig zu. Erstmals stellt die Swiss Artificial Intelligence Research Overview Platform SAIROP nun eine detaillierte Übersicht über die KI-Kompetenzen in der zerstreuten Forschungslandschaft der Schweiz dar.

Hoher Detaillierungsgrad

Die zehn involvierten Partnerorganisationen befragten dafür die verschiedenen Forschungsinstitutionen in der Schweiz und führten Informationen zu aktuellen Forschungsprojekten aus unterschiedlichen öffentlich zugänglichen Datenquellen zusammen. Die Datenaufbereitung und -kuration ist aufgrund der grossen Diversität aufwendig. Dafür sind die Informationen dank der neuen Plattform besser zugänglich und der Detaillierungsgrad im europäischen Raum wohl einmalig.

SAIROP: Seit 23. Juni 2022 online

Die Plattform ist online öffentlich zugänglich und wurde am 23. Juni an der Swiss Conference on Data Science (SDS2022) im KKL Luzern einem Publikum bestehend aus Industrievertretern und Forschenden präsentiert. Aktuell darauf dargestellt sind Daten zu Forschungseinrichtungen, aktuellen Projekten mit Startjahr 2021 und Fachpersonen, die in der Schweiz zu und mit KI forschen. Die Daten werden laufend ergänzt und aktualisiert. Ausserdem soll die Platt-form zukünftig mit weiteren relevanten Informationen angereichert werden, um eine noch bessere Übersicht über das Forschungsfeld und dessen Auswirkungen auf die Gesellschaft zu ermöglichen.

Sichtbarkeit von Schweizer KI-Partnern verbessern

Längerfristig soll SAIROP die KI-Forschungsgemeinschaft noch enger vernetzen, die Sichtbarkeit von Schweizer KI-Forschungspartnern verbessern und für lokale sowie internationale Unternehmen und Forschungseinrichtungen einen neuen Zugang für die Initiierung von Innovationsprojekten bieten. Dafür sind dedizierte Veranstaltungen und weitere Kommunikationsmassnahmen vorgesehen.

Quelle: satw

Betriebsstörungen: Alles aus? Muss nicht sein!

Jüngste Vorkommnisse zeigen, dass Betriebsstörungen neue Herausforderungen an das betriebliche Risiko-, Sicherheits- und Krisenmanagement sowie an die organisationale Resilienz stellen. Vorschläge und Gegenmassnahmen, wie sich Unternehmen auf Ausfälle oder daraus resultierende Krisen vorbereiten können, halten Experten bei der Fachtagung am 27. Oktober 2022 in Zürich bereit.

Eine Fachtagung beschäftigt sich am 27. Oktober 2022 mit Geschäftsrisiken und Krisenmanagement bei Betriebsstörungen. (Bild: Save AG)

Wir leben in einer VUCA-Welt – geprägt demzufolge von Volatilitäten, Unsicherheiten, Komplexitäten und Mehrdeutigkeiten. Die Einflüsse auf das Risikomanagement der Unternehmen sind gestiegen und noch vielschichtiger, komplexer geworden. Dass Unwahrscheinliches wahrscheinlich eintreten kann, gehört dazu. Betriebsstörungen respektive längere Unterbrechungen sind keine allzu seltenen Ereignisse mehr. Jüngste Vorkommnisse von hoher Tragik und Reichweite stellen indes ganz neue Anforderungen an das betriebliche Sicherheits-, Notfall- und Krisenmanagement sowie an die organisationale Widerstandsfähigkeit.

Stromversorgungs-Unsicherheit erhöht Risiko für Betriebsstörungen

Die zunehmende Vernetzung und Durchdringung praktisch aller Lebensbereiche mit Informatik und die Vernetzung von Logistik- und Lieferketten eröffnet ökonomische wie gesellschaftliche Potenziale, auf die ein hochentwickeltes und industrialisiertes Land wie die Schweiz nicht verzichten kann. Gleichzeitig aber entstehen durch die zunehmende Digitalisierung und die Ungewissheit hinsichtlich der künftigen Stromversorgungssicherheit neue Gefährdungslagen, auf die schnell und konsequent reagiert werden muss. Die besondere Gefahr gezielter Cyber-Angriffe auf die IKT-Infrastruktur betrifft staatliche Stellen ebenso wie Betreiber von kritischen Infrastrukturen und andere Unternehmen oder Organisationen.

Ansätze für gelingendes Krisenmanagement

Wer die Risiken für sein Unternehmen seriös ermittelt und Massnahmen geplant hat, schützt sich besser vor Ereignissen und den daraus folgenden potenziellen Störungen, Verlusten und Betriebsunterbrüchen. Ist das Bewusstsein für Betriebsunterbrechungen und den möglichen Schwachstellen überall angekommen und ausreichend vorhanden? Ist die nötige Resilienz der Unternehmen gegeben? Die Referate vom 27. Oktober beschäftigen sich mit latenten Top-Geschäftsrisiken in der Schweiz und liefern Ansätze, wie diese gemanagt werden und mit welchen Massnahmen entgegengewirkt werden kann.

Informationen zur Fachtagung

Robotik hebt Kundenerlebnis auf neues Niveau

In punkto Kundenerlebnis ist die Robotik nicht mehr wegzudenken. Durch Unterstützung künstlicher Intelligenz kann die Robotik z.B. nicht nur die Produktion, sondern auch die Liefertreue verbessern.

Steht mittlerweile beispielhaft dafür, wie Robotik das Kundenerlebnis verändert: Der humanoide Roboter „Pepper“, der u.a. auch für die Interaktion mit Kunden eingesetzt wird. (Bild: Pixabay.com)

Wenngleich auch zuvor bereits zahlreiche Erfahrungen mit Robotik überliefert sind, so gilt gemeinhin das 1954 von George Devol angemeldete Patent für einen programmierbaren Manipulator als Geburtsstunde der Entwicklung von Industrierobotern. Damals wie heute beschäftigt sich die Robotik mit dem Versuch, Interaktionen der physischen Welt durch den Einsatz von mechanischen Lösungen in Verbindung mit Informationsverarbeitung umzusetzen. Dadurch werden Prozesse wie beispielsweise die Herstellung von Produkten automatisiert und optimiert. Auch die zunehmende globale Vernetzung spielt dabei eine Rolle: „Moderne Roboter sind mit Sensoren und Aktoren ausgestattet und die daraus gewonnenen Informationen können sofort verarbeitet werden“, erklärt Wilhelm Heckmann, Managing Director bei CNT Management Consulting in Zürich, einem internationalen Beratungshaus mit dem Schwerpunkt Digitalisierung. Durch die Anwendung künstlicher Intelligenz können Industrie-Roboter ein Verständnis für die Umwelt aufbauen, wodurch sie zukünftige Probleme und damit verbundene Ausfälle frühzeitig erkennen können. Erkenntnisse daraus bleiben zudem nicht nur Robotern in einem Werk vorbehalten, sondern werden global verteilt – und tragen dazu bei, das Kundenerlebnis weiterzuentwickeln.

Robotik fördert Flexibilität und Kundenerlebnis

Während die Robotik früher vor allem zur Effizienzsteigerung eingesetzt wurde, unterstützen Roboter Unternehmen mittlerweile auch im Bereich der Flexibilität. „Die Robotik wurde in den vergangenen Jahren vermehrt mit künstlicher Intelligenz ausgestattet. Dies wirkt sich auch auf das Kundenerlebnis aus, da die Produktion unterbrechungsfreier abläuft und im Zuge dessen nicht nur die Produktion selbst, sondern auch die Liefertreue verbessert wird“, betont Heckmann. Zudem erlaube die Robotik durch angebundene IoT-Devices, die physische Objekte mit der virtuellen Welt verbinden, eine Überwachung in Echtzeit. Somit sind Informationen über den Zustand der Maschine jederzeit für den Hersteller, den Service-Provider und den Kunden, der die Maschine betreibt, verfügbar. Die dadurch entstehende Transparenz hat sogleich auch einen positiven Einfluss auf das Kundenerlebnis.

Kundenindividuelle Massenproduktion

Speziell im Hinblick auf personalisierte Kundenwünsche bietet die Robotik erhebliche Vorteile, beispielsweise in den Bereichen (pünktliche) Lieferung oder Kosten. Durch den Einsatz von Robotern sind sogar Anpassungen in der Fliessbandproduktion möglich, wodurch sich für Unternehmen bezüglich ihres Kundenerlebnisses völlig neue Chancen ergeben. „Mit dem Einsatz von Robotik können Unternehmen ihre Produkte jederzeit und flexibel an individuelle Kundenwünsche anpassen, was speziell angesichts konkurrierender Unternehmen zum Unterscheidungsmerkmal werden kann“, so Heckmann. Sogenannte Produktionszellen, die aus mehreren gleichartigen Bearbeitungszentren bestehen und zu einer Einheit zusammengefasst werden, machen die Massenproduktion besonders flexibel. „Arbeiten Menschen und Roboter effektiv zusammen, können Unternehmen genau das liefern, was ihre Kunden wünschen“, erläutert Heckmann das Konzept der kundenindividuellen Massenproduktion. Schlussendlich steigern Unternehmen dadurch nicht nur ihren Umsatz, sondern auch ihre Rentabilität – während der Kunde gleichzeitig von kurzen Lieferzeiten und guten Preisen profitiert. Auch im Hinblick auf Nachhaltigkeit, die in der Produktion und im Einkauf stetig an Bedeutung gewinnt, bietet der Einsatz von Robotik Vorteile: „Beispielsweise können dadurch Energiekosten gesenkt sowie Produktionsabfälle und Materialkosten niedrig gehalten werden“, weiss Heckmann.

CNT & SAP-Event in Zürich

Wer sich für Nachhaltigkeit im Einkaufsprozess interessiert, hat schon bald die Möglichkeit, sich persönlich mit dem Thema auseinanderzusetzen. Am 29. Juni 2022 lädt CNT Management Consulting gemeinsam mit Q_PERIOR und SAP zum Event „CNT Procurement Afterwork“ im „The Circle“ in Zürich ein. „Gäste können sich unter anderem auf einen spannenden Kundenvortrag eines namhaften Unternehmens und weitere wertvolle Expertise aus dem Einkaufsbereich freuen“, verrät Heckmann im Vorfeld der Veranstaltung. Wer also mehr darüber erfahren möchte, wie man mit dem SAP Business Network Einblick in die Lieferkette erhält und somit selbst einen positiven Beitrag für die Zukunft leistet, dürfte an dieser Veranstaltung interessante Informationen erhalten.

Quelle und weitere Informationen

Scheinbar paradox: Unsichere Zeiten brauchen Sicherheit

Die Welt steht Kopf und viele, die Sicherheit geben und Vertrauen ausstrahlen sollen, tun das genaue Gegenteil davon. Die nicht abreißen wollenden Krisen werfen Führungskräfte oft auf unwillkürliche Reflexe zurück, die von Angst getriggert werden. Der Schaden kann immens und von Dauer sein – sofern nicht gegengesteuert wird. Wie das geht, verrät dieser Artikel.

Standhaft in Stürmen: Unsichere Zeiten benötigen Sicherheit. (Bild: Unsplash.com)

Es ist nur zu verständlich: Eine Krise jagt die nächste und ein Ende ist nicht in Sicht. Als wäre die gesundheitliche Bedrohung durch das Coronavirus und die davon ausgelöste massive Störung vormals eingespielter Wirtschaftsprozesse und Lieferketten nicht Herausforderung genug, stehen als Folge des Ukraine-Kriegs steigende Inflationsraten und Energie-Engpässe ins Haus. Kein Wunder, dass die Motivation vieler Führungskräfte verbraucht ist, mit immer neuen Hiobsbotschaften umzugehen. Die Herausforderung, von einem Krisenmanagement zum nächsten gezwungen zu sein und den Entwicklungen trotz aller Anstrengungen nur hinterherhecheln zu können, löst oft Gefühle der Unsicherheit, wenn nicht sogar der Ohnmacht aus. Folglich fällt es schwer, den Mitarbeitern die Sicherheit zu vermitteln, die sie angesichts der Krisenunwägbarkeiten bräuchten.  

Akzeptanz der eigenen Grenzen

Was also tun angesichts der kontinuierlich hohen Unsicherheit, die ständig Veränderungen zur Anpassung an die Situation erfordert? Wie umgehen mit den Bedenken und Ängsten, die man selbst hat und die auch die Mitarbeiter heimsuchen? Klar ist, dass das Arbeiten unter Ausnahmebedingungen über lange Zeit hinweg Menschen an ihre Grenzen bringt. Sie agieren dann sukzessive weniger überlegt und selbstbestimmt, sondern folgen zunehmend ihren unwillkürlichen Mustern, die in der Regel unternehmerisch wenig zieldienlich sind, dafür ein großes Schadenspotenzial mit sich bringen. Zu diesen Mustern gehören vermiedene Entscheidungen, hektisches Umsteuern, dünnhäutige Kommunikation, angstgetriebene Starre und andere mehr. Folgerichtig wird damit die Unsicherheit, die Mitarbeiter persönlich ohnehin schon empfinden, deutlich verstärkt. Dabei bräuchten unsichere Zeiten vor allem eines, um beherrschbar zu bleiben: Die Vermittlung von Sicherheit bei gleichzeitiger Anerkennung der Unsicherheit und der Begrenztheit der eigenen Mittel. Das wirkt auf den ersten Blick paradox, doch das ist es nicht. Gerade die Akzeptanz der eigenen Grenzen kann der Schlüssel zum Zurückgewinnen der eigenen Wirksamkeit sein. 

Die Begegnung mit den eigenen Grenzen ist für viele Menschen eine unangenehme Erfahrung. Wir sind geprägt von „höher, schneller, weiter“, von Erfolg und Wachstum, von „der Indianer kennt keinen Schmerz“. Grenzen sind dazu da, um überwunden zu werden, nicht um vor ihnen zu kapitulieren, oder? Diese Haltung, die bereits in „normalen“ Zeiten die Burn-out-Raten in die Höhe treibt, verliert angesichts äußerer Bedrohungen, auf die wir keinen Einfluss haben, vollends ihre Gültigkeit. Es ist zulässig, sich in einer Krisensituation ohnmächtig zu fühlen, keine passenden Antworten parat zu haben, sich einzugestehen, dass die üblichen Lösungsmuster nicht greifen und neue gesucht werden müssen. Wie fühlt sich das für Sie an? Ist das zulässig oder ein No-Go in einer Welt, die mit fester Hand gesteuert werden soll? Möglicherweise melden sich sofort innere Stimmen, die das Einräumen von Unsicherheit als nicht nur groben, sondern auch fahrlässigen Unfug abtun – und schon geht es zurück in unwillkürliche Muster.

Selbstbeobachtung hilft

Um dieser inneren Blockade zu entkommen, ist es sehr nützlich, bei sich selbst anzusetzen, sich aufmerksam zu beobachten und in sich hineinzuhören:

  • Gefühle: Welche Gefühle löst die aktuelle Situation in mir aus?
    Es wäre nicht verwunderlich, wenn sich in den Gefühlen eine Mischung aus Angst, Überraschung, Abneigung, Ohnmacht widerspiegelt und vielleicht noch ein Quäntchen Scham und Schuld obendrauf kommt ob dieses merkwürdigen und ungewohnten Potpourris. Es wäre auch nicht verwunderlich, wenn Sie mit diesen Gefühlen nichts zu tun haben und sie verdrängen wollten. Doch damit sind sie immer noch da und wirken. Daher: Akzeptieren Sie, dass sie da sind. Vielleicht wird es dadurch leichter, dass es nicht nur Ihnen so geht.
  • Werte: Welche Werte stehen hinter meinen Gefühlen und wie verhalte ich mich folglich?
    Leistung, Erfolg, Selbstbestimmung und Anerkennung sind häufige Werte im beruflichen Kontext. Das Streben nach Erfüllung unserer Werte ist in erster Näherung indifferent gegenüber äußeren Einflüssen – leider. In Krisensituationen führt das zu einem verbissenen und oft aussichtslosen Kampf, der mehr hinderlich als nützlich ist und zur Erschöpfung führt. Daher: Hinterfragen Sie die Eignung Ihrer Werte für kritische Situationen und erlauben Sie sich Abweichungen, auch wenn das schwerfällt. Flexibilität, Kurzfrist-Orientierung, Improvisation und ähnliche können nützlich sein.
  • Zieldienlichkeit: Was ist dienlich für das Erreichen meiner Ziele, also dem Gewinn von Klarheit und Sicherheit in unsicheren Zeiten?
    Mit der Akzeptanz Ihrer Gefühle und der Umorientierung bei Ihren Werten legen Sie den Grundstein dafür, aus dem Modus unwillkürlichen und angstbestimmten Verhaltens herauszusteuern und in Ihre Wirksamkeit und Kraft zurückzukommen. Das ist gleichzeitig die Basis dafür, Ihren Blick unverstellt auf die Zieldienlichkeit Ihres Verhaltens und Ihrer Entscheidungen für den Umgang mit der Krisensituation zu richten.
  • Mitarbeiter: Fangen Sie an, mit den obigen Prinzipien auf Ihre Mitarbeiter zuzugehen.
    Antizipieren, erfragen und würdigen Sie deren Gefühle. Offenbaren Sie, wie es Ihnen geht und dass Sie kein Patentrezept anbieten können. Laden Sie dazu ein, gemeinsam nach Lösungsmöglichkeiten zu suchen. Damit zeigen Sie Empathie für Ihre Mitarbeiter ebenso wie für sich selbst, bewirken gegenseitiges emotionales Andocken und erzeugen einen gemeinsamen Spirit. Das ist die Grundlage dafür, sich mit vereinten Kräften der Krise entgegenzustellen sowie emotionale Sicherheit und Vertrauen zu vermitteln.

Gefühle entscheiden

So gerne wir es hätten, dass Gefühle im Business keine Rolle spielen und wir auf rein rationaler Basis entscheiden und handeln, so sehr ist dies reines Wunschdenken. Psychologie und Neurobiologie lehren uns, dass der Antrieb für unser Verhalten und Handeln viel mehr in unseren Gefühlen liegt als in unserem Denken. Das geht so weit, dass wir intuitiv getroffene Entscheidungen im Nachhinein rational untermauern. Sicherheit und Vertrauen in unsicheren Zeiten zu vermitteln, ist also ein hoch emotionaler Prozess, der mit Einfühlung gut gelingen kann und wieder in die Handlungsfähigkeit bringt.

 

Buchhinweis: „Der Change-Code – Wie Menschen sich für Veränderungen begeistern und Unternehmen damit gewinnen“

Seit Jahren unverändert gehen drei Viertel aller Change-Programme in Unternehmen schief. Sie verschwenden Geld, zerstören Motivation und lassen Wettbewerbsfähigkeit schwinden. Höchste Zeit, dass der Pfusch beim Change endlich sein Ende findet. Wie das funktioniert, weiß Dieter Lederers Der Change-Code. Er lädt dazu ein, konsequent auf das zu fokussieren, was Menschen brauchen, um sich für Wandel zu begeistern. Denn nur so werden sie Vertrauen entwickeln und eine neue unternehmerische Richtung kraftvoll umsetzen.

Dieter Lederer

Der Change-Code
Wie Menschen sich für Veränderungen begeistern und Unternehmen damit gewinnen

272 Seiten, Hardcover gebunden
ISBN: 978-3-527-51107-5
Wiley-VCH, Weinheim