Was macht eigentlich ein CIO? Definition, Aufgaben und die wichtigsten Tools

Bedeutung CIO

Für alle Leser, die in einer Firma ohne CIO arbeiten: wofür ist ein CIO eigentlich da und was macht er?
Die offizielle Bedeutung der Abkürzung ist Chief Information Officer, was in deutschen Firmen häufig mit IT-Leiter:in oder klassisch als EDV-Leiter:in bezeichnet wird.
Vor ca. 30 Jahren war die Rolle des CIO und seine Aufgaben in einer typischen Mittelstands-Firma bzw. einem Betrieb noch klar umrissen: die EDV-Abteilung hatte sich um die Computer-Hardware und Software und das Netzwerk zu kümmern und die EDV-Leitung um die Organisation und Budgetierung der Abteilung.

Ein CIO war verantwortlich für die operativen Funktionen wie

  • Sicherstellung des reibungslosen Betriebes der IT-Infrastruktur
  • Gewährleistung der Funktionsfähigkeit der IT-Systeme
  • Sicherheit der IT-Infrastruktur

Oder, wie es Rainer Janßen (CIO der Münchner Rück) zusammenfasst: „Die Basiserwartung ist erst einmal, dass der Laden läuft.“ (Janßen, 2007)

Seitdem sind aber viele Jahre vergangen und damit haben sich auch die Aufgaben stark geändert. Auf der einen Seiten haben sich die operativen Funktionen erweitert, z.B. kommt der Themenbereich um Datensicherheit, EU-DSGVO etc. viel stärker zum Tragen. Auf der anderen Seite sind aber weitere Funktionsbereiche neu hinzugekommen bzw. nehmen einen größeren Stellenwert ein:

  • Innovations-Management

D.h. ergänzend zu den oben genannten operativen Funktionen kommen jetzt neue Aufgaben für den CIO hinzu, wie

  • Verbesserungspotentiale erkennen und notwendige Schritte einleiten
  • Technische Innovationen bewerten und, wenn sie der Wertschöpfung dienen, diese einführen
  • Unternehmens-Prozesse verbessern bzw. weiterentwickeln (z.B. durch Automatisierung)
  • Unternehmens-Strategie weiter entwickeln
  • Wettbewerbsorientierte Differenzierung zu Mitbewerbern im Markt
  • Unterstützung der anderen Abteilungen, um z.B. neue Geschäftsfelder erkennen und entwickeln zu können

Welche Tools benötigt ein erfolgreicher CIO?

Um seine Aufgaben erfüllen zu können, benötigt der Chief Information Officer in seiner Rolle eine Reihe von Tools, die ihn dabei unterstützen.

Im Bereich der operativen Funktionen sind das klassische Tools wie Netzwerk-Analyse-Tools, Hardware-Überwachungs-Tools und IT-Sicherheits-Tools. In allen drei Gruppen gibt es auch Versionen aus dem Open-Source-Bereich, die sich aber im Funktionsumfang von kostenpflichtigen Tools unterscheiden. Die Qualität der Open-Source-Tools ist aber teilweise schon so hoch, dass man nicht den falschen Schluss ziehen sollte, professionelle mit kostenpflichtigen Tools gleichzusetzen.

In den anderen beiden CIO-Aufgaben-Bereichen, Innovations-Management und Strategische Beratung, ist eine Tool-Auswahl schon schwieriger, da der Umfang größer ist und gleichzeitig nicht so genau spezifiziert ist.

CIO analysiert Daten

Tools zum Innovations-Management

Die meisten Tools zum Innovations-Management (IM) in diesem Bereich gehören in die Gruppe der „Collaboration-Tools“ (Leimeister, 2014), da sie Teams in kreativen Prozessen unterstützen. Damit ist auch schon erkennbar, dass IM kein 1-Personen-Thema ist, sondern durch Teamarbeit getrieben wird.

Die erste Herausforderung ist hierbei schon die Zusammenstellung dieses Teams. Es sollten unterschiedliche Kernkompetenzen im Team vertreten sein

  • Technologiemanagement: IT Fachwissen für Software, Hardware, Netzwerke etc.
  • Überblick über aktuelle IT Forschungs-Projekte
  • Einblick in die aktuelle und zukünftige Firmen-Strategie

Hinzu kommen noch Kompetenzen, die bei jeder Teamarbeit notwendig sind wie z.B. gruppendynamisches Verhalten erkennen und bewerten oder die richtige Balance zwischen „ich“ und „wir“ finden. (Wiek, 2014)

Tools zur strategischen Beratung

In der strategischen Beratung befindet sich der Chief Information Officer im Spannungsfeld zwischen den Zielen der Unternehmensstrategie und den Anforderungen der IT-Strategie. Auch wenn beide Strategien in die gleiche oder zumindest in eine ähnliche Richtung laufen, gibt es z.B. im Bereich der Datensicherheit oder der Umsetzung der EU-DSGVO Punkte, in denen die Anforderungen kollidieren können. (Johanning, 2019) (Hanschke, Strategisches Management der IT-Landschaft, 2013)

In Bezug darauf folgt dann die Erstellung oder Weiterentwicklung von

  • Ableitung der IT-Strategie aus der Unternehmensstrategie
  • Erstellung der Applikations- und Sourcingstrategie
  • Aufbauorganisation in Form des Demand/Supply-Modells
  • Data Governance und Data Quality

Das Demand-Supply-Modell ist ein etablierter Ansatz für die Organisation und das Management von IT in Unternehmen, in denen die Informationstechnologien bei ausgeprägter Fachlichkeit wesentliche Beiträge zur Leistungserbringung liefern.

Es hat seine Wirksamkeit in führenden Unternehmen über die vergangenen Jahre bewiesen und erweist sich als so attraktiv, dass immer mehr Unternehmen, aber auch öffentliche Verwaltungen ihre IT darauf umstellen.

Der Kern des Modells ist die fachliche und organisatorische Trennung von IT-Nachfrage und IT-Angebot mit dem Demand Management als zwischengeschaltetem Bereich, in dem für die IT-Steuerung notwendige Fach- und IT-Kompetenzen zusammengefasst sind. Diese Trennung hat zum Ziel, die Balance zwischen Fachbereichen und IT herzustellen und die fachlichen Vorteile von dezentralen Organisationen (Businessfokus) mit der IT-Effizienz (Angebotsbündelung, Standardisierung, Skaleneffekte) von zentralen Organisationen gemeinsam zu heben. Die Vorteile, die das Demand-Supply-Modell verspricht, sind gesichertes Business-IT-Alignment, gesteigerte Effizienz, verbesserte Wertschöpfung und Innovation in und durch IT. (Mischur, 2012)

Data Governance steht für ganzheitliches Management von Daten, die in einem Unternehmen oder einer Organisation verwendet werden. Es beinhaltet Richtlinien und Vorgehensweisen, um die Qualität, den Schutz und die Sicherheit der Daten zu gewährleisten und sorgt für die Einhaltung rechtlicher Vorgaben. (Bollweg, 2021)

CIO am Schreibtisch

Sherlock für CIOs: Das Tool für Data Governance und Data Quality

Gerade in den Bereichen Data Governance und Data Quality sind die Verantwortlichen auf Tools angewiesen, mit denen sie auf einfache Art und Weise neue Erkenntnisse aus den vorhandenen Daten ziehen können. Dafür werden Tools benötigt, mit denen Daten neu strukturiert und ausgewertet werden können.

Studien zeigen, dass Datenqualitätsprobleme Unternehmen jedes Jahr Milliarden von Dollar kosten, da schlechte Daten mit Verschwendung und Ineffizienz, beschädigter Glaubwürdigkeit bei Kunden und Lieferanten und der Unfähigkeit des Unternehmens, fundierte Entscheidungen zu treffen, einhergehen

Dieses wird über spezielle Projekte angegangen. Beispiele:

  •  gezielte Projekte zur Verbesserung der Datenqualität, wie z. B. die Verbesserung von Daten, die im Lieferkettenmanagement verwendet werden
  • Datenqualitätsaktivitäten im Rahmen anderer Projekte, wie z. B. der Aufbau neuer Anwendungen und die Migration von Daten aus Altsystemen, die Integration von Daten aufgrund von Fusionen und Übernahmen oder die Entwirrung von Daten aufgrund von Unternehmensauflösungen
  • die Ad-hoc-Anwendung von Datenqualitätsschritten, -techniken oder -aktivitäten im Rahmen der täglichen Arbeit

Kein Datenqualitätsprojekt gleicht dem anderen, weshalb unterschiedliche Techniken zum Einsatz kommen wie Six Sigma, Lean oder der Ten-Steps-Ansatz. (McGilvray, 2021)

Da in den heutzutage üblichen IT-Umgebungen eine hohe Heterogenität an Datenquellen vorliegt, sind die in den einzelnen Software-Paketen integrierten Funktionen dafür nicht mehr ausreichend. Es werden Lösungen benötigt, um diese heterogenen Systeme wieder in einer übergeordneten Struktur vereinen zu können und auf dieser Gesamtansicht aller relevanten Daten Analysen vornehmen zu können und Aussagen machen zu können, die auch in die Zukunft reichen.

Wie auch beim EAM Ansatz (Enterprise Architecture Management) setzt Sherlock im ersten Schritt darauf, eine einheitliche Sicht auf Daten und Daten-Strukturen zu erhalten. Sherlock als Daten-Integrations-Plattform geht dann aber noch einen Schritt weiter und erlaubt es, auf den Datenmodellen flexibel zu arbeiten, neue Strukturen zu bilden und so die Daten aus einem Blickwinkel zu betrachten, der vorher nicht möglich war. (Hanschke, Enterprise Architecture Management – einfach und effektiv, 2016)

Hier kommt dem CIO (oder auch dem CDO oder dem Data-Quality-Manager) zugute, dass Sherlock, unabhängig von den unteschiedlichen Datenquellen, alle Informationen in Daten-Graphen verwaltet und organisiert. (Sherif Sakr, 2011)

Der Nutzen davon ist, dass es jetzt möglich ist, Datenstrukturen oder Datenabhängigkeiten in der Gesamtdatenmenge zu erkennen, die bei einer Betrachtung einer einzelnen Applikation oder Datenbank nicht sichtbar sind. Es können nun Analysen zur Datenqualität durchgeführt werden, die auch die Position der einzelnen Information im Datengraphen mit in die Bewertung einfliessen lassen. Des weiteren ist es nun im Forecasting möglich, auf einer breiter gefächerte Datenbasis zu arbeiten, was die Genauigkeit des Forecasts erheblich verbessert. (Sivaramakrishnan Lakshmivarahan, 2018)

Als Fazit lässt sich sagen, dass ein CIO einen bunten Strauß an Aufgaben hat. Für jede Blume in diesem Strauß gibt es passende Tools, die die Aufgabe individuell unterstützen. Im Bereich der Daten heißt dieses Tool Sherlock.

Literaturverzeichnis

  • Bollweg, L. M. (2021). Data Governance für Manager: Datengetriebene Prozess- und Systemoptimierung als Taktgeber der digitalen Transformation. Springer Gabler.
  • Hanschke, I. (2013). Strategisches Management der IT-Landschaft. Hanser.
  • Hanschke, I. (2016). Enterprise Architecture Management – einfach und effektiv. Hanser.
  • Janßen, R. (2007). Brenner, Witte. S. 99.
  • Johanning, V. (2019). IT-Strategie. Springer Vieweg.
  • Leimeister, J. M. (2014). Collaboration Engeneering. Berlin: Springer Berlin Heidelberg.
  • McGilvray, D. (2021). Executing Data Quality Projects: Ten Steps to Quality Data and Trusted Information (TM). Academic Press.
  • Mischur, I. K. (2012). IT-Demand-Supply: Das Erfolgsmodell. it management, Ausgabe 4-2012: IT Verlag für Informationstechnik GmbH.
  • Sherif Sakr, E. P. (2011). Graph Data Management. Information Science Reference.
  • Sivaramakrishnan Lakshmivarahan, J. M. (2018). Forecast Error Correction using Dynamic Data Assimilation. Springer International Publishing.
  • Wiek, U. (2014). Zusammenarbeit fördern: Kooperation im Team – ein praxisorientierter Überblick für Führungskräfte. Springer Gabler.
NEWSLETTER ANMELDUNG

Exklusive Webinare und spannende Beiträge zu aktuellen Themen.
Newsletter abonnieren und up-to-date bleiben.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Das könnte Dir auch gefallen