Oliver Wilm Rothland


Seit der Gründung der rothland GmbH im Jahr 1996 habe ich mich auf die Themen

  • Data Management / Data Analytics / Data Science
  • Requirements Engineering
  • Veränderungen im Unternehmen

konzentriert und diese in verschiedenen Rollen in Projekten bei namhaften nationalen und internationalen Unternehmen begleitet.

Projektauszug


Optimierung der bestehender Datenarchitektur zur Verarbeitung und Analyse von Sensordaten (autonomes Fahren)
  • Analyse der Architekturkomponenten und deren Verwendung
  • Identifikation von Pain Points
  • Erarbeitung und Präsentation von Lösungs- und Optimierungszenarien zur effizienteren Verwendung der Infrastruktur
  • Ausarbeitung PoCs zur Vorstellung neuer Technologien
Ausarbeitung der Datenstrategie und Entwicklung einer cloud-basierten Data Analytics Plattform
  • Ermittlung funktionaler und nicht-funktionaler Anforderungen
  • Ausarbeitung der Datenstrategie zur Nutzung von Daten unter besonderer Berücksichtigung von Effizienz, Kostenkontrolle, Sicherheit, Benutzerfreundlichkeit
  • Evaluierung und Einsetzung neuer Technologien im Azure-Umfeld (Azure Synapse, Azure Purview, Azure Databricks)
  • Einführung Automatisierung und Infrastructure as Code (IaC) für on-premise- und Cloud-Umgebungen
  • Aufbau PoC und Entwicklungsumgebungen
  • Design skalierbarer Datenintegrationspipline und -Systeme
  • Anbindung cloud-basierte Datenvisualisierung (Power BI Service)
Konzeption einer cloud-basierten Data Analytics Plattform
  • Ermittlung funktionaler und nicht-funktionaler Anforderungen
  • Ausarbeitung der Datenstrategie zur Nutzung von Daten unter Berücksichtigung von Effizienz, Sicherheit, Nachvollziehbarkeit Benutzerfreundlichkeit
  • Evaluierung und Einsetzung neuer Technologien im Azure-Umfeld (Azure Databricks, Azure Purview, Azure Synapse)
  • Aufbau PoC und Entwicklungsumgebungen
  • Design skalierbarer Datenintegrationspipline und -Systeme
  • Berechnung komplexer Kennzahlen
Erarbeitung einer (hybriden) Multi-Cloud-Strategie
  • Analyse aktueller Softwareprodukte aller Geschäftsbereiche
  • Analyse aktueller Infrastruktur und verwendeter Cloud-Technologien
  • Entwicklung und Präsentation eines Konzeptes zur Ergänzung bestehende Infrastruktur und Technologien um Cloud-Solutions
  • Aufbau prototypischer Umgebungen zur Evaluierung des Konzeptes unter Verwendung von
    • Infrastructure as Code (IaC) für die Infrastruktur
    • Provisionierung und Konfiguration der Plattform
    • Automatisierung der Bereitstellung (GitOps), sowohl on-premise, wie auch in verschiedenen Cloud-Umgebungen
Data Intelligence Archtect für den Aufbau einer Data Analytics Platform
  • Analyse und Dokumentation der Personas, Anforderungen und Capabilities
  • Erstellung und Abstimmung der Komponentenarchitektur
  • Erarbeitung von (3) Lösungsszenarien zur Abstimmung mit den zuständigen Bereichen auf Basis der Komponentenarchitektur
  • Unterstützung bei der Umsetzung relevanter PoCs zur Validierung der Szenarien
Beratung und Architektur für den Aufbau und die Nutzung einer Data Analytics Platform
  • Analyse und Dokumentation der Anforderungen
  • Erstellung und Abstimmung der Komponentenarchitektur
  • Festlegung entsprechender Container zur Komponenten-Gruppierung
  • Kalkulation und Skalierung der Infrastruktur pro Container
  • Entwicklung Proof of Concept (PoC) zur Validierung der Anforderungen
  • Erstellung Blueprint zum Aufbau der Umgebung (Infrastructure as Code)
  • Tool-Evaluierung für
    • Data Flow & Data Processing (Apache Nifi, Apache Airflow, Prefect)
    • Orchestration & Execution (Kubernetes, Docker, FaaS, Microservices)
Methodische Unterstützung beim Aufbau übergreifender Datenmodelle
  • Vorstellung Datenmodellierungsmethoden und deren Werkzeuge
  • Training der Modellierungs- und Umsetzungsteams
  • Ausarbeitung von Blueprints und Principals der Datenmodellierung
  • Integration der Artefakte in operative Systeme
Beratung und Training Data Management
  • Beratung und Training des Inhouse-Teams im Bereich Data Engineering und Daten(-bank)-Design
  • Optimierung, Fehler- & Performanceanalyse der Bestands- und Entwicklungssysteme (Datenmodelle, Aufbau und Nutzung Indizes, etc.)
  • Deployment/Versionierung von Datenbanken, Konzeption/Strategie Backup, Konzeption/Durchführung Datenbank-Migration
  • Nutzung verteilter Datenbanksysteme (Cluster) in Bezug auf Performance, Redundanz, Sicherheit
  • Vorstellung von Big Data Technologien zur Unterstützung bei Datenanalysen
Architekt Big Data Advanced Analytics
  • Entwicklung einer Architektur für den Aufbau einer (IoT) Big Data Advanced Analytics Plattform zur Verarbeitung und Analyse von Stamm-, Sensor- und Bilddaten und zur Erarbeitung von Modellen für Vorhersagen und Erkennungen mittels Machine Learning, Deep Learning und Defect Object Detection
  • Analyse der Anforderungen und Daten
  • Aufbau eines Architektur-Blueprints für Speicherung (Storage) und Auswertung (Analytics)
  • Auswahl einer Toolchain, auch unter Berücksichtigung des zu analysierenden Datenvolumens
  • Abstimmung der Architektur mit essentiellen Stakeholdern (Management, Projektleitung, Enterprise Architektur, …)
Trainer Big Data Advanced Analytics
  • Training zum Aufbau einer Big Data Advanced Analytics Plattform zur Verarbeitung von Daten aus Industrie 4.0- und IoT-(Internet of Things)-Umgebungen mit Zielgruppe: Management, Innovation Manager Digitalisierung, Projektleiter, Business Analysten, Software-Entwickler, Operations
  • Data Analytics Prozesse
  • Data Engineering
  • Data Analytics, Data Science, Data Mining, Advanced Analytics, Machine Learning, Deep Learning
  • Software-Verteilung, Infrastructure as Code
  • Data Virtualization
  • Data Security, Data Governance
  • Nutzung der Plattform in (Micro-)Services
agile Requirements Engineer und Data Engineer für Big Data Analytics
  • Bereitstellung der Big Data Infrakstruktur auf Basis von Apache Technologien (Hadoop, HBase, Phoenix, Spark, NiFi), Kafka und Kafka Connect, Python Data Analytics (Jupyter, Pandas)
  • Aufbau Data Lake und Data Analytics Platform
  • Last- und Performancemessung zur Validierung der gewählten Produkte und (Analyse-)Methoden
  • Analyse und Design der Daten und Datenmodelle, analytische Auswertungen und Realtime-Analysen

Technologien / Tools / Frameworks

Data Processing
  • Apache Nifi
  • Apache Airflow
  • Apache Spark
  • Azure Databricks
  • Azure Data Factory
Data Science / Data Analytics
  • Python
  • Pandas
  • iPython / Jupyter
  • DuckDB
  • Apache Hadoop
  • Apache Spark
  • Azure Synapse
  • Azure Databricks
Relationale Datenbanken
  • Sybase
  • MS-SQL-Server
  • Oracle
  • Postgresql
  • MySQL
  • MariaDB
  • IBM DB2
NoSQL-Datenbanken
  • HBase
  • Redis
  • SOLR / ElasticSearch
  • MongoDB
Virtualisierung
  • Dremio
  • Apache Drill
  • Azure Databricks
  • Azure Synpase
Visualisierung
  • Tableau
  • Microsoft Power BI
  • Apache Superset
  • Streamlit
Design und Modellierung
  • SAP Sybase Power Designer
  • Sparx Enterprise Architect
  • MID Innovator

Zertifikate

  • Introduction to the Capability Maturity Model Integration Version 1.2, Software Engineering Institute SEI, Carnegie Mellon (wibas GmbH)
  • Certified Professional for Requirements Engineering, International Requirements Engineering Board IREB
  • Certified UML Professional, Object Management Group OMG (oose GmbH)
  • Certified Train the Trainer (Competence on Top)
  • Certified Change Manager (Competence on Top)

Aus- und Weiterbildungen

  • Dipl.-Ing. (FH) Elektrotechnik (Gesamthochschule Paderborn)
  • Big Data Analytics (Hasso Plattner Institute)
  • Konfliktmanagement und Verhandlungsführung (oose GmbH)
  • Requirements Engineering: Different point of view (SOPHIST GmbH)
  • Objekt orientierte Analyse und Design OOA / OOD mit der UML (oose GmbH)
  • Advanced Data Modeling Using PowerDesigner (Sybase GmbH)
  • Fundamentals of Senior Management (Open University Business School OUBS, Milton Keynes)

Gerne erreichen Sie mich telefonisch und über nachfolgende Business-Netzwerke.