DevOps Engineer – Tribe Data‑Analytics (m/w/d)

BMS Corporate Solutions GmbH

  • Remote
  • Post Date: 19. August 2025
Job Description

Die BMS Corporate Solutions GmbH ist eine gemeinsame Gesellschaft der Atruvia AG und der BMS Unternehmensgruppe aus Düsseldorf in der IT Bankbranche. Die BMS Corporate Solutions verbindet Bank-, IT- und Firmenkunden-Fachkompetenzen in einem gemeinsamen Unternehmen. Motiviert ist diese Gründung durch die ständig und schnell steigenden Anforderungen im Geschäftsfeld Firmenkunde. Wir steigern mit unseren Lösungen die Wettbewerbsfähigkeit unserer Banken und deren Firmenkunden für die Zukunft und bündeln in der BMS Corporate Solutions GmbH die Unterstützung unserer Banken „rund um das Firmenkundengeschäft“.

Komm' zu uns

Wir unterstützen Banken und banknahe Unternehmen im genossenschaftlichen Verbund mit Software-Lösungen und Beratungs-Leistungen. Wir sind international, transparent, zielorientiert und meistens gut drauf. Wenn das spannend für dich klingt, schau dir unsere offenen Stellen an!

Hier brauchen wir dich!

DevOps Engineer – Tribe Data‑Analytics (m/w/d)

Daten liefern die Stories, aus denen wir Innovationen bauen – aber nur, wenn Deployments reibungslos laufen und Services jederzeit verfügbar sind. Genau dafür suchen wir dich: einen DevOps Engineer, der unsere Data‑Analytics‑Anwendungslandschaft auf das nächste Level hebt.

Wir betreiben Spark‑Jobs, Airflow‑Pipelines, Elasticsearch, Kibana und JupyterHub – dazu unsere Spring‑Boot‑ und Angular‑Apps, alles on‑prem in OpenShift. Du automatisierst Deployments, hältst die Plattform stabil und sorgst dafür, dass unsere Data‑Analytics‑Systeme jederzeit wie ein Schweizer Uhrwerk ticken.

Und du weißt: Nur was sich automatisch, nachvollziehbar und robust betreiben lässt, ist auf Dauer gut.


  • Du betreibst unsere Data-Analytics-Plattform (Spark, Airflow, JupyterHub, Kafka, Elasticsearch, Kibana) in einer OpenShift-Umgebung – stabil, sicher, automatisiert
  • Du gestaltest Infrastruktur- und Release-Pipelines: GitLab, CI/CD + Jenkins, Helm-Charts und GitOps-Flows gehören zu deinem täglichen Handwerkszeug
  • Du baust das Monitoring, Logging und Alerting auf, das unser Team braucht – mit Prometheus, Grafana oder Dynatrace
  • Du denkst in Update-Zyklen, Backup-Strategien und Rechtekonzepten. Und du verlierst dabei nie den Blick fürs Wesentliche: ein zuverlässiges System
  • Du arbeitest eng mit Data Scientists, Product und Security zusammen. Deine Expertise ist gefragt – in Review–Runden genauso wie bei Incidents

Was uns wichtig ist:

Keiner kann alles, die richtige Mischung macht's!

  • Du hast Erfahrung im Betrieb komplexer Plattformen in Kubernetes/OpenShift – idealerweise mit Spark, Airflow oder Elasticsearch
  • Helm, Terraform, GitLab und GitOps gehören für dich zum Werkzeugkasten
  • Du kennst dich mit Logging, Monitoring und Alerting aus – und hast ein gutes Gefühl für Performance und Kosten
  • Ausgeprägte Selbstorganisation – Du findest eigenständig Herausforderungen, priorisierst sie und führst Lösungen durch
  • Du bist Teamplayer mit DevOps-Mindset – Automatisieren, Dokumentieren, Wissen teilen

  • Betriebliche Altersvorsorge
  • Eigenverantwortung & Abwechslung
  • Events, Socials, Lounge
  • Feedbackkultur
  • Flexibles Arbeiten & Flache Hierarchien
  • Individuelle Fortbildungen & Coachings
View More