Jobbeschreibung
Für die Abteilung KI Plattform suchen wir zum nächstmöglichen Termin für den Standort Münster oder Hannover zwei MLOps Engineer (m/w/d) CI / CD & Inference Services Münster / Hannover Vollzeit Als einer der größten Banken-IT-Dienstleister und Digitalisierungspartner Europas sind wir der Treiber der Digitalisierung innerhalb der Sparkassen-Finanzgruppe. Mit über 5.000 Mitarbeiter:innen an 3 Standorten machen wir digitales Banking von heute leistungsfähig und entwickeln smarte Finanz-Services von morgen. Dabei bieten wir Ihnen ein breites Aufgabenspektrum, in dem Sie Ihre individuelle Stärke hervorragend einbringen können. Ob App-Entwicklung, Netzwerktechnologien und Serverbetrieb oder Beratung, Schulung und Support â bei uns finden Sie Ihre Berufung! Als Spezialist:in oder auch als Generalist:in. Alles mit besten Karrierechancen, viel Raum für persönliche Entfaltung und zahlreichen Benefits. Unser Team stellt die zentrale KI- und Data Analytics Plattform der Finanz Informatik für interne und externe Kunden wie Sparkassen und Verbundpartner bereit. Mit unserer Plattform setzen wir auf moderne Technologien wie Kubernetes, ArgoCD, Helm, GitHub Actions, Nvidia Triton, Huggingface TGI/TEI, arbeiten mit Partnern wie Nvidia oder Mistral AI eng zusammen â und suchen Kollegen, die entweder im Bereich CI/CD & Plattformautomatisierung oder im Bereich LLM-Infrastruktur & Inferenzservices ihre Expertise mit einbringen und weiter ausbauen. Aufgaben: Automatisierung von Build-, Test- und Deployment-Prozessen für Container-Anwendungen mit Jenkins, GitHub Actions oder GitLab CI sowie kontinuierliche Integration neuer Use Cases in bestehende Plattform-Pipelines. Orchestrierung von Containeranwendungen mit Helm und ArgoCD in Kubernetes-Clustern für sichere, reproduzierbare Deployments. Entwicklung von APIs im Python-Ökosystem zur Steuerung von Modellbereitstellungen, Statusabfragen und Konfigurationsmanagement. Betrieb von Spark-Anwendungen in Kubernetes mittels Spark Operator â idealerweise mit Fokus auf verteilte Inferenz oder Preprocessing großer Datenmengen. Unterstützung bei der Bereitstellung unimodaler (z.?B. LLM, OCR, SST/TTS) und multimodaler KI-Modelle mittels Nvidia Triton, NIM oder Alternativen wie Huggingface TGI, TEI oder vLLM. Interdisziplinäre Zusammenarbeit mit Fachbereichen, Einbringung von Erfahrung in Architekturentscheidungen sowie Beratung zur Weiterentwicklung der Plattformdienste. Aktiver Austausch mit globalen Technologiepartnern zur zukunftsorientierten Weiterentwicklung der Plattformarchitektur. Profil: Abgeschlossenes fachbezogenes Hochschulstudium und mind. 6 Jahre fachbezogene Berufserfahrung oder vergleichbare Kenntnisse Erfahrung in der Automatisierung von CI/CD-Pipelines (Jenkins, GitHub Actions, GitLab CI o. Ä.) sowie Fundierte Kenntnisse in Helm und ArgoCD für Kubernetes-basierte Deployments Erfahrung in der Entwicklung von REST-APIs in Python (z.?B. mit FastAPI oder Flask) Gute Kenntnisse in der Containerisierung (Docker) und im Umgang mit Kubernetes Optional, aber wertvoll: Erfahrung mit LLM-Inferenz, z.?B. via Nvidia Triton, NIM, vLLM oder Huggingface TGI/TEI Begeisterung für moderne KI-Infrastruktur, Plattformbetrieb und technische Skalierung Teamgeist, Eigeninitiative und die Lust, komplexe Systeme für echte Anwendungen nutzbar zu machen sowie analytisches und kreatives Denken und eigenverantwortliches Handeln Bereitschaft für Nacht- und Wochenendeinsätze sowie Teilnahme an der Rufbereitschaft Benefits: Klingt interessant? Wir freuen uns auf die Bewerbung unter Angabe der Kennziffer 494/A! Bewerben Sollten Sie vorab weitere Auskünfte zu dieser Stelle wünschen, steht Ihnen gerne Frau Maren Lukas zur Verfügung. Sie erreichen Maren Lukas unter Tel. 0251 28833309 oder per E-Mail unter
[email protected] .
Mehr