Kubernetes Plattformen: Betrieb und Weiterentwicklung verteilter Plattform- und SystemarchitekturenPlatform Engineering: Aufbau, Automatisierung und Standardisierung von Plattform-InfrastrukturenInfrastructure as Code: Umsetzung und Betrieb mit Terraform und AnsibleMonitoring und Observability: Etablierung, Betrieb und Optimierung von Überwachungs- und Analyse-LösungenTechnische Zusammenarbeit: Enge Abstimmung mit Entwicklerteams, Projektteams und fachlichen Ansprechpartnern beim Kunden Das bringst du mit Berufserfahrung: Mindestens 3 Jahre relevante Berufserfahrung als DevOps Engineer, Container Platform Engineer oder in einer ähnlichen RolleKubernetes Know-how: Sehr gute Kenntnisse in Kubernetes, idealerweise mit Red Hat OpenShiftIaC-Erfahrung: Praxis mit Terraform und Ansible im Plattform- oder Cloud-UmfeldLinux und Netzwerke: Fundierte Kenntnisse sowie Verständnis von Netzwerken und IT-SicherheitsanforderungenKundenumfeld: Erfahrung in der Zusammenarbeit mit Kunden, idealerweise im regulierten oder behördlichen UmfeldKommunikation: Deutsch verhandlungssicher sowie gutes Englisch in Wort und Schrift Unsere Benefits vielfältige Fort- und Weiterbildungsmöglichkeiten im Rahmen einer persönlichen Karriereplanung.ein individuelles Gehalts- und Arbeitszeitmodell und der Vereinbarkeit von Beruf und Familie.
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Sigma, YARA) sowie Incident PlaybooksGute Programmier bzw. Skripting Kenntnisse (z. B. Python, Bash, PowerShell)Erfahrung im Incident Handling und in der Analyse komplexer Security IncidentsAusgeprägte praktische, hands on Erfahrung – keine rein theoretische SicherheitskompetenzKenntnisse gängiger Security Standards und Frameworks (z.
Sigma, YARA) sowie Incident Playbooks Gute Programmier bzw. Skripting Kenntnisse (z. B. Python, Bash, PowerShell) Erfahrung im Incident Handling und in der Analyse komplexer Security Incidents Ausgeprägte praktische, hands on Erfahrung – keine rein theoretische Sicherheitskompetenz Kenntnisse gängiger Security Standards und Frameworks (z.
Das bringst du mit Technische Expertise: Du bringst mehrjährige Expertise im DevOps Bereich mit und verfügst über umfangreiche Erfahrung im Aufbau und Betrieb von CI/CD Pipelines, Containerisierung mit Kubernetes und/oder OpenShift, Cloud (OpenStack, AWS, Azure, GCP).
Projektumsetzung und Implementierung: Du planst und implementierst Oracle Exadata Infrastrukturen On-Premises sowie in hybriden Umgebungen mit Oracle Cloud Infrastructure.Oracle Exadata: Du installierst, konfigurierst und administrierst Oracle Datenbanken auf Exadata-Systemen in Standalone- und Cluster-Architekturen.Hochverfügbarkeit und Migration: Du setzt HA-Lösungen mit Oracle RAC und Data Guard um und begleitest komplexe Migrations- und Konsolidierungsprojekte.Performance und Tuning: Du führst detaillierte Performance-Analysen auf Exadata-Plattformen durch und optimierst Datenbanken, SQL-Statements und PL/SQL gezielt.Backup und Recovery: Du implementierst Backup- und Recovery-Strategien mit RMAN und entwickelst tragfähige Betriebskonzepte für produktive Umgebungen.Betrieb und Rufbereitschaft: Du unterstützt im 2nd- und 3rd-Level-Support, analysierst technische Störungen strukturiert und übernimmst Rufbereitschaften in einem klar geregelten Rotationsmodell. Das bringst du mit Oracle Exadata Erfahrung: Du verfügst über mehrjährige Berufserfahrung im Oracle-Umfeld mit klarer Projekterfahrung auf Oracle Exadata Systemen.Oracle Technologien: Du bringst fundierte Kenntnisse in Oracle RAC, Data Guard, RMAN und Enterprise Manager Cloud Control mit.Datenbank Administration: Du hast umfassende Erfahrung in Installation, Konfiguration und Betrieb von Oracle Datenbanken in produktiven Umgebungen.Cloud und Linux: Du hast praktische Erfahrung mit Oracle Cloud Infrastructure sowie sehr gute Kenntnisse in Linux, idealerweise auch in Unix oder Windows.SQL und Scripting: Du verfügst über gute Kenntnisse in SQL, PL/SQL und Shell-Scripting.Betrieb und Kommunikation: Du arbeitest sicher im SLA- und ITIL-orientierten Umfeld, bist bereit zur Teilnahme an einer geregelten Rufbereitschaft, kommunizierst sehr gut auf Deutsch und projektsicher auf Englisch und überzeugst durch ein professionelles Auftreten.
Das bringst du mit Berufserfahrung und Ausbildung: Du verfügst über mindestens 6–8 Jahre einschlägige Berufserfahrung im Datenbankumfeld sowie ein abgeschlossenes Studium der Informatik oder eine vergleichbare Qualifikation. PostgreSQL Architektur: Du bringst sehr fundierte Erfahrung in Installation, Administration, Konfiguration und Architektur von PostgreSQL-Datenbanken inklusive Performance-Tuning mit. Hochverfügbarkeit und Backup: Du hast praktische Erfahrung mit HA-Lösungen wie Streaming Replication, Patroni oder PgBouncer sowie mit Backup-Tools wie pgBackRest, Barman oder EDB BART.
Automatisierung und Linux: Du hast Erfahrung mit Infrastructure as Code, z. B. Ansible, AWX oder Terraform, und bewegst dich sicher in Linux-Umgebungen. Hochverfügbarkeit und Tuning: Du kennst HA-Lösungen wie Streaming Replication, Patroni oder PgBouncer und bringst idealerweise Erfahrung im Performance-Tuning sowie sehr gute SQL-Kenntnisse mit.
Architektur-Design: Du konzipierst und implementierst moderne Datenplattform-Architekturen in der Cloud auf AWS, Azure oder GCP mit Fokus auf Snowflake.Data Engineering: Du entwickelst modulare und testbare Transformations-Pipelines mit dbt und arbeitest nach Best Practices wie Versionierung, CI/CD und automatisierten Tests.Datenmodellierung: Du erstellst Datenmodelle nach Data Vault 2.0, Star-Schema oder vergleichbaren Modellierungstechniken zur strukturierten Abbildung fachlicher Anforderungen.End-to-End Orchestrierung: Du integrierst Ingestion-Tools wie Fivetran oder Airbyte und stellst die Workflow-Orchestrierung mit Airflow oder Dagster sicher.Consulting und Coaching: Du berätst Kunden bei der Auswahl geeigneter Komponenten und begleitest die Migration von Legacy-Systemen in die Cloud.Qualitätssicherung: Du stellst durch automatisierte Datenqualitätsprüfungen und klare Governance-Strukturen eine hohe Datenverlässlichkeit sicher. Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
. ------ Deine Aufgaben Dimensionierung, Design, Aufbau, Überwachung und Betrieb unserer Plattform-Architektur Entwicklung, Optimierung und Wartung unserer CI/CD-Pipelines zur Vereinfachung der Anwendungsentwicklung Aufbau und Überwachung von Logging- und Monitoring-Lösungen zur frühzeitigen Problemerkennung Überwachung der Umgebungen zur Erkennung von Abweichungen und Ableitung entsprechender Optimierung-Maßnahmen im Deployment Enge Zusammenarbeit mit Entwicklungsteams zur Optimierung der Deployment- und Infrastrukturprozesse ------ Deine Qualifikation Umfangreiche Erfahrung in der Container-Orchestrierung mit Kubernetes und Serverless-Systemen auf Cloud-Diensten wie AWS, Azure oder Google Cloud Tiefgehendes technisches Verständnis von Infrastructure as Code (IaC) unter dem Einsatz von Automatisierungstools wie ArgoCD, GitHub Actions, AzureDevOps, Ansible oder Terraform Sicherer Umgang in Skriptsprachen im Cloud-Kontext (TypeScript, Bash, Python) Ausgezeichnete Kommunikationsfähigkeiten und die Fähigkeit, technische Konzepte effektiv zu vermitteln Übernahme von Verantwortung und ein hohes Maß an Problemlösekompetenz ------ Unser Angebot Professionelle Einarbeitung und begleiteter Onboarding-Prozess Arbeitsplatz in Reutlingen und mobiles Arbeiten JobRad und Corporate Benefits Kostenlose Getränke ------
. ------ Deine Aufgaben Konzeption, Entwicklung und Implementierung von KI-Prototypen Identifikation relevanter use-cases in Abstimmung mit den Fachbereichen Evaluierung von generativer AI und Sprachmodellen Sicherstellung Support, Schulung und Steigerung der Akzeptanz der KI-Lösungen Aktuelle Entwicklungen und Trends im Bereich KI verfolgen und auf deren Einsatz prüfen ------ Deine Qualifikation Erste Erfahrung in der Entwicklung von KI-Prototypen und Anwendung von KI-Technologien/Plattformen. Erfahrung in agilen Arbeitsweisen zur schnellen Umsetzung von Lösungen.
Scrum, Kanban, SoS, SAFe) Ausgeprägte Teamfähigkeit sowie sehr gute Kommunikationsfähigkeiten Ausgeprägte Organisationsfähigkeiten und lösungsorientierte Arbeitsweise Erfahrung in der Steuerung externer Entwicklerteams wünschenswert ------ Unser Angebot Professionelle Einarbeitung und begleiteter Onboarding-Prozess Arbeitsplatz in Reutlingen und mobiles Arbeiten JobRad und Corporate Benefits Kostenlose Getränke Firmenevents und Teambildungsmaßnahmen ------