Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Das ist die Aufgabe Unterstützung bei der Entwicklung und Umsetzung von Datenanalysen im Rahmen der globalen Kundendatenstrategie Auf- und Ausbau von Data-Analytics-Use-Cases & Dashboards zur Unterstützung von Marketing- & Vertriebsentscheidungen, u.a. zur Analyse und Optimierung der Kundenzufriedenheit Datenaufbereitung, -modellierung und -visualisierung mit Tools wie Python, PySpark und Power BI Durchführung explorativer Datenanalysen zur Identifikation von Mustern und Trends im Kundenverhalten Als Teil unseres übergreifenden Data Analytics-Teams enge Zusammenarbeit u.a. mit unseren Product Ownern, Data Analysts, Data Scientists & Data Engineers Das wünschen wir uns Studium der Fachrichtung (Wirtschafts-) Informatik oder vergleichbare Studiengänge Erste Erfahrungen mit gängigen Tools zur Datenanalyse & -visualisierung (idealerweise mit Microsoft Power BI und Python) Praktische Vorkenntnisse im Bereich Data Analytics bzw.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B. Databricks, Azure Data Lake, Azure DevOps) Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Du verfügst über gute Englisch und Deutschkenntnisse Data-Engineer-m-w-d-Data-Analytics-Platform-Essen
Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen. Das Gehalt liegt, je nach Erfahrung, bei ca. 77.000 €/Jahr. Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Studiengänge Einsatzbereich | Praktikum/Abschlussarbeit im Bereich Data Science Dauer | 3-6 Monate Bestens gefordert | Wir suchen motivierte Studierende, die sich unserem Data Science Team für ein Pflichtpraktikum und/oder eine Bachelor-/Masterarbeit (3-6 Monate) anschließen möchten. Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern.
Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.) Ausgeprägte analytische Fähigkeiten und Freude daran, fachliche Anforderungen in technische Lösungen zu übersetzen Selbstständige, strukturierte Arbeitsweise sowie hohe Kommunikations- und Teamfähigkeit Flexible Arbeitszeitmodelle sowie Mobile Office Ein breites Lernangebot und digitale Trainings Umfassende Gesundheitsangebote und zahlreiche kostenfreie Sportkurse Job-Ticket und Bike-Leasing Gehaltsinformationen Auf Anfrage Ihr Kontakt Ansprechpartner Julia Cyzewski Referenznummer 862466/1 Kontakt aufnehmen E-Mail: julia.cyzewski@hays.de Anstellungsart Festanstellung durch unseren Kunden
Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.) Ausgeprägte analytische Fähigkeiten und Freude daran, fachliche Anforderungen in technische Lösungen zu übersetzen Selbstständige, strukturierte Arbeitsweise sowie hohe Kommunikations- und Teamfähigkeit Flexible Arbeitszeitmodelle sowie Mobile Office Ein breites Lernangebot und digitale Trainings Umfassende Gesundheitsangebote und zahlreiche kostenfreie Sportkurse Job-Ticket und Bike-Leasing Gehaltsinformationen Auf Anfrage Ihr Kontakt Ansprechpartner Julia Cyzewski Referenznummer 862466/1 Kontakt aufnehmen E-Mail: julia.cyzewski@hays.de Anstellungsart Festanstellung durch unseren Kunden
Die Stelle ist ab sofort in Vollzeit 40 h/Wo sowie im Rahmen der Arbeitnehmerüberlassung mit der Option auf Übernahme zu besetzen. Das Gehalt liegt, je nach Erfahrung, bei ca. 77.000 €/Jahr. Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Du möchtest Deine Erfahrung nicht nur vertiefen, sondern auch weitergeben – und mit anderen gemeinsam echte Datenmehrwerte erzielen? Dann gestalte mit uns die nächste Etappe – persönlich, kollegial und wirksam.
Unsere Teams arbeiten länderübergreifend daran, unsere Kunden in der datengetriebenen Weiterentwicklung ihrer Geschäftsmodelle zu unterstützen. Bei uns bringst Du Deine Erfahrung gezielt ein – und entwickelst sie weiter, zusammen mit Menschen, die Wissen teilen, Verantwortung leben und Zukunft gestalten. Du möchtest Deine Erfahrung nicht nur vertiefen, sondern auch weitergeben – und mit anderen gemeinsam echte Datenmehrwerte erzielen?
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Unser ideales Profil Masterabschluss in Informatik, Mathematik/Statistik, Wirtschaftswissenschaften/Ökonometrie oder einem verwandten Fachgebiet.Mehrjährige Berufserfahrung in quantitativer Datenanalyse oder eine Promotion mit mindestens einem Jahr relevanter Berufserfahrung im Bereich Machine‑Learning‑Forschung.Sehr gute Kenntnisse und tiefes Verständnis von Machine‑Learning‑Methoden, sowohl klassisch als auch Deep Learning.Relevante Erfahrung mit Natural Language Processing (NLP) zur Extraktion strukturierter Konzepte aus unstrukturiertem Freitext, einschließlich Design, Training und Evaluierung von Information‑Extraction‑Pipelines.Sehr starke technische Fähigkeiten in Python, SQL und dem Hadoop‑Ökosystem.Erfahrung in der Anwendung von KI-/Machine‑Learning‑Methoden auf geschäftliche Fragestellungen.Sehr gute Kenntnisse fortgeschrittener statistischer und ökonometrischer Methoden in Theorie und Praxis.Erfahrung im Umgang mit Big Data.Fähigkeit, sauberen, wiederverwendbaren, produktionsreifen Code zu schreiben.Hervorragende Kommunikationsfähigkeiten (schriftlich und mündlich), einschließlich technischer Projektaspekte, Dokumentation, Ergebnisinterpretation und geschäftlicher Empfehlungen.Ausgeprägtes analytisches Denken und logische Problemlösungskompetenz, starke Qualitätsorientierung.Kenntnisse des Pharmamarktes und Erfahrung mit pharmazeutischen Daten (medizinische Daten, Krankenhausdaten, Apothekendaten, Abrechnungsdaten) sind von Vorteil, aber nicht zwingend erforderlich.Selbstständige Projektsteuerung.Fließende Deutsch- und Englischkenntnisse.
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse.
B. Data Science, KI, Statistik, Business Analytics)Mehrjährige Erfahrung in datengetriebenen Rollen (z. B. BI Consultant, Data Scientist, Data Analyst), idealerweise mit Projektverantwortung in einem produzierenden UnternehmenTechnische Tiefe in ETL, Reporting, Data Engineering, Datenmanagement und Business IntelligenceSehr gute Kenntnisse in Qlik Sense Erfahrung in der Datenmodellierung und Erstellung von AuswertungenSicherer Umgang mit ERP-Systemen, insbesondere SAP oder gleichwertigSehr gute Kommunikationsfähigkeiten in Deutsch C1 und Englisch B2 WIR GARANTIEREN IHNEN: Sie erwartet eine direkte Festanstellung bei unserem wertschätzenden Kunden.Um Sie bestmöglich bei unserem Kunden zu präsentieren, optimieren wir gemeinsam Ihre Bewerbungsunterlagen und bereiten Sie gründlich auf das Vorstellungsgespräch im Unternehmen vor.Damit Sie zu den besten Konditionen eingestellt werden, stehen wir Ihnen im Voraus zur Verhandlung Ihres Arbeitsvertrags beratend zur Seite.Darüber hinaus beraten wir Sie auch gern kostenfrei zu weiteren passenden Karrieremöglichkeiten.Diese attraktiven Benefits bietet Ihnen unser Kunde außerdem:Es besteht die Möglichkeit, sofern erforderlich, dass Ihr neuer Arbeitgeber Sie während der Probezeit bei den Kosten für eine temporäre Unterkunft unterstützt mit flexiblen Optionen!
Snowflake, GCP BigQuery, Azure Synapse) mit.Du hast ein starkes Verständnis von ETL/ELT-Prozessen und Cloud-Architekturen sowie sehr gute Erfahrung in SQL, idealerweise in der Automatisierung und Optimierung von Datenprozessen.Bestenfalls bringst Du Zertifizierungen im Bereich Data Vault 2.0 oder 2.1 mit.Idealerweise kannst Du Ende zu Ende von der lokalen Entwicklung bis hin zum Cloud-Deployment und Monitoring tätig sein und bereits komplexe Cloud-native Software entwickelt und betrieben Du punktest durch analytische und konzeptionelle Fähigkeiten sowie einer eigenständigen und strukturierten Arbeitsweise Eine hohe Kommunikationsfähigkeit sowie Kreativität und soziale Kompetenz zeichnen Dich aus Du verfügst über verhandlungssichere Deutschkenntnisse und kannst bei Bedarf auch in englischer Sprache kommunizieren Gelegentliche Dienstreisen innerhalb Deutschlands sind für Dich kein Problem Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Databricks, Azure Data Lake, Azure DevOps) Ein hohes Maß an Selbständigkeit, Sorgfalt und Qualitätsbewusstsein Erfahrung mit der Arbeit in agilen Scrum Teams Data-Engineer-m-w-d-Operational-Reporting-Essen
Databricks, Azure Data Lake, Azure DevOps) Ein hohes Maß an Selbständigkeit, Sorgfalt und Qualitätsbewusstsein Erfahrung mit der Arbeit in agilen Scrum Teams Data-Engineer-m-w-d-Reporting-Excellence-Essen
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Mehr als ein grüner Daumen – Ihr Profil als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Abgeschlossene Ausbildung im Bereich, Bürokommunikation, Verwaltung oder eine vergleichbare Qualifikation Erste Erfahrung in der Stammdatenpflege Gute Kenntnisse in MS Office, insbesondere Excel Idealerweise Erfahrung mit ERP-Systemen, insbesondere SAP S4/HANA Analytische Fähigkeiten und ein Auge für Details Strukturierte und gewissenhafte Arbeitsweise Kommunikationsstärke und Teamfähigkeit Gute Deutschkenntnisse in Wort und Schrift, Englischkenntnisse sind von Vorteil Teil- oder Vollzeitbeschäftigung: ab 20 Std.
Teilprojektleitung in internationalen Projekten im Bereich Data- / Process Mining, Data Analytics und maschinelles Lernen Koordination und Steuerung von internen IT-Ressourcen, externen Partnern und Mitarbeitern der Fachabteilung Mitarbeit in Projekten außerhalb des eigenen Verantwortungsbereichs bei Bedarf Ihr Profil: Erfolgreich abgeschlossenes Studium aus dem Bereich Informationstechnologie, Data Science oder eine gleichwertige Ausbildung Mehrjährige Erfahrung im Bereich Qlik Sense Entwicklung Mehrjährige Berufserfahrung als Projektleiter oder Consultant, idealerweise in einem produzierenden Unternehmen (z.B.
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Design Thinking oder Scrum im Rahmen von Projekten/Workshops Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Wirtschaftsingenieurwesen, Wirtschaftswissenschaften, Mathematik, Informatik, Ingenieurwissenschaften oder Vergleichbares Idealerweise erste praktische Erfahrungen in Digitalisierungsprojekten, Data Analytics, Cloudtechnologien Wir bieten Die Sicherheit eines großen, global tätigen Unternehmens mit hohen Standards für die Arbeitssicherheit Attraktive, der Qualifikation entsprechende Vergütung Unbefristete Anstellung Ein interessantes und vielseitiges Aufgabenfeld Individuelle Weiterbildung und Entwicklungsprogramme sowie vielfältige Karrieremöglichkeiten So geht’s weiter Bewerben Sie sich bitte direkt online, indem Sie auf den Button „JETZT AUF DIESE STELLE BEWERBEN“ klicken.
Architektur-Design: Du konzipierst und implementierst moderne Datenplattform-Architekturen in der Cloud auf AWS, Azure oder GCP mit Fokus auf Snowflake.Data Engineering: Du entwickelst modulare und testbare Transformations-Pipelines mit dbt und arbeitest nach Best Practices wie Versionierung, CI/CD und automatisierten Tests.Datenmodellierung: Du erstellst Datenmodelle nach Data Vault 2.0, Star-Schema oder vergleichbaren Modellierungstechniken zur strukturierten Abbildung fachlicher Anforderungen.End-to-End Orchestrierung: Du integrierst Ingestion-Tools wie Fivetran oder Airbyte und stellst die Workflow-Orchestrierung mit Airflow oder Dagster sicher.Consulting und Coaching: Du berätst Kunden bei der Auswahl geeigneter Komponenten und begleitest die Migration von Legacy-Systemen in die Cloud.Qualitätssicherung: Du stellst durch automatisierte Datenqualitätsprüfungen und klare Governance-Strukturen eine hohe Datenverlässlichkeit sicher. Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B.
Du hast ein Studium der (Wirtschafts-)Informatik, Mathematik oder eine vergleichbare Qualifikation abgeschlossen. Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit. Sehr gute Kenntnisse in Python und SQL zeichnen dich aus.
Du sicherst Qualität, Konsistenz und Nachhaltigkeit in Projekten und unterstützt aktiv bei Best Practices und Standards. Hiermit kommst Du zu uns Mehrjährige Erfahrung im Consulting- oder Projektumfeld, idealerweise in Enterprise-Organisationen Fundierte praktische Erfahrung (mind. 3 Jahre) mit der Collibra Data Governance Plattform (inkl.
Du sicherst Qualität, Konsistenz und Nachhaltigkeit in Projekten und unterstützt aktiv bei Best Practices und Standards. Hiermit kommst Du zu uns Mehrjährige Erfahrung im Consulting- oder Projektumfeld, idealerweise in Enterprise-Organisationen Fundierte praktische Erfahrung (mind. 3 Jahre) mit der Collibra Data Governance Plattform (inkl.
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Gehaltsinformationen Das Jahreszielgehalt liegt zwischen 70.000 und 90.000 OTE, abhängig von Erfahrung und fachlicher Expertise Ihr Kontakt Ansprechpartner Elif Sener Referenznummer 863985/1 Kontakt aufnehmen Telefon:+49-(0)211-179388614 E-Mail: elif.sener@hays.de Anstellungsart Festanstellung durch unseren Kunden
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Ausbildung im Bankwesen oder als Fachinformatiker (w/m/*) Mehrjährige Erfahrungen im Datenbereich oder in einer vergleichbaren Position sowie Erfahrungen im Bankwesen mit der Bereitschaft zur Aneignung der technischen Fähigkeiten Nachgewiesene ausgeprägte Zahlenaffinität und analytische Fähigkeiten, Kenntnisse in den Bereichen Statistik, Mathematik und Finanzen Interesse an innovativen Technologien zur Weiterentwicklung der Datenqualität im Unternehmen sowie sicherer Umgang mit Datenbanken, SQL, Python oder anderen Programmiersprachen Teamfähigkeit, sehr gute Kommunikation, Eigeninitiative und ein effizienter, strukturierter Arbeitsstil sind für Sie selbstverständlich Sehr gute Deutschkenntnisse sind zwingend notwendig Für Fragen stehen Ihnen gerne zur Verfügung: Sophia Baschin Senior HR Business Partner T: +49 202 / 382 – 313 Anne Rose Chief Data Officer T: +49 202 / 382 – 134 Hinweis: Um den zuständigen Fachvorgesetzten einen schnellen Zugriff auf Ihre Unterlagen zu ermöglichen, stellen wir Ihre Unterlagen auch bei postalischer oder E-Mail-Einsendung ggf. eingescannt in unsere Bewerberdatenbank ein.
Du stellst eine hohe, standortübergreifende Datenqualität sicher und etablierst dazu passende Monitoring- und Reportingstrukturen.Du koordinierst und unterstützt die Fachanwender:innen, schulst sie in den Stammdatenprozessen und bist zentrale Ansprechperson für Stammdaten und PIM.Du hast ein Studium im Bereich BWL, Logistik oder Supply Chain Management abgeschlossen.Du hast Berufserfahrung im Supply Chain oder Einkauf und verfügst über fundierte praktische Erfahrung im Stammdatenmanagement (MDM) oder Product Information Management (PIM).Du kennst Dich gut mit SAP und MS Excel aus oder bist bereits Experte in einem anderen ERP-System.Du denkst in Prozessen, behältst den Überblick und kannst gut organisieren.
Je nach Qualifizierung und Erfahrung beläuft sich das Gehalt dieser Stelle auf bis zu 95.000 Euro Ihr Kontakt Ansprechpartner Lisa Maria Kus Referenznummer 851963/1 Kontakt aufnehmen E-Mail: lisa.maria.kus@hays.de Anstellungsart Festanstellung durch unseren Kunden
Je nach Qualifizierung und Erfahrung beläuft sich das Gehalt dieser Stelle auf bis zu 95.000 Euro Ihr Kontakt Ansprechpartner Lisa Maria Kus Referenznummer 851963/1 Kontakt aufnehmen E-Mail: lisa.maria.kus@hays.de Anstellungsart Festanstellung durch unseren Kunden
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das ProjektteamUnterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlichVerständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Kenntnisse in Python, Git, CI/CDWissen in ETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
MM, SD, FI/CO) • Sehr gutes Verständnis betrieblicher Prozesse und deren Abbildung in SAP • Erfahrung in der Definition und Umsetzung von Stammdatenprozessen und richtlinien • Strukturierte, verantwortungsvolle, sorgfältige und lösungsorientierte Arbeitsweise • Ausgeprägte Kommunikationsfähigkeit und sicheres Auftreten gegenüber Fachbereichen • Idealerweise Kenntnisse in Data Governance, Datenqualität oder Master Data Management • Gute Deutschkenntnisse, Englischkenntnisse von Vorteil Mitarbeiter-Data-Quality-Management-m-w-d-Weyhe
Mit einem fortschrittlichen Konzept und hohen Qualitätsstandards trägt Bergman Clinics zur besseren Zugänglichkeit und Qualität der medizinischen Versorgung in Deutschland bei. Die Spezialisierung der Kliniken garantiert Fachkompetenz und Erfahrung, die zu ausgezeichneten Behandlungsergebnissen führen.
Hiermit kommst Du zu uns Du hast ein abgeschlossenes Studium in Wirtschaftsinformatik, Informatik, Data Science oder einem verwandten Bereichs. Du bringst mindestens zehn Jahre Erfahrung in der Konzeption und Umsetzung von Datenstrategien, Data Governance oder Datenarchitekturen mit – idealerweise im Beratungskontext und hast Erfahrung mit AI-Strategien und der Operationalisierung von KI-Lösungen.
Erfolg beginnt dort, wo Erfahrung auf Exzellenz trifft – und Daten echte Wirkung erzeugen. INFOMOTION ist die Data Performance Company – mit über 600 Datenenthusiastinnen und -enthusiasten an neun Standorten und mehr als 20 Jahren Erfahrung.
Denn durch unsere intensiven Beziehungen und Netzwerke über alle Industriebranchen hinweg vermitteln wir Ihnen als Engineering-Fachleuten spannende Projekte und attraktive Positionen. Ganz nach Ihren Interessen und abhängig von Ihren Erfahrungen und Qualifikationen. Sie profitieren dabei von einer professionellen Betreuung von der ersten Ansprache bis zum Antritt Ihres neuen Projektes bzw.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.