25 km
HARRY HOPE Deutschland GmbH
Data Engineering Spezialist (m/w/d) 31.12.2024 HARRY HOPE Deutschland GmbH Hamburg (DE)
Weitere passende Anzeigen:

1

Passende Jobs zu Ihrer Suche ...

... immer aktuell und kostenlos per E-Mail.
Sie können den Suchauftrag jederzeit abbestellen.
Es gilt unsere Datenschutzerklärung. Sie erhalten passende Angebote per E-Mail. Sie können sich jederzeit wieder kostenlos abmelden.

Data Engineering Spezialist (m/w/d)

Drucken
HARRY HOPE Deutschland GmbH
Hamburg (DE)
Jetzt bewerben

Diese Anzeige bietet mehrere Möglichkeiten sich zu bewerben. Wählen Sie eine Option aus:

Bewerbung2Go per E-Mail

Informationen zur Anzeige:

Data Engineering Spezialist (m/w/d)
HARRY HOPE Deutschland GmbH
Hamburg (DE)
Aktualität: 31.12.2024

Anzeigeninhalt:

31.12.2024, HARRY HOPE Deutschland GmbH
Hamburg (DE)
Data Engineering Spezialist (m/w/d)
Aufgaben:
  • Entwicklung und Wartung von Data-Pipelines für die Verarbeitung großer Datenmengen.
  • Design und Implementierung von ETL-Prozessen (Extract, Transform, Load) zur Datenintegration.
  • Optimierung der Datenverarbeitungsprozesse und Sicherstellung einer hohen Datenqualität.
  • Verwaltung und Pflege von Datenbanken und Data Warehouses.
  • Zusammenarbeit mit Data Scientists und Analyst*innen zur Bereitstellung von Daten für Analysen und Modelle.
  • Entwicklung von Tools und Skripten zur Automatisierung von Datenverarbeitungsaufgaben.
  • Sicherstellung der Datensicherheit und Einhaltung von Datenschutzvorgaben.
  • Überwachung und Performance-Optimierung von Dateninfrastrukturen.
  • Erstellung und Pflege von Dokumentationen zu Datenprozessen und -pipelines.
Qualifikationen:
  • Erfahrung mit Datenbanktechnologien wie SQL, NoSQL, und Big-Data-Systemen (z.B. Hadoop, Spark).
  • Kenntnisse in der Programmierung mit Python, Java oder Scala zur Datenverarbeitung.
  • Nutzung von Data-Warehousing-Technologien wie Amazon Redshift, Google BigQuery oder Snowflake.
  • Arbeiten mit Cloud-Plattformen wie AWS, Azure oder Google Cloud.
  • Erfahrung mit Data-Pipeline-Tools wie Apache Airflow oder Kafka.
  • Kenntnisse in der Anwendung von Versionierungstools wie Git.
  • Nutzung von Containerisierungstechnologien wie Docker und Kubernetes.
  • Tiefgehendes Verständnis von Datenmodellen, -strukturen und -management.
  • Erfahrung im Umgang mit großen und komplexen Datensätzen.
  • Fähigkeit, effiziente und skalierbare Datenlösungen zu entwickeln.
  • Grundlegendes Verständnis von maschinellem Lernen und der Rolle von Daten in analytischen Modellen.
  • Kenntnisse in der Arbeit mit APIs zur Datenintegration und -verarbeitung.
  • Erfahrung mit Datensicherheitsstandards und Datenschutzgesetzen.
  • Analytisches und problemlösungsorientiertes Denken.
  • Teamarbeit und gute Kommunikation, insbesondere mit Data Scientists und anderen Stakeholder*innen.
  • Hohe Motivation zur kontinuierlichen Weiterbildung und Verbesserung der eigenen Fähigkeiten.
  • Fähigkeit, komplexe technische Inhalte verständlich zu kommunizieren.
  • Selbstständiges Arbeiten und Priorisierung von Aufgaben.
Wir bieten:
  • Möglichkeit zur Spezialisierung auf bestimmte Technologien wie Cloud Engineering oder Data Science.
  • Weiterentwicklung zu Senior Data Engineerin oder Data Architectin.
  • Teilnahme an Fachkonferenzen und Weiterbildungsmaßnahmen im Bereich Data Engineering und Big Data.

Standorte