Upcoming events
forum_epfl_carousel
unibz Alumni Homecoming 2024

Join us at unibz Alumni Homecoming in Bolzano on May 11th, 2024 to engage with our team of experts and recruiters, and discover our job offers.

Learn more
job search

Cloud Data Platform Engineer

Zurich | ELCA Informatique
Job number
1146
Date posted Apr 14, 2024
Job category BI / Big Data Level of experience -
Job type External Employment type
Full-time
Work site Zurich Company

Über ELCA

Wir sind ELCA, einer der grössten Schweizer IT-Stämme mit über 2'200 Experten. Wir sind multikulturell und haben Niederlassungen in der Schweiz, Spanien, Italien, Frankreich, Vietnam und Mauritius. Seit 1968 bietet unser Team aus Ingenieuren, Business-Analysten, Software-Architekten, Designern und Beratern massgeschneiderte und standardisierte Lösungen an, um die digitale Transformation von grossen öffentlichen Verwaltungen und privaten Unternehmen in der Schweiz zu unterstützen. Unsere Tätigkeit erstreckt sich über mehrere Bereiche von Spitzentechnologien wie KI, Machine & Deep Learning, BI/BD, RPA, Blockchain, IoT und CyberSecurity.

ELCA ist mit über 2000 Spezialisten einer der grössten unabhängigen IT Dienstleister in der Schweiz. 

Unser Business Line Business Intelligence und Big Data ist verantwortlich für die Bereitstellung von Technologieplattformen, die das Wachstum unserer Kunden fördert. Die zahlreichen exklusiven Projekte unterscheiden sich in Ausprägung, Branchen und Unternehmen.

 Wir suchen jemanden, mit Erfahrung in der Implementierung von komplexen verteilten Computerumgebungen, welche grosse Datenmengen verarbeiten. Idealerweise jemand, der mit Big Data-Technologien wie Hadoop, Spark, MPP- und NoSQL-Datenbanken vertraut ist.

Deine Aufgaben

Als Big Data Engineer arbeitest du in mehreren Teams eng mit u.a. Data Engineers, -Architects und -Scientists zusammen, um hochmoderne Data Analytics-Plattformen aufzubauen und zu betreiben. Die Rolle kombiniert technische Fähigkeiten in Big Data-Ökosystemen mit Fokus auf OS-Software und Cloud-Infrastruktur.

  • Du beteiligst dich an mehreren Big Data-Projekten
  • Du bist mitverantwortlich für Design, Code, Konfiguration wie auch von Komponenten welche Data Ingestion, Echtzeit-Streaming, Batch Processing, Datenextraktion, Transformation über mehrere Datenquellen und Anwendungen hinweg verwalten.
  • Du coachst andere Teammitglieder in neuartige Technologien
  • Du interagierst mit Engineering-Teams über Projekte hinweg und stellst sicher, dass Deine Lösungen die Kundenanforderungen in Bezug auf Funktionalität, Leistung, Verfügbarkeit, Skalierbarkeit, Sicherheit und Zuverlässigkeit erfüllen
  • Du arbeitest mit Business Analysten und Data Scientists zusammen, um deren Use Cases zu verstehen und zu unterstützen

Unser Angebot

  • Ein dynamisches Arbeitsumfeld mit einem jungen und hochmotivierten Team
  • Vielfältige Möglichkeiten, Dein Wissen und Deine Erfahrung durch die Arbeit an einer breiten Palette an spannenden Projekten, Kunden und Technologien zu erweitern
  • Attraktive Perspektiven für Karriere und persönliche Entwicklung durch Training und Coaching
  • Eine flache Hierarchie und eine Kultur der Zusammenarbeit über alle Disziplinen hinweg
  • Die Chance, durch den Aufbau grossartiger Software etwas im Leben der Menschen zu verändern
  • Attraktive Perspektiven für die weitere berufliche und persönliche Entwicklung mit verschiedenen internen Karrierepfaden
  • Work-Life-Balance (41 Std/W in Gleitzeit, Möglichkeit für Homeoffice, mind. 25 Ferientage), ergonomischer und flexibler Arbeitsplatz in einem multikulturellen Umfeld
  • Interessante Benefits wie z.B.: Beitrag an bestehendes Mobiltelefon oder Business Handy, 1/2- Tax Abonnement und geschäftlich unterwegs im Zug mit 1. Klasse, attraktive Pensionskassenmodelle, Übernahme der NBU (privat, weltweit), fortschrittliche Kranktaggeldversicherung sowie Flottenrabatt

Dein Profil

  • Technischer Hochschulabschluss ETH/UNI/FH mit Programmiererfahrung in Java, Python oder Scala
  • Implementierungsfertigkeiten mit Big Data-Technologien wie Spark, Kafka, Hadoop oder DeltaLake
  • Erfahrung in der Bereitstellung und Automatisierung von Cloud-Lösungen mithilfe von Azure, GCP, AWS, Kubernetes oder Terraform
  • Know-how in SQL- und NoSQL-Datenbanken, z. B. Postgres, Snowflake, Databricks oder SQL Server
  • Kenntnisse Software-Engineering-Best Practices des gesamten Entwicklungszyklus, inkl. Codierungsstandards, Code-Reviews, Quellcodeverwaltung, Build-Prozesse, Tests und Betrieb
  • Fliessend in Deutsch und Englisch