Deine Challenges
- Du arbeitest in einem Team (Kund:in und ipt), in dem du eine innovative, skalierbare Datenlösung im Bereich Big Data mit modernen Technologien implementierst
- Du wirst Bedürfnisse unserer Kund:innen abholen und verstehen, die für die Umsetzung der Big Data Projekte relevant sind
- Du bereitest strukturierte und unstrukturierte Datenbestände mit unterschiedlichen Datentypen und Formaten für analytische Zwecke auf
- Du unterstützt den Kunden durch agile Entwicklungsmethoden und Automatisierung von Datenpipelines
Das bringst du mit
- Erfolgreich abgeschlossenes Studium in Informatik oder Wirtschaftsinformatik
- Erste Erfahrung im Software Engineering in einem komplexen IT-Umfeld (mind. 1 Jahr, auch Teilzeit möglich)
- Know-how in Big Data Technologien von Vorteil, z.B Databricks/Spark, Snowflake, Microsofte Azure Synapse, Google Dataproc, Google BigQuery, AWS Lake Formation, AWS Redshift, etc.
- Know-how in Speichertechnologien von Vorteil, z.B. Datalake, S3 kompatible Speicher, RDBMS, noSQL Datenbanken, Kafka, etc.
- Leidenschaft, sich schnell in neue Themen und Technologien einzuarbeiten
- Teamplayer und gute kommunikative Fähigkeiten. Professionelles Auftreten und sehr gute Deutsch- und Englischkenntnisse
Das sind unsere Benefits für dich
- Entwicklung + Perspektive: Persönliche Weiterbildungs- und Entwicklungsmöglichkeiten basierend auf deinen Karrierevorstellungen
- Gemeinsame Aktivitäten: Nach getaner Arbeit treffen wir uns auch gerne mal zum Sport oder Feierabendbier
- Bring Your Own Device: Guthaben für eigene Devices, die du selber auswählst – ganz nach deinen Vorlieben
Hard Facts
- Dein Arbeitsort ist vor Ort beim Kunden in der Deutschschweiz (Zürich, Luzern, Basel, Bern, St. Gallen)
- Pensum: 80% oder mehr
- Dieses Stelleninserat umschreibt ein Szenario, das dich in einem Projekt erwarten könnte. Wir suchen Talente, die für verschiedene Themen und Technologien offen sind.

