Data Engineer – Databricks
O pozici
Pracovní nabídka
Modern Digital Solutions, část společnosti Seyfor, která se zabývá tím nejmodernějším, co trh nabízí – cloudem, sekuritními řešeními, M365 technologiemi, modernizací aplikací, datovou analýzou, AI. Nasloucháme našim zákazníkům a jejich potřebám využívat ta nejmodernější IT řešení, která nejen Microsoft nabízí. Našimi zákazníky jsou převážně velké enterprise firmy, kterým pomáháme optimalizovat a tvořit infrastrukturu a aplikace.
Nyní rozšiřujeme tým o pozici Data Engineer se znalostí Databricks, kterou bude rozvíjet a šířit v rámci Seyforu.
Tým Data Engineering…
… je rozdělen do 2 lokalit/týmů – Prahy a Brna. Celkem v týmu najdeš 17 kolegů různé seniority a zaměření. Úkolem obou Team Leaderů je kompetenční rozvoj týmu, jeho propojování s dalšími týmy a samozřejmě se podílí na práci na projektech.
Rozvoj
Bez seberozvoje bychom nepatřili ke špičce na trhu. Proto s tebou Team Leader při nástupu nastaví tvůj individuální kariérní plán, v němž jsou zahrnuté certifikace i rozvoj v rámci kompetenčních komunit. Zakládáme si na sdílení know-how, budeš pod vedením zkušenějších kolegů.
Jak si tě představujeme
- Máš praktickou zkušenost s platformou Databricks.
- Máš velmi dobrou znalost SQL a Python a umíš pracovat s Apache Spark (PySpark).
- Máš zkušenosti s datovými sklady, data lakehouse a datovým modelováním.
- Orientuješ se v cloudovém prostředí (Azure / AWS / GCP – dle konkrétního projektu).
- Máš znalost verzovacích nástrojů (Git).
- Máš zkušenost s orchestrací datových úloh (např. Apache Airflow, Databricks Jobs).
- Máš analytické myšlení a schopnost řešit různorodé technické výzvy i ve více projektech najednou.
- Jsi samostatný, ale rád pracuješ v týmu, kvalita dodaného řešení je pro tebe důležitá.
- Komunikovat se zákazníkem a s kolegy pro tebe není problém.
- Chceš se učit a rozvíjet své technické znalosti.
Výhodou je:
- Znalost Delta Lake, Unity Catalog.
- Zkušenosti se streamováním dat (Kafka, Event Hubs apod.) a základy DevOps / CI/CD pro datové projekty.
Co budeš konkrétně dělat
- Navrhovat, vyvíjet a provozovat datové pipeline na platformě Databricks v rámci projektů pro naše zákazníky.
- Zpracovávat velké objemy dat (batch i streaming) a transformovat je pro analytické, reportingové a BI účely.
- Implementovat ETL/ELT procesy s důrazem na výkon, škálovatelnost a kvalitu dat.
- Spolupracovat s interním datovým týmem i se zástupci zákazníka (analytici, IT, business).
- Pracovat s moderními technologiemi a koncepty (Delta Lake, Lakehouse).
- Navrhovat a optimalizovat datové modely pro analytické a BI využití.
- Monitorovat, ladit a řešit incidenty v datových tocích.
- Podílet se na návrhu datové architektury a best practices napříč projekty.
- Tvořit dokumentaci a sdílení know-how v rámci týmu i směrem k zákazníkovi.
Co tě bude bavit
- Zavedení a rozvoj Databricks knowledge v Seyforu.
- Široká paleta projektů pro různé klienty v Enterprise a Public sektoru.
- Práce s moderními technologiemi a spolupráce s ostatními týmy – Cloud tým, Security tým, aj.
- Prostor pro vlastní nápady a řešení.
- Možnost vzdělávat se.
- Skvělá parta lidí.
- Firma, které na tobě bude záležet.
Nabízíme
- Flexibilní pracovní dobu.
- Možnost home office.
- Neomezenou dovolenou.
- Zaměstnání ve společnosti, která má našlápnuto.
- Práci, ve které se nebudeš nudit.
- Zaměstnanecké benefity a firemní akce.
- Pracovní telefon a notebook.
- Kariérní růst nastavený dle rozvojového plánu.
- Příjemné pracovní prostředí v kancelářích v Praze nebo v Brně.