Bielefeld (Hybrid)
Wir bauen die digitale Beschaffungs‑Engine für den deutschen Mittelstand – und du legst mit dem Team das Datenfundament, auf dem unser gesamtes Business läuft
Diese Rolle ist nichts für Dashboard‑Builder oder reine Analysten. Du entwickelst als Data Engineer das Herzstück unserer Plattform: unsere Datenmodelle, unsere Pipelines, unsere Event‑Architektur und die Systeme, die Pricing, Produktsuche, Forecasting, Automatisierung und ML antreiben. Deine Arbeit entscheidet, ob wir skalieren, oder nicht.
Wenn du Datenarchitekturen liebst, komplexe Modelle bauen willst und eine Plattform von 0 → 1 mitgestalten möchtest, ist das hier dein nächster Karriereschritt.
Aufgaben
Datenmodellierung & Architektur
- Design des transaktionalen Datenmodells in PostgreSQL für Produkte, Preise, RFQs, Kunden & Bestellungen
- Aufbau des analytischen Modells in BigQuery (Star Schema, Partitioning, Clustering)
- Entwicklung einer event‑driven Data Architecture mit Pub/Sub & Change Data Capture
- Entscheidungen zu Normalisierung, Denormalisierung & Performance‑Optimierung
Pipelines & Data Engineering
- Aufbau von ETL/ELT‑Pipelines zwischen PostgreSQL, BigQuery und Third‑Party‑Systemen
- Entwicklung von Event‑Processing‑Pipelines über Pub/Sub
- Integration externer Datenquellen (ERP, CRM, Lieferanten‑APIs, E‑Commerce, Payment)
- Implementierung von Data Quality Checks, Validation, Monitoring & Error Handling
- Nutzung von dbt für Transformationen und modularen Datenaufbau
Analytics & ML‑Enablement
- Aufbau des Data Warehouses und Bereitstellung sauberer Daten für Business & Product
- Strukturierung von Features für Pricing‑Models, Forecasting & Recommendation
- Implementierung von Vector Search (pgvector) und Datenbereitstellung für RAG‑Systeme
- Unterstützung bei Embeddings, Feature Stores, ML‑Pipelines & Real‑Time‑Serving
Data Governance & Operations
- Implementierung von Data Lineage, ERDs & Dokumentation
- IAM‑ und Row‑Level‑Security‑Design
- Backup‑ & Recovery‑Strategien
- GDPR‑konforme Datenhaltung & Anonymisierung
Qualifikation
- Erfahrung als Data Engineer in produktiven Systemen
- Tiefe Kenntnisse in PostgreSQL, Query‑Optimierung, Indizes & Constraints
- Sehr stark in SQL (CTEs, Window Functions, Performance Tuning)
- Erfahrung mit BigQuery (oder Snowflake / Redshift)
- Praxis in ETL/ELT, Batch vs. Streaming, Data Quality, Validation
- Python‑Skills für Data Processing & API‑Workflows
- Erfahrung mit event‑driven Systemen (Pub/Sub, MQ, CDC)
- Verständnis für B2B‑ oder E‑Commerce‑Datenmodelle
- Git, CI/CD
- Hohe Eigenständigkeit & Ownership
Nice to have
- GCP‑Erfahrung: BigQuery, Cloud SQL, Pub/Sub, Cloud Functions
- dbt
- Airflow / Cloud Composer
- pgvector / Pinecone / Weaviate
- ML Feature Engineering
- Erfahrungen mit RAG‑Systemen & LLM‑Integration
- Terraform / IaC
- Erfahrung im 0 → 1‑Startup‑Umfeld
Benefits
Einfluss & Verantwortung
Du legst mit dem CTO die Grundlage für Automatisierung, Pricing & ML. Alles, was du baust, ist entscheidet für die Skalierbarkeit. Nah am Startup‑Ökosystem in Berlin und OWL.
Transparente Vergütung
Wir kommunizieren unser Vergütungsmodell klar und offen.
Team-Events & Offsites
Regelmäßige Teamevents und Offsite‑Meetings stärken Zusammenhalt.
Inspirierende Arbeitsumgebung
Moderne, hochwertige Arbeitsräume in Bielefeld fördern Kreativität und Zusammenarbeit.
Sinnstiftende Arbeit
Dein Beitrag macht die industrielle Beschaffung effizienter, mit direktem Impact auf Branchen.
Fokus auf Talente
Wir schaffen ein Umfeld für selbstmotivierte Top‑Performer und geben dir beste Bedingungen für Wachstum.
Wir wollen wissen: Warum du? Warum jetzt? Warum das hier?
Let's f*ing go!
Bei getspecialfasteners.com schätzen wir Chancengleichheit und Diversität. Wir begrüßen alle Bewerbungen unabhängig von Alter, Geschlecht, Nationalität, Behinderung, Religion, sexueller Orientierung sowie ethnischer und sozialer Herkunft.