Postleitzahl: |
Frankfurt am Main |
Start: |
asap |
Laufzeit: |
120 MT |
Beschreibung: |
Für die Unterstützung zum Aufbau eines Monitoring-Systems und eines Benchmark-Prognosemodells suchen wir für unseren Kunden einen
Spark/Machine-Learning-Developer (m/w)
Aufgaben:
- Unterstützung beim Aufbau eines Monitoring-Systems und eines Prognosemodells
- Analyse neuartiger, komplexer Problemstellungen und deren technische Lösung
- Umsetzung von statistischen Verfahren bzw. Machine Learning Methoden auf dem Hadoop-Cluster
- Unterstützung bei der Analyse von Datenquellen und bei der Datenmodellierung
- Konzeption des Software-Designs
- Programmierung individueller Software auf dem Hadoop-Cluster
- Zusammenarbeit und Abstimmung mit Entwicklern anderer Teilprojekte
- Unterstützung bei der Optimierung der Konfiguration des Hadoop-Clusters
|
Skills: |
- Praktische IT-Kenntnisse im Big Data Umfeld, speziell im Analyse-Bereich
- Mehrjährige Erfahrung mit Komponenten gängiger Hadoop-Distributionen (z. B. Hive, Kafka, HBase)
- Einschlägige Erfahrung innerhalb des Apache-Spark-Frameworks, insb. mit MLlib, idealerweise mit Zertifizierung
- Kenntnisse statistischer Verfahren und Machine Learning Methoden für Predictive Analytics
- Erfahrung mit Prognosesystemen und deren Qualitätssicherung
- Sicherer Umgang mit komplexen Datenstrukturen
- Fundierte Kenntnisse in objektorientierter und funktionaler Programmierung (z.B. Scala, Java)
- Programmierkenntnisse im Analytics-Umfeld (z.B. R, Python, SQL)
- Umfangreiche Erfahrung in Software-Design
- Hands-on-Mentalität und Flexibilität in einem dynamischen Umfeld
|
Anzahl: |
1 |