Als globale Mobile-Plattform verwaltet adjoe über 500 Millionen Nutzer sowie täglich Petabytes an Daten und fordert damit die US-Big-Techs direkt heraus. Der deutsche „Hidden Champion“ setzt konsequent auf technologische Tiefe: Über 50 % der Belegschaft haben einen Engineering-Background, wodurch sämtliche Innovationen inhouse entwickelt werden. Mit Büros auf allen Kontinenten agiert adjoe als Teil der AppLike Group (Bertelsmann) weltweit an der Spitze der AdTech-Branche. Werde jetzt Teil eines schnell wachsenden, internationalen und motivierten Teams!
Deine Mission & Aufgaben
- End-to-End Modellentwicklung: Konzeption, Training und Deployment eigener ML-Modelle (Fokus: Transformer, Neuronale Netzwerke, LLMs und weitere) für eine Nutzerbasis von >500 Mio und 15 Mrd Interferences am Tag .
- Applied Research: Transfer aktueller Forschungsergebnisse (Papers) in produktive Anwendungen und Entwicklung neuer Architekturen jenseits von Standard-APIs und gegebenenfalls Publikation von Research.
- Big Data Engineering: Nutzung und Mitgestaltung von performanter Pipelines zur Verarbeitung von Petabyte-Scale Datensätzen mittels SQL, S3, Pytorch, Tensorflow.
- Production & Testing: Validierung der Modelle auf Business KPIs durch tägliche A/B-Tests in der Live-Umgebung und Optimierung auf Inferenz-Latenz und Ressourceneffizienz.
- Kollaboration: Enge Zusammenarbeit an der Schnittstelle zwischen der eigenen Research-Unit (~15 Data Scientists) und dem internationalen Software Engineering Team (~100 Experten).
- Science meets Economy: Erfolgreicher Übergang von der rein wissenschaftlichen Karriere (Fokus auf Details, Analyse und Grundlagenforschung) hin zur Business-Driven Research, bei der wissenschaftliche Erkenntnisse als Enabler dienen, um marktgerechte Produkte schnell zu entwickeln und einfach zu validieren.
Dein Profil & Technologie Erfahrung
- Akademische Exzellenz: Promotion (PhD) oder Master mit herausragenden Noten in Informatik, Mathematik, Physik oder vergleichbaren quantitativen Feldern.
- Publikation: Erfolgreiche Veröffentlichungen auf Top-Tier AI/ML Konferenzen (z.B. NeurIPS, ICML, ICLR, AAAI, CVPR, EMNLP, ACL) oder in relevanten Journals, die einem Peer-Review-Prozess standgehalten haben.
- Algorithmische Tiefe: Tiefgreifendes mathematisches Verständnis der Funktionsweise moderner Deep Learning Algorithmen (Optimierung, Backpropagation, Attention Mechanisms). Hohe Motivation, sich in neue komplexe Sachverhalte eigenständig einzuarbeiten.
- Coding Expertise: Profunde Programmierkenntnisse in Python (PyTorch/TensorFlow, ONNX, JAX) bzw. Scala/Kotlin/Java (nice to have) für die Integration in Big Data Ökosysteme.
- Infrastructure Experience: Benefit: Praktische Erfahrung mit Distributed Computing und Cloud-Infrastrukturen (AWS, GPU-Cluster H100/A100, Kubernetes, Airflow).
- Sprache: Verhandlungssichere Deutschkenntnisse (C2) und fließendes Englisch.