Projektinformationen
- Vorort Projekt
Aufgaben
- End-to-End Verantwortung für ML-, AI- und Agentic-AI Use Cases: Problem Framing, Data Preparation, Modeling, Orchestration, Evaluation und Deployment in Production
- Design von Agent Architectures (Planner–Executor, Multi-Agent Collaboration) mit Memory, Reflection und Tool-Use, Sicherstellung von Robustness, Transparency und Controllability
- Implementierung des Model Context Protocol (MCP) für standardisierte und sichere Tool Integrations sowie Capability Discovery
- Orchestrierung von LLMs und Tools mit Agent Frameworks (z. B. LangChain, LlamaIndex, Semantic Kernel, OpenAI Assistants), inkl. Function/Tool Calling, Fallbacks und Guardrails
- Aufbau und Optimierung von RAG Pipelines: Ingestion, Chunking, Embeddings, Vector Stores, Retrieval Strategies, Caching sowie Evaluation für Precision/Recall und Latency
- Etablierung von LLMOps/MLOps Practices: Experiment Tracking, Prompt/Dataset Versioning, CI/CD, Model Registry, Monitoring und Incident Response
- Sicherstellung von Reliability, Safety und Compliance: Prompt-Injection Defenses, Content Filtering, Policy Enforcement, Red-Teaming und messbare Quality Gates
- Durchführung von Offline-/Online Evaluations: Backtesting, Time-Series Cross-Validation, A/B Testing, Shadow Deployments, Canary Releases sowie Drift und Impact Monitoring
- Performance- und Cost Optimization (Latency, Throughput, Rate Limits, Batching, Streaming, Caching); Pflege von Usage- und Cost Dashboards
- Zusammenarbeit mit Product Owners, Engineers und Business Stakeholders; Bereitstellung skalierbarer Lösungen auf Databricks (AWS) und Integration in Bank Systems
- Erstellung klarer Documentation, wiederverwendbarer Templates und Playbooks; Mentoring von Teammitgliedern und Beitrag zu Community Best Practices
Profil
- Teamplayer mit Eigeninitiative und Problemlösungskompetenz
- Praktische Erfahrung mit Cloud Computing (AWS, inkl. AWS Linux und AWS Lambda)
- Fundierte Erfahrung mit Database Technologies und idealerweise Data Lakes (AWS/S3)
- Erfahrung in Product-Driven Environments
- Programmierkenntnisse, insbesondere Python (idealerweise Django) sowie Erfahrung mit RESTful APIs
- Nachweisbare Fähigkeit zur Entwicklung von Prozessen für Data Transformation, Data Structures, Metadata und Workload Management
- Grundkenntnisse in ETL Tools
- Vertraut mit Agilem Arbeiten
- Soft Skills: Proaktivität, Neugier, Verantwortungsbewusstsein
- Strukturierte Arbeitsweise und ausgeprägte Problemlösungsskills
- Banking Experience von Vorteil
Benefits
- Internationaler Kunde
- Remote-Möglichkeit