Deep Learning und Large Language Models
Dauer: 3-5 Tage (flexibel nach Bedarf)
Überblick
Ein umfassendes Training, das Sie von den Grundlagen des Deep Learning bis zur praktischen Arbeit mit Large Language Models führt. Ideal für Data Scientists, ML Engineers und Entwickler, die tief in die Welt der neuronalen Netze und Sprachmodelle eintauchen möchten.
Das erwartet Sie
- Hands-on Experience mit TensorFlow und Transformers
- Praktische Übungen zum Training und Fine-Tuning von Modellen
- Best Practices aus realen Projekten
- Code-Templates für eigene Implementierungen
Curriculum
Tag 1: Grundlagen Neural Networks
- Architektur neuronaler Netze
- Aktivierungsfunktionen und Backpropagation
- Optimierungsalgorithmen
- Praktische Implementierung in TensorFlow
Tag 2: Deep Learning Architekturen
- Convolutional Neural Networks (CNN)
- Recurrent Neural Networks (RNN)
- Long Short-Term Memory (LSTM)
- Attention Mechanismus
Tag 3: Transformer & LLMs
- Transformer Architektur im Detail
- Self-Attention und Multi-Head Attention
- BERT, GPT und moderne Architekturen
- Prompt Engineering und Chain-of-Thought
Tag 4-5: Praktische Anwendungen
- Fine-Tuning von Pre-trained Models
- Implementierung von Custom Datasets
- Deployment Best Practices
- Performance Optimierung
Voraussetzungen
- Grundlegende Python-Kenntnisse
- Basis-Verständnis von Machine Learning
- Laptop mit aktueller Python-Installation
Ihre Vorteile
- Kleine Gruppengröße (max. 8 Teilnehmer)
- Praxisnahe Übungen und Beispiele
- Zugang zu Trainingsmaterialien und Code-Repositories
Interesse an diesem Training?
Lassen Sie uns gemeinsam besprechen, wie wir das Training optimal auf Ihre Bedürfnisse abstimmen können.
Kontakt aufnehmen