Large Language Models (LLMs) verstehen und nutzen: Grundlagen, Tools und praktische Anwendung.
Hersteller:
Softwareversion:
Unsere Offenen Schulungen finden auf der aktuellen Softwareversion statt.
Falls Sie eine ältere Version einsetzen wollen, können wir auch das realisieren.
Bitte kontaktieren Sie uns direkt ...
Schulung für Einsteiger & Entscheider & Experten
Schulungszeiten
9:30 - 17:00 Uhr (8 x 45 Min)
In Absprache andere Zeiten möglich.
Zielgruppe
Voraussetzung
Solide IT-Kenntnisse und ein grundlegendes Verständnis für Künstliche Intelligenz werden vorausgesetzt. Erste Erfahrungen mit Python oder ähnlichen Tools sind von Vorteil, aber nicht zwingend erforderlich.
Inklusivleistungen
-
- WissensPiloten Zertifikat
-
- Stift und Notizblock
Bei Schulungen in unseren Schulungszentren:
-
- Mittagessen
-
- kalte- und warme Getränke
-
- Indiv. eingerichteter PC/Mac für jeden Teilnehmer
Bei Online Schulungen
-
- Professionelles Webinar / Online Meeting System Informationen zu tech. Anforderungen
Fördermöglichkeiten
Direkter Kontakt zu uns?
Tel. 0521 99997360
Oder direkt per Mail?
Was Sie in Ihrer Schulung Large Language Models (LLMs) verstehen und nutzen: Grundlagen, Tools und praktische Anwendung. lernen:
In dieser Schulung lernen Sie die technischen Grundlagen, Funktionsweisen und Trainingsmethoden von Large Language Models (LLMs) umfassend kennen. Sie profitieren von praxisnahen Übungen, bei denen Sie selbst Modelle anwenden, anpassen und eigene Trainingsprozesse durchführen.
Schulungsbeschreibung
Der Fokus liegt auf technischem Know-how und praktischer Anwendung: Sie lernen, wie Sie mit modernen Tools wie HuggingFace und PyTorch LLMs aufsetzen, trainieren, feinabstimmen und evaluieren. Interaktive Übungen und Live-Demonstrationen ermöglichen Ihnen, alle Schritte von der Datenaufbereitung über das Prompt-Engineering bis zur Integration eigener Datensätze selbst auszuprobieren.
Zusätzlich thematisieren wir essenzielle Aspekte wie Modellarchitektur, Qualitätsfaktoren, Lizenzmodelle, Datenschutz und Bias – damit Sie LLMs kompetent, sicher und verantwortungsvoll anwenden und weiterentwickeln können.
Unser Ziel:
Sie verlassen die Schulung mit fundiertem technischem Verständnis, praxisrelevanter Erfahrung im Training und in der Anpassung von LLMs sowie sicherem Umgang mit den wichtigsten Werkzeugen und Methoden im KI-Umfeld.
Large Language Models (LLMs) verstehen und nutzen
- Aufbau und Funktionsweise von LLMs: Vom Chatbot zu spezialisierten KI-Anwendungen
- Zentrale Begriffe: Tokenisierung, Transformer-Prinzip, Modellgröße, Trainingsdaten
Nutzungsszenarien & Praxisbeispiele:
- Text- und Codegenerierung
- Automatisierung technischer Aufgaben
- Branchenübergreifende Praxisbeispiele
Architektur und Qualitätsfaktoren
- Einflussgrößen auf Modellqualität, Effizienz und Kosten
- Erklärung der wichtigsten technischen Begriffe und Prinzipien: Tokenisierung, Transformer-Prinzip, Trainingsdaten & Modellgröße
Modelllandschaft & Auswahl
- Kommerzielle und Open-Source-Modelle (z. B. OpenAI, Meta, Mistral)
- Auswahlkriterien: Open Weights, Lizenzen, Kosten-Nutzen-Abwägung
- Interaktiver Modellvergleich: Präzision, Kosten, Bias
Effektives Prompt-Engineering
- Einfluss von Spracheingabe auf Antwortqualität
- Praktische Übungen: Von einfachen Prompts bis zu fortgeschrittenen Techniken
- Tipps für professionelle Prompt-Gestaltung
Integration & Infrastruktur:
- Technische Plattformen: On-Premises, Cloud, hybride Ansätze
- Anforderungen an Infrastruktur, Datensicherheit, Kostenoptimierung
Individuelle Modellanpassung: Von Prompt-Tuning bis Custom Knowledge
- Anpassungsmethoden: Zusatzwissen, Dokumenteneinbindung, spezielle Datenintegration (z. B. RAG)
- Datenvorbereitung und erste Schritte zur Feinabstimmung
- Praxisübung: Anpassung eines Modells an spezifische Aufgaben
Trainingspraxis & Evaluation:
- Training eines vortrainierten GPT-2-Modells mit HuggingFace & PyTorch
- Training an kompaktem Datensatz, Anpassung und Erweiterung
- Diskussion zu Hardwareanforderungen und Skalierungsoptionen
Risiken, Ethik & Rechtliches:
- Umgang mit Bias, Datenschutz und Lizenzmodellen
- Strategien zur rechtssicheren und verantwortungsvollen Nutzung
Wichtige Fragen zur Schulung
Was sind Large Language Models (LLMs) und wie funktionieren sie technisch?
Large Language Models (LLMs) sind KI-basierte Modelle, die mit Hilfe neuronaler Netze, insbesondere der Transformer-Architektur, große Mengen an Textdaten analysieren, verstehen und neue Texte generieren können. Sie bestehen aus Millionen bis Milliarden von Parametern und werden mit riesigen Datensätzen trainiert. Technisch betrachtet arbeiten LLMs mit Verfahren wie Tokenisierung, Attention-Mechanismen und mehrstufigen Trainingsprozessen, um Sprachverständnis und -generierung auf hohem Niveau zu ermöglichen.
Welche Voraussetzungen und Vorkenntnisse sind für eine erfolgreiche Teilnahme an der Schulung erforderlich?
Für diese Schulung benötigen Sie solide IT-Kenntnisse sowie ein grundlegendes Verständnis von Künstlicher Intelligenz und maschinellem Lernen. Erste Erfahrungen mit Programmiersprachen wie Python oder mit KI-Frameworks (z. B. PyTorch) sind von Vorteil, aber nicht zwingend erforderlich. Die Inhalte werden so vermittelt, dass auch technisch affine Einsteiger gut folgen können.
Welche praktischen Kompetenzen erwerbe ich während der Schulung?
Sie lernen, wie Sie LLMs mit modernen Tools wie HuggingFace und PyTorch selbst implementieren, trainieren und anpassen. Dazu gehören auch der Aufbau eigener Trainingsdatensätze, das Feintuning bestehender Modelle, das Evaluieren von Modellqualität sowie das Prompt-Engineering. Durch praktische Übungen und Live-Demonstrationen sammeln Sie direkt anwendbare Erfahrungen im Umgang mit aktuellen LLM-Technologien.
Wie läuft das Training eines eigenen LLMs ab und worauf muss ich dabei achten?
Das Training umfasst die Auswahl und Vorbereitung geeigneter Trainingsdaten, das Aufsetzen der Modellarchitektur, die Konfiguration relevanter Hyperparameter sowie die Überwachung und Bewertung des Trainingsprozesses. Sie erfahren, wie Sie diese Schritte effizient umsetzen, typische Fehlerquellen erkennen und die Modellqualität optimieren. Auch Hardwareanforderungen, Datensicherheit und Skalierung werden behandelt.
Welche Tools und Bibliotheken werden in der Schulung verwendet?
Im Fokus stehen praxisbewährte Open-Source-Tools wie HuggingFace Transformers und PyTorch. Sie lernen, vortrainierte Modelle zu laden, anzupassen und für eigene Anwendungsfälle zu trainieren. Zusätzlich erhalten Sie Einblicke in weitere relevante Frameworks und Hilfsmittel für die praktische Arbeit mit LLMs.
Werden auch Herausforderungen wie Bias, Datenschutz und Lizenzmodelle behandelt?
Ja, ein Teil der Schulung widmet sich den Risiken und ethischen Fragestellungen im Umgang mit LLMs. Sie erfahren, wie Sie Bias und Fehlverhalten erkennen und minimieren, welche datenschutzrechtlichen Aspekte bei Training und Einsatz zu beachten sind und wie Sie die passenden Lizenzmodelle für Ihre Projekte auswählen. So sind Sie in der Lage, LLMs verantwortungsvoll und rechtssicher zu betreiben.
Schulungsdauer: 3 Tage
Wählen Sie Ihre Schulungsart:
Schulungen in ganz Deutschland
Wir bieten unsere offenen Schulungen und unsere individuellen Schulungen in unseren Schulungzentren an über 50 Standorten zu festen Terminen in ganz Deutschland an.
Sie finden uns in Aachen, Augsburg, Berlin, Bielefeld, Bochum, Bonn, Bremen, Chemnitz, Dortmund, Dresden, Duisburg, Düsseldorf, Erfurt, Essen, Frankfurt am Main, Freiburg im Breisgau, Friedrichshafen, Gelsenkirchen, Göttingen, Hamburg, Hannover, Ingolstadt, Karlsruhe, Kassel, Kiel, Koblenz, Köln, Leipzig, Lübeck, Magdeburg, Mainz, Mannheim, Mönchengladbach, München, Münster, Nürnberg, Offenbach am Main, Oldenburg, Osnabrück, Paderborn, Potsdam, Regensburg, Rostock, Saarbrücken, Schwerin, Stuttgart, Ulm, Wiesbaden, Wolfsburg, Wuppertal und Würzburg. Also finden Sie auch in Ihrer Nähe finden Sie einen Standort.