Large Language Models (LLMs) verstehen und nutzen: Grundlagen, Tools und praktische Anwendung.

Hersteller:

Softwareversion:

Unsere Offenen Schulungen finden auf der aktuellen Softwareversion statt.
Falls Sie eine ältere Version einsetzen wollen, können wir auch das realisieren.
Bitte kontaktieren Sie uns direkt ...

Schulung für Einsteiger & Entscheider & Experten

Schulungszeiten

9:30 - 17:00 Uhr (8 x 45 Min)
In Absprache andere Zeiten möglich.

Zielgruppe

Diese Schulung richtet sich an technisch interessierte Fachkräfte, Entwickler, IT-Verantwortliche sowie fortgeschrittene Anwender und Entscheider, die die Architektur, das Training und die Anpassung moderner LLMs im Detail verstehen und praktisch umsetzen möchten.

Voraussetzung

Solide IT-Kenntnisse und ein grundlegendes Verständnis für Künstliche Intelligenz werden vorausgesetzt. Erste Erfahrungen mit Python oder ähnlichen Tools sind von Vorteil, aber nicht zwingend erforderlich.

Inklusivleistungen

    • WissensPiloten Zertifikat
    • Stift und Notizblock

Bei Schulungen in unseren Schulungszentren:

    • Mittagessen
    • kalte- und warme Getränke
    • Indiv. eingerichteter PC/Mac für jeden Teilnehmer

Bei Online Schulungen

Direkter Kontakt zu uns?

Oder direkt per Mail?

Was Sie in Ihrer Schulung Large Language Models (LLMs) verstehen und nutzen: Grundlagen, Tools und praktische Anwendung. lernen:

In dieser Schulung lernen Sie die technischen Grundlagen, Funktionsweisen und Trainingsmethoden von Large Language Models (LLMs) umfassend kennen. Sie profitieren von praxisnahen Übungen, bei denen Sie selbst Modelle anwenden, anpassen und eigene Trainingsprozesse durchführen.

Schulungsbeschreibung

Tauchen Sie tief in die technische Welt der Künstlichen Intelligenz ein und entdecken Sie, wie große Sprachmodelle (Large Language Models, LLMs) wie GPT, Llama oder Mistral tatsächlich aufgebaut sind. In dieser dreitägigen WissensPiloten-Schulung vermitteln wir Ihnen, wie aktuelle LLMs architektonisch funktionieren, welche Rolle Trainingsdaten, Tokenisierung und die Transformer-Architektur spielen und wie Sie eigene Modelle trainieren oder bestehende Modelle gezielt anpassen.

Der Fokus liegt auf technischem Know-how und praktischer Anwendung: Sie lernen, wie Sie mit modernen Tools wie HuggingFace und PyTorch LLMs aufsetzen, trainieren, feinabstimmen und evaluieren. Interaktive Übungen und Live-Demonstrationen ermöglichen Ihnen, alle Schritte von der Datenaufbereitung über das Prompt-Engineering bis zur Integration eigener Datensätze selbst auszuprobieren.

Zusätzlich thematisieren wir essenzielle Aspekte wie Modellarchitektur, Qualitätsfaktoren, Lizenzmodelle, Datenschutz und Bias – damit Sie LLMs kompetent, sicher und verantwortungsvoll anwenden und weiterentwickeln können.

Unser Ziel:
Sie verlassen die Schulung mit fundiertem technischem Verständnis, praxisrelevanter Erfahrung im Training und in der Anpassung von LLMs sowie sicherem Umgang mit den wichtigsten Werkzeugen und Methoden im KI-Umfeld.

Large Language Models (LLMs) verstehen und nutzen

Grundlagen moderner Sprachmodelle

  • Aufbau und Funktionsweise von LLMs: Vom Chatbot zu spezialisierten KI-Anwendungen
  • Zentrale Begriffe: Tokenisierung, Transformer-Prinzip, Modellgröße, Trainingsdaten

Nutzungsszenarien & Praxisbeispiele:

  • Text- und Codegenerierung
  • Automatisierung technischer Aufgaben
  • Branchenübergreifende Praxisbeispiele

Architektur und Qualitätsfaktoren

  • Einflussgrößen auf Modellqualität, Effizienz und Kosten
  • Erklärung der wichtigsten technischen Begriffe und Prinzipien: Tokenisierung, Transformer-Prinzip, Trainingsdaten & Modellgröße

Modelllandschaft & Auswahl

  • Kommerzielle und Open-Source-Modelle (z. B. OpenAI, Meta, Mistral)
  • Auswahlkriterien: Open Weights, Lizenzen, Kosten-Nutzen-Abwägung
  • Interaktiver Modellvergleich: Präzision, Kosten, Bias

Effektives Prompt-Engineering

  • Einfluss von Spracheingabe auf Antwortqualität
  • Praktische Übungen: Von einfachen Prompts bis zu fortgeschrittenen Techniken
  • Tipps für professionelle Prompt-Gestaltung

Integration & Infrastruktur:

  • Technische Plattformen: On-Premises, Cloud, hybride Ansätze
  • Anforderungen an Infrastruktur, Datensicherheit, Kostenoptimierung

Individuelle Modellanpassung: Von Prompt-Tuning bis Custom Knowledge

  • Anpassungsmethoden: Zusatzwissen, Dokumenteneinbindung, spezielle Datenintegration (z. B. RAG)
  • Datenvorbereitung und erste Schritte zur Feinabstimmung
  • Praxisübung: Anpassung eines Modells an spezifische Aufgaben

Trainingspraxis & Evaluation:

  • Training eines vortrainierten GPT-2-Modells mit HuggingFace & PyTorch
  • Training an kompaktem Datensatz, Anpassung und Erweiterung
  • Diskussion zu Hardwareanforderungen und Skalierungsoptionen

Risiken, Ethik & Rechtliches:

  • Umgang mit Bias, Datenschutz und Lizenzmodellen
  • Strategien zur rechtssicheren und verantwortungsvollen Nutzung

Wichtige Fragen zur Schulung

Was sind Large Language Models (LLMs) und wie funktionieren sie technisch?

Large Language Models (LLMs) sind KI-basierte Modelle, die mit Hilfe neuronaler Netze, insbesondere der Transformer-Architektur, große Mengen an Textdaten analysieren, verstehen und neue Texte generieren können. Sie bestehen aus Millionen bis Milliarden von Parametern und werden mit riesigen Datensätzen trainiert. Technisch betrachtet arbeiten LLMs mit Verfahren wie Tokenisierung, Attention-Mechanismen und mehrstufigen Trainingsprozessen, um Sprachverständnis und -generierung auf hohem Niveau zu ermöglichen.

Welche Voraussetzungen und Vorkenntnisse sind für eine erfolgreiche Teilnahme an der Schulung erforderlich?

Für diese Schulung benötigen Sie solide IT-Kenntnisse sowie ein grundlegendes Verständnis von Künstlicher Intelligenz und maschinellem Lernen. Erste Erfahrungen mit Programmiersprachen wie Python oder mit KI-Frameworks (z. B. PyTorch) sind von Vorteil, aber nicht zwingend erforderlich. Die Inhalte werden so vermittelt, dass auch technisch affine Einsteiger gut folgen können.

Welche praktischen Kompetenzen erwerbe ich während der Schulung?

Sie lernen, wie Sie LLMs mit modernen Tools wie HuggingFace und PyTorch selbst implementieren, trainieren und anpassen. Dazu gehören auch der Aufbau eigener Trainingsdatensätze, das Feintuning bestehender Modelle, das Evaluieren von Modellqualität sowie das Prompt-Engineering. Durch praktische Übungen und Live-Demonstrationen sammeln Sie direkt anwendbare Erfahrungen im Umgang mit aktuellen LLM-Technologien.

Wie läuft das Training eines eigenen LLMs ab und worauf muss ich dabei achten?

Das Training umfasst die Auswahl und Vorbereitung geeigneter Trainingsdaten, das Aufsetzen der Modellarchitektur, die Konfiguration relevanter Hyperparameter sowie die Überwachung und Bewertung des Trainingsprozesses. Sie erfahren, wie Sie diese Schritte effizient umsetzen, typische Fehlerquellen erkennen und die Modellqualität optimieren. Auch Hardwareanforderungen, Datensicherheit und Skalierung werden behandelt.

Welche Tools und Bibliotheken werden in der Schulung verwendet?

Im Fokus stehen praxisbewährte Open-Source-Tools wie HuggingFace Transformers und PyTorch. Sie lernen, vortrainierte Modelle zu laden, anzupassen und für eigene Anwendungsfälle zu trainieren. Zusätzlich erhalten Sie Einblicke in weitere relevante Frameworks und Hilfsmittel für die praktische Arbeit mit LLMs.

Werden auch Herausforderungen wie Bias, Datenschutz und Lizenzmodelle behandelt?

Ja, ein Teil der Schulung widmet sich den Risiken und ethischen Fragestellungen im Umgang mit LLMs. Sie erfahren, wie Sie Bias und Fehlverhalten erkennen und minimieren, welche datenschutzrechtlichen Aspekte bei Training und Einsatz zu beachten sind und wie Sie die passenden Lizenzmodelle für Ihre Projekte auswählen. So sind Sie in der Lage, LLMs verantwortungsvoll und rechtssicher zu betreiben.

Schulungsdauer: 3 Tage

Wählen Sie Ihre Schulungsart:

Auch interessant ...

Schulungen in ganz Deutschland

Wir bieten unsere offenen Schulungen und unsere individuellen Schulungen in unseren Schulungzentren an über 50 Standorten zu festen Terminen in ganz Deutschland an.

Sie finden uns in Aachen, Augsburg, Berlin, Bielefeld, Bochum, Bonn, Bremen, Chemnitz, Dortmund, Dresden, Duisburg, Düsseldorf, Erfurt, Essen, Frankfurt am Main, Freiburg im Breisgau, Friedrichshafen, Gelsenkirchen, Göttingen, Hamburg, Hannover, Ingolstadt, Karlsruhe, Kassel, Kiel, Koblenz, Köln, Leipzig, Lübeck, Magdeburg, Mainz, Mannheim, Mönchen­gladbach, München, Münster, Nürnberg, Offenbach am Main, Oldenburg, Osnabrück, Paderborn, Potsdam, Regensburg, Rostock, Saarbrücken, Schwerin, Stuttgart, Ulm, Wiesbaden, Wolfsburg, Wuppertal und Würzburg. Also finden Sie auch in Ihrer Nähe finden Sie einen Standort.

Chat starten
Chat starten
Gerne helfen wir Ihnen bei Ihren Fragen, Anmerkungen oder Kommentaren.
Verbinden...
Aktuell ist online keine Berater:in verfügbar. Hinterlassen Sie eine Nachricht und wir werden uns in Kürze mit Ihnen in Verbindung setzen.
Unsere Berater:innen sind aktuell überlastet ;-). Bitte versuchen Sie es später noch einmal.
:
:
:

Die mit diesem Formular gesammelten Daten werden verwendet, um mit Ihnen in Kontakt zu treten. Für weitere Informationen beachten Sie bitte unsere Datenschutzerklärung.
Sie haben Fragen?
:
:

Die durch das Chat-Formular gesammelten Daten werden verwendet, um mit Ihnen in Kontakt zu treten. Weitere Informationen finden Sie in unserer Datenschutzerklärung.
Der Chat wurde beendet.
War diese Konversation nützlich? Bewerte diese Chat-Sitzung.
Gut Schlecht