Leuchtendes, digital stilisiertes Gehirn schwebt über einer futuristischen Oberfläche – inmitten von violett-blauen Lichtmustern und Datenströmen.

Large Language Model: Innovation der Textverarbeitung

14 Min

HomeRatgeberLarge Language Models
Autor: Dr. Kyrill Schmid
Autor: Dr. Kyrill Schmid

Wie funktionieren Large Language Models? Wie fördern LLMs technologische Durchbrüche? Wie verbessern sie Geschäftsprozesse? Ist ein LLM wirklich eine künstliche Intelligenz? Erhalten Sie wertvolle Einblicke in Implementierungsstrategien, um das passende Sprachmodell effektiv in Ihrem Unternehmen einzusetzen.

Large Language Models (LLMs) haben das Potenzial, die Unternehmenskommunikation grundlegend zu verändern. Die hochentwickelten KI-Systeme verstehen, verarbeiten und generieren natürliche Sprache und bieten somit innovative Lösungsansätze für die Herausforderungen der modernen Kommunikation. Unternehmen stehen vor der Aufgabe, personalisierte und effiziente Interaktionen mit ihren Kunden zu gestalten − eine Anforderung, die durch den Einsatz von LLMs erfüllt werden kann.

In diesem Beitrag erfahren Sie, wie Large Language Models funktionieren, technologische Durchbrüche fördern und Geschäftsprozesse verbessern. Zudem erhalten Sie wertvolle Einblicke in Implementierungsstrategien, um das passende Sprachmodell effektiv in Ihrem Unternehmen einzusetzen.

Was ist ein Large Language Model?

Large Language Models sind eine spezielle Klasse von KI-Sprachmodellen, die sich durch ihre enormen Datenmengen und ihre Fähigkeit zur Generierung von kohärenten, kontextbezogenen Texten auszeichnen. Im Kontext von Industrie 4.0, wo die Digitalisierung und Vernetzung von Produktionsprozessen im Vordergrund stehen, bieten LLMs einzigartige Möglichkeiten zur Optimierung der Mensch-Maschine-Interaktion und Datenanalyse.

Im Gegensatz zu herkömmlichen Sprachmodellen, die für spezifische Aufgaben trainiert werden, sind LLMs in der Lage, ein breites Spektrum an sprachlichen Herausforderungen zu meistern. Durch das Training auf riesigen Textkorpora entwickeln sie ein tiefgehendes Verständnis für die Struktur und Semantik menschlicher Sprache. Das Besondere an Large Language Models liegt außerdem in ihrer Vielseitigkeit und Anpassungsfähigkeit. Sie lösen Probleme wie Textklassifizierung, Fragebeantwortung, Dokumentenzusammenfassung und Textgenerierung mit Präzision.

MerkmalLarge Language ModelsTraditionelle KI-SystemeLanguage Models
Basis

Transformer-Architektur, spezialisiert auf natürliche Sprache

Unterschiedlich: Entscheidungsbäume, SVMs, KNNs, RNNs, CNNs

Statistische oder probabilistische Modelle (z.B. n-Grams)

TrainingsdatenSehr große, unstrukturierte TextdatensätzeStrukturiert oder teilweise unstrukturiert, abhängig vom ModellKleinere Textdatensätze, oft begrenzt auf spezifische Domänen
ModellgrößeExtrem groß, mit Milliarden von Parametern

Typischerweise viel kleiner, mit Tausenden bis Millionen Parametern

Sehr klein, mit wenigen Parametern, n-Wert oft auf 2-3 beschränkt
Einsatzgebiet

Textgenerierung, Dialogsysteme, Übersetzungen, Textverständnis

Klassifikation, Regression, Bildverarbeitung, Entscheidungsfindung

Einfache Textvorhersage, Autovervollständigung, Übersetzung

InteraktionsqualitätHoch, kann komplexe Dialoge und menschliche Interaktionen simulierenGering, oft auf spezifische Entscheidungsprozesse oder Aufgaben beschränktGering, nur basale Wortvorhersage oder Textverarbeitung
MultimodalitätKönnen auch mit anderen Datentypen (z. B. Bild) kombiniert werdenMultimodale Verarbeitung ist oft komplexer und nicht in allen Modellen verfügbarKeine Multimodalität, nur auf Text beschränkt

Während traditionelle KI-Modelle oft auf eng umrissene Anwendungsfälle beschränkt sind, eröffnen Large Language Models so ein weites Feld an Möglichkeiten. Deshalb gelten sie als Wegbereiter für die nächste Generation intelligenter Sprachverarbeitungssysteme.

Es gibt verschiedene Arten von Large Language Models, die sich anhand ihrer architektonischen Grundlagen und Anwendungsfälle klassifizieren lassen. Dies sind die fünf größten Typen:

  • Autoregressive LLMs

  • Encoder-basierte LLMs

  • Encoder-Decoder-Modelle

  • Multimodale LLMs

  • Zero-Shot und Few-Shot LLMs

Trotz ihrer Unterschiede teilen diese LLM-Typen grundlegende Gemeinsamkeiten, die ihre Funktionsweise erklären. Im nächsten Abschnitt werden wir uns daher genauer mit den technologischen Grundlagen und den Mechanismen befassen, die hinter der Leistungsfähigkeit von Large Language Models stehen. 

So funktionieren große Sprachmodelle

Die Basis für Large Language Models bilden komplexe neuronale Netzwerke, die speziell für die Bewältigung anspruchsvoller Sprachaufgaben konzipiert sind. Eine effektive Datenstrategie ist hierbei von entscheidender Bedeutung, da sie die Grundlage für die Qualität und Leistungsfähigkeit des Modells bildet. Dank Deep-Learning-Techniken können diese Modelle aus großen Textmengen Muster und Bedeutungen extrahieren. Dadurch entwickeln sie ein tiefes Verständnis für die Struktur und Semantik der menschlichen Sprache.

Das Herzstück moderner Large Language Models bildet die Transformer-Architektur. Im Gegensatz zu älteren Ansätzen wie rekurrenten neuronalen Netzen (RNNs) oder Long Short-Term Memory (LSTM) ermöglichen Transformer eine effizientere und leistungsfähigere Verarbeitung, indem sie die gesamte Eingabesequenz parallel verarbeiten. Die Architektur besteht aus Encoder- und Decoder-Komponenten, die durch Selbstaufmerksamkeitsmechanismen (Self-Attention) und Feedforward-Netzwerke miteinander verbunden sind. Dieser Aufbau erlaubt es, Abhängigkeiten zwischen Wörtern unabhängig von ihrer Position im Satz zu erfassen und somit ein tieferes Verständnis für den Kontext zu entwickeln.

Verarbeitungsschritte in Large Language Models

Die Funktionsweise von Large Language Models lässt sich in vier grundlegende Schritte unterteilen, die zusammenarbeiten, um aus Textdaten Bedeutung und Zusammenhänge zu extrahieren.

1. Eingabe und Tokenisierung

Der erste Schritt besteht darin, den Eingabetext in Tokens zu zerlegen. Tokens sind kleinere Einheiten wie Wörter, Wortteile oder Satzzeichen, die das Modell verarbeiten kann. Dieser Prozess ist entscheidend, um die Textdaten in ein Format umzuwandeln, das von den nachfolgenden Schichten des neuronalen Netzwerks verstanden werden kann. Jedem Token wird dann ein Vektor zugeordnet, der als Word Embedding bezeichnet wird und die Semantik des Tokens erfasst.

2. Kontextuelle Verarbeitung

3. Berechnung und Weiterleitung

4. Generierung oder Klassifikation

Trainingsmethoden und Optimierungen

Wie bereits erwähnt, basiert die Funktionsweise von Large Language Models auf dem Prinzip des selbstüberwachten Lernens. Bei diesem Ansatz lernt das Modell, indem es Muster und Zusammenhänge in den Trainingsdaten eigenständig erkennt, ohne dass eine explizite Anleitung oder Kennzeichnung erforderlich ist. Bevor jedoch das selbstüberwachte Lernen zum Einsatz kommt, durchlaufen LLMs häufig eine Phase des Pretrainings.

In diesem Schritt wird das Modell auf riesigen Textkorpora trainiert, um grundlegende Sprachmuster und -zusammenhänge zu erlernen. Eine gängige Methode hierfür ist das Masked Language Modeling, bei dem das Modell lernt, fehlende Wörter in einem Satz vorherzusagen. Eine weitere Technik ist das Next Sentence Prediction, bei dem das Modell vorhersagt, ob zwei Sätze aufeinanderfolgen oder nicht. Durch dieses Pretraining entwickelt das LLM ein breites Verständnis für die Sprache und kann dieses Wissen auf verschiedene Aufgaben übertragen.

Nach dem Pretraining kann das Modell auf spezifische Aufgaben angepasst werden. Hierbei wird das vortrainierte Modell als Ausgangspunkt verwendet und mit zusätzlichen Daten für die Zielaufgabe feinabgestimmt. Dieser Prozess wird als Fine-Tuning bezeichnet und ermöglicht es, das allgemeine Sprachverständnis des Modells auf konkrete Anwendungsfälle zu übertragen. Beim Fine-Tuning werden die Modellparameter mithilfe von aufgabenspezifischen Daten angepasst, sodass das Large Language Model lernt, die gewünschten Ergebnisse zu produzieren. Durch diesen Ansatz können LLMs schnell und effizient auf neue Aufgaben adaptiert werden, ohne dass ein vollständiges Training von Grund auf erforderlich ist.

Für den Erfolg von LLMs sind außerdem die Qualität als auch die Quantität der Trainingsdaten von entscheidender Bedeutung. Moderne Ansätze wie Data Mesh helfen dabei, die notwendige Datenqualität und -menge bereitzustellen, indem Daten domänenübergreifend integriert und gemanagt werden. Je umfangreicher und hochwertiger die Daten sind, desto leistungsfähiger und vielseitiger werden die Modelle.

Eine Person trägt Kopfhörer und arbeitet an einem Laptop in einem modernen, mit Pflanzen dekorierten Raum.
Schöpfen Sie das volle Potenzial Ihrer Unternehmensdaten aus: Schaffen Sie die Grundlage für leistungsstarke Large Language Models!

Anwendungsmöglichkeiten in verschiedenen Branchen

Stellen Sie sich vor, Sie hätten einen digitalen Assistenten, der nicht nur Ihre Sprache versteht, sondern auch eigenständig hochwertige Texte verfasst, Fragen beantwortet und sogar Bilder analysiert. Mit Large Language Models ist dies keine Zukunftsvision mehr, sondern bereits Realität.

Die Entwicklung von LLMs hat in den letzten Jahren zu einem regelrechten Hype geführt. Und das aus gutem Grund: Diese Modelle sind in der Lage, komplexe sprachliche Zusammenhänge zu erkennen, Schlussfolgerungen zu ziehen und sogar kreative Aufgaben zu bewältigen. Dadurch wecken sie branchenübergreifend Potenziale und treiben die Effizienz in verschiedenen Geschäftsbereichen voran.

Die multimodalen Fähigkeiten von Large Language Models eröffnen Unternehmen eine leistungsstarke Grundlage für die Entwicklung intelligenter Anwendungen und Dienste. Die folgenden Abschnitte erläutern die verschiedenen Einsatzgebiete von LLMs und verdeutlichen anhand konkreter Beispiele, wie diese Technologie Unternehmen dabei unterstützt, ihre Prozesse zu optimieren und neue Möglichkeiten zu erschließen.

Textverarbeitung und -analyse

Large Language Models ermöglichen die semantische Analyse umfangreicher Textkorpora. Durch ihr Verständnis für Morphologie, Syntax und Semantik können LLMs linguistische Muster, Entitäten und Relationen extrahieren. In der Medizin können diese Modelle eingesetzt werden, um unstrukturierte Daten wie Arztbriefe oder Studien zu analysieren und wertvolle Erkenntnisse für Diagnose und Behandlung zu gewinnen. LLMs ermöglichen auch die Sentiment-Analyse, die Rückschlüsse auf die emotionale Tonalität von Texten erlaubt. Dies kann beispielsweise im Marketing genutzt werden, um die Stimmung in Social-Media-Beiträgen oder Produktrezensionen zu erfassen und die Kundenzufriedenheit zu überwachen.

Textgenerierung und Übersetzung

Integration von Text und Bild

Automatisierung von Geschäftsprozessen

Die fünf größten Sprachmodelle

Die Entwicklung von Large Language Models ist ein hochdynamisches Feld, in dem regelmäßig neue Modelle mit verbesserten Leistungsmerkmalen vorgestellt werden. Ein Großteil dieser Grundlagenmodelle stammt dabei aus den USA. Seit 2017 wurden 73 % der KI-Foundationmodelle in den Vereinigten Staaten entwickelt, was auf die intensiven Forschungs- und Entwicklungsaktivitäten der dortigen Tech-Unternehmen zurückzuführen ist.

Die leistungsstärksten LLMs bilden die Basis für eine Vielzahl von KI-Anwendungen in unterschiedlichen Branchen. Sie ermöglichen die effiziente Lösung komplexer Aufgaben in Bereichen wie Kundenservice, Datenanalyse, Content-Generierung und Prozessautomatisierung. Gerade im Kontext von KI in der Industrie bieten diese Modelle großes Potenzial zur Optimierung von Abläufen und Steigerung der Wettbewerbsfähigkeit.

Die folgende Tabelle gibt einen Überblick über die fünf größten und leistungsfähigsten Sprachmodelle, die derzeit den Markt prägen:

ModellHerstellerErscheinungsjahrLizenzierungModellgröße
GPT-4OpenAI, USA2023Proprietär

Mehrere hundert Milliarden Parameter

PalM 2Google, USA2023ProprietärÜber 500 Milliarden
LLAMA 3Meta, USA2024

Open Source (Forschungslizenz)

Ungefähr 70 Milliarden
Claude 2Anthropic, USA2023ProprietärNicht öffentlich, vermutlich > 100 Milliarden
BloomBigScience, International (Frankreich)2022

Open Source (RAIL)

176 Milliarden Parameter

Die Leistungsfähigkeit von Large Language Models wird anhand anspruchsvoller Metriken wie Perplexität, BLEU-Score oder F1-Score in diversen Benchmarks evaluiert. GPT-4 setzt hier neue Maßstäbe in der Sprachverarbeitung. Im Vergleich dazu zeichnen sich europäische LLMs durch andere spezifische Merkmale aus.

Während ChatGPT als Produkt eines US-amerikanischen Unternehmens entwickelt wurde und auf einem breiten, globalen Datensatz trainiert ist, fokussieren sich europäische LLMs oft stärker auf die sprachliche und kulturelle Vielfalt Europas. Diese Modelle legen besonderen Wert auf die Einhaltung europäischer Datenschutzstandards und ethischer Richtlinien, was sie für Unternehmen und Organisationen innerhalb der EU besonders attraktiv macht. Daher legen wir im nächsten Abschnitt einen Blick auf drei vielversprechende europäische Large Language Models.

Europäische Large Language Models

Ein Kernmerkmal europäischer Large Language Models ist ihre Ausrichtung auf die spezifischen Bedürfnisse und Anforderungen des europäischen Marktes. Dies umfasst nicht nur die Berücksichtigung der sprachlichen und kulturellen Vielfalt Europas, sondern auch die Integration fortschrittlicher Technologien zur Steigerung der Effizienz und Nachhaltigkeit.

Die folgenden drei LLMs demonstrieren die Stärke europäischer KI-Technologie und tragen zur Diversifizierung und Weiterentwicklung der globalen KI-Landschaft bei.

ModellHerstellerErscheinungsjahrLizenzierungModellgröße
Luminous

Aleph Alpha, Deutschland  

2022Proprietär

70 Milliarden Parameter

Mistral LargeMistral Al, Frankreich2023Open Source

12,9 Milliarden Parameter

OpenGPT-XGaia-X-Konsortium, Deutschland/EU2024Open SourceNicht veröffentlicht

Die europäischen Large Language Models zeigen deutliche Stärken in Bezug auf Spezialisierung und ethische Ausrichtung. Sie sind darauf ausgelegt, den europäischen Datenschutzbestimmungen gerecht zu werden und eine transparente, vertrauenswürdige KI-Nutzung zu ermöglichen. Im Vergleich zu geschlossenen Systemen wie Claude 2 verfolgen europäische LLMs oft Open-Source-Ansätze. Diese Transparenz fördert Innovation und erlaubt eine kritische Überprüfung der Modelle hinsichtlich Bias und Fairness. Durch die Offenlegung der Architektur und Trainingsdaten können Forscher und Entwickler die Funktionsweise der Modelle besser verstehen und potenzielle Schwachstellen identifizieren.

Ein weiterer Schwerpunkt europäischer LLMs liegt auf der Anpassung an regionale Besonderheiten. Während globale Modelle oft auf Englisch trainiert werden und kulturelle Nuancen vernachlässigen, berücksichtigen europäische Modelle die sprachliche und kulturelle Vielfalt des Kontinents. Durch die Integration multilingualer Trainingsdaten und die Zusammenarbeit mit lokalen Partnern können diese Modelle präzisere und kontextbezogenere Ergebnisse liefern.

Darüber hinaus setzen europäische LLMs verstärkt auf Technologien wie Federated Learning und differentielle Privatsphäre, um den Schutz sensibler Daten zu gewährleisten. Durch dezentrales Training auf verteilten Datensätzen können die Modelle lernen, ohne dass persönliche Informationen preisgegeben werden müssen. Diese Ansätze sind besonders relevant für Anwendungen im Gesundheitswesen oder in der Finanzbranche, wo der Umgang mit vertraulichen Daten höchste Priorität hat.

Obwohl GPT-4 in Bereichen wie Modellgröße und Anwendungsbreite noch führend ist, holen europäische Modelle kontinuierlich auf. Sie etablieren sich zunehmend als ernstzunehmende Alternativen, die spezifische regionale Bedürfnisse adressieren und die europäische digitale Souveränität stärken.

Implementierungshürden und Herausforderungen

Die Integration fortschrittlicher künstlicher Intelligenz in Unternehmen bzw. Unternehmensstrukturen verspricht Entwicklungsmöglichkeiten für diverse Geschäftsprozesse. Jedoch geht die Implementierung der Systeme mit Herausforderungen einher, die eine sorgfältige Planung und strategische Herangehensweise fordern. Die Komplexität der LLM-Integration zeigt sich in zwei Kategorien: Zum einen existieren inhärente Limitationen der Modellarchitekturen selbst, zum anderen ergeben sich substanzielle Hürden bei der praktischen Implementierung und Operationalisierung im Unternehmenskontext.

  • Inhärente Schwächen und Risiken
    • Bias und Verzerrungen: Reproduzierung gesellschaftlicher Vorurteile, die in den Trainingsdaten enthalten sind.
    • Black-Box-Charakter: Mangelnde Nachvollziehbarkeit der Vorgehensweise und Entscheidungen.
    • Halluzinationen: Generierung plausibler, aber faktisch inkorrekter Informationen.
    • Inkonsistente Genauigkeit: Die Qualität der Ausgaben variiert stark, insbesondere bei komplexen oder mehrdeutigen Anfragen.

  • Herausforderungen bei der Implementierung
    • Datenschutz: Einhaltung der DSGVO und Schutz sensibler Unternehmensdaten.
    • IT-Sicherheit: Absicherung gegen Prompt Injections und andere Angriffsvektoren.
    • Ethische Richtlinien: Entwicklung von Governance-Strukturen für den KI-Einsatz.
    • Skalierung: Bewältigung der enormen Rechenleistungs- und Speicheranforderungen.

Um diese vielschichtigen Herausforderungen zu bewältigen, ist ein ganzheitlicher Ansatz unerlässlich, der technische Expertise und regulatorische Compliance harmonisch vereint. MaibornWolff bietet Ihnen diesen umfassenden Ansatz mit tiefgreifendem Verständnis und Kompetenzen für KI-Architekturen, Datenmanagement und Systemintegration. Wir legen besonderen Wert auf die Implementierung leistungsfähiger Konzepte, die sowohl die Cybersecurity für Ihr Unternehmen als auch die Integrität von Large Language Models gewährleisten.

Systematische Integration der LLM in Unternehmensstrukturen

Für die erfolgreiche Integration von Large Language Models in Unternehmensstrukturen setzt MaibornWolff auf eine systematische und iterative Vorgehensweise. Diese ist als zyklischer Ablauf zu verstehen, bei dem jede Phase in die nächste übergeht und kontinuierliche Verbesserungen ermöglicht. Folgende Kernphasen bilden das Fundament unserer Implementierungsstrategie:

1. Bedarfsanalyse und Zielsetzung

  • Identifizierung spezifischer Anwendungsfälle
  • Definition messbarer KPIs
  • Alignment mit Unternehmenszielen

2. Aufbau eines interdisziplinären Teams

3. Durchführung von Pilotprojekten

4. Monitoring und Modelloptimierung

5. Nutzerfeedback und Verbesserungsprozesse

Unser Service verbindet drei Hauptkompetenzen: Cloud-Architektur, Digital Design und Data Science. Zunächst implementieren wir eine robuste Cloud-Infrastruktur, die nahtlos mit dem Large Language Model kommuniziert. Anschließend entwickeln unsere Digital Designer intuitive Benutzeroberflächen für eine optimale Interaktion. Schließlich trainieren und optimieren unsere Data Scientists das Sprachmodell auf Ihren domänenspezifischen Daten. Durch diese interdisziplinäre Herangehensweise gewährleisten wir, dass Ihr Unternehmen das volle Potenzial von LLMs ausschöpft, während gleichzeitig Datenschutz, Skalierbarkeit und Benutzerfreundlichkeit sichergestellt werden.

Zwei Personen besprechen Projekt am Laptop.

Holen Sie Large Language Models in Ihr Unternehmen!

Finden Sie mit unseren Expert:innen heraus, ob und welches Sprachmodell zu Ihrem Unternehmen passt.

Zukunftsperspektiven mit Large Language Models

Die Forschung zu Large Language Models öffnet neue Wege in der Entwicklung leistungsstarker Multiagentensysteme, die komplexe Probleme durch die Zusammenarbeit spezialisierter LLMs lösen. Gleichzeitig verbessert die Integration von Kausalitätsverständnis die Zuverlässigkeit und Interpretierbarkeit der Modelle, während neue Architekturansätze die Ressourceneffizienz steigern. Diese Fortschritte erweitern die Anwendungsfelder von LLMs erheblich – von der Wissenschaft über das Gesundheitswesen bis hin zur Datenanalyse – und helfen, ethische und ressourcenbezogene Herausforderungen anzugehen.

Mit einem durchdachten Ansatz und Unterstützung durch erfahrene Experten können Unternehmen Large Language Models effizient implementieren und Wettbewerbsvorteile sichern. MaibornWolff unterstützt Sie dabei sowohl bei den ersten Prototypen als auch bei der Optimierung bestehender Sprachmodelle. Unser Ziel ist es, Ihnen eine effiziente und risikoarme Integration von LLMs in Ihre IT-Organisation zu ermöglichen. Gemeinsam schaffen wir eine solide Basis für kontinuierliche Innovation und nachhaltige Wertschöpfung in Ihrem Unternehmen.

Ein Whitepaper mit dem Titel
Whitepaper: Sprich mit deinen Daten.

Wie Sie mit GPT das Beste für Ihren Unternehmensdaten und damit für Ihren Erfolg herausholen können.

FAQ: Häufig gestellte Fragen zu Large Language Models

  • Was sind Large Language Models?

    LLMs sind KI-basierte Sprachmodelle, die mit großen Textdatenmengen trainiert werden. Sie können natürliche Sprache verstehen, verarbeiten und generieren und eignen sich für vielfältige Anwendungen wie Textgenerierung, Zusammenfassung oder Beantwortung von Fragen.

  • Wie funktionieren Large Language Models?

    LLMs basieren auf komplexen neuronalen Netzwerken und Deep Learning. Sie durchlaufen ein Vortraining mit enormen Textdatenmengen und anschließendes Fine-Tuning für spezifische Aufgaben. LLMs nutzen Self-Attention-Mechanismen, um langfristige Abhängigkeiten in Texten zu erfassen und verarbeiten Informationen parallel. Ihre enorme Parameterzahl befähigt sie zur Bewältigung komplexer sprachlicher Aufgaben und zur Generierung kontextabhängiger Ausgaben.

  • Was unterscheidet Large Language Models von anderen Sprachmodellen?

    Im Gegensatz zu herkömmlichen NLP-Modellen und Sprachmodellen werden LLMs mit Milliarden bis Billionen von Datenpunkten trainiert. Dadurch erreichen sie ein tieferes Sprachverständnis und können komplexere Anfragen verarbeiten.

Autor: Dr. Kyrill Schmid
Autor: Dr. Kyrill Schmid

Kyrill Schmid ist Lead AI Engineer im Bereich Data and AI bei MaibornWolff. Der promovierte Machine Learning Experte ist spezialisiert darauf, die Potenziale künstlicher Intelligenz auf Unternehmensebene zu identifizieren, zu entwickeln und nutzbar zu machen. Er begleitet und unterstützt Organisationen im Aufbau von innovativen KI-Lösungen wie Agenten-Anwendungen und RAG-Systemen.

Finden Sie, was zu Ihnen passt
Verfeinere deine Suche
Filter zurücksetzen