Stand der Technik im Bereich Large Language Models (LLMs)

Aktuell werden Large Language Models (LLMs) wie GPT-4, BERT und Bloom zunehmend in verschiedenen Branchen eingesetzt, um komplexe, textbasierte Aufgaben zu automatisieren und die Effizienz in zahlreichen Anwendungsfeldern zu steigern. Solche Modelle haben durch ihre Fähigkeit, natürliche Sprache zu verstehen und zu generieren, erhebliche Fortschritte in Bereichen wie Kundenservice, Wissensmanagement und Prozessautomatisierung erzielt. Ihre Fähigkeit, menschliche Sprache und Inhalte zu analysieren, kontextuell zu verstehen und anwendungsbezogene Texte zu erzeugen, wird zunehmend in betrieblichen Abläufen genutzt.

Der überwiegende Teil der bestehenden LLM-Lösungen wird aktuell in der Cloud betrieben, oft über große, internationale Anbieter wie Amazon Web Services, Microsoft Azure oder Google Cloud. Diese Plattformen bieten hohe Rechenkapazitäten und ermöglichen eine schnelle Skalierung, bringen jedoch Herausforderungen im Hinblick auf Datenschutz und Nachhaltigkeit mit sich. Da die Rechenzentren dieser Anbieter häufig in den USA und anderen außereuropäischen Regionen betrieben werden, entstehen Datenschutzproblematiken, insbesondere für europäische Unternehmen, die den Anforderungen der DS-GVO unterliegen.

Gleichzeitig stehen mit Open-Source-LLMs wie Llama, Gemma oder Mistral Alternativen zur Verfügung, die auch auf lokaler Infrastruktur betrieben werden können. Diese Modelle sind anpassbar und bieten die Möglichkeit, sie für spezifische Anwendungen in kleinen und mittleren Unternehmen (KMU) einzusetzen. Durch Fine-Tuning können solche Modelle auf spezielle Anforderungen zugeschnitten werden, sodass auch kleinere Lösungen leistungsfähig und ressourcenschonend betrieben werden können. Der Vorteil hierbei liegt in der besseren Kontrolle über Datenschutz und Datenhoheit, da die Modelle auf eigenen Servern und regionaler Infrastruktur implementiert werden können.

Ein weiterer Trend ist die zunehmende Integration von Nachhaltigkeitsaspekten, um den Energieverbrauch und den CO₂-Ausstoß von KI-Lösungen zu reduzieren. Im Bereich der Green IT werden Anstrengungen unternommen, kleinere, effiziente Modelle für spezifische Aufgaben zu optimieren, sodass der Ressourcenverbrauch durch gezielte Optimierungen gesenkt werden kann.

Verschiedene Studien beschäftigen sich zudem mit der Messung von Effizienz und Qualität in der Interaktion von Mensch und Maschine. Hierbei werden Kriterien zur Qualitätssicherung und zur Akzeptanz von KI-Lösungen erforscht, die als Grundlage für Anwendungen in Unternehmen dienen.

Zusammengefasst hat der aktuelle Stand der Technik durch die Verfügbarkeit von großen und Open-Source-LLMs neue Potenziale geschaffen, um auch KMU Zugang zu leistungsfähigen und datenschutzkonformen KI-Lösungen zu ermöglichen. Dies bildet die Grundlage für Lalamo, das auf eine nachhaltige und datenschutzfreundliche Nutzung von KI abzielt und speziell auf die Bedürfnisse kleinerer Unternehmen eingehen wird.

Stand der Technik bei der EGOTEC AG

Die EGOTEC AG arbeitet aktuell intensiv an der Integration von Large Language Models (LLMs) in ihr hauseigenes Content-Management-System EGOCMS. Ziel dieser Entwicklung ist es, die Generierung und Bearbeitung von Inhalten direkt im System durch KI-gestützte Funktionen zu unterstützen. So können beispielsweise Textvorschläge für Artikel erstellt und automatisch optimiert werden, was die redaktionelle Arbeit erheblich erleichtert und beschleunigt.

Darüber hinaus wird gerade an einem Chatbot gearbeitet, der es Nutzern ermöglicht, spezifische Fragen direkt im System zu stellen und gezielte Antworten auf Basis der im CMS gespeicherten Inhalte zu erhalten. Durch diese „befragbare“ Hilfe können Nutzer Informationen schnell und kontextbezogen abrufen, was den Supportaufwand reduzieren soll.

Die ersten LLMs werden bereits auf eigenen Servern in Deutschland gehostet, um eine datenschutzkonforme Verarbeitung und Speicherung zu gewährleisten. Die EGOTEC AG setzt damit auf eine regionale Infrastruktur, um höchste Sicherheitsstandards und die Einhaltung der DS-GVO sicherzustellen. Dieses technische Fundament erlaubt der EGOTEC AG, eine flexible und datensichere KI-Integration direkt in ihre Produkte zu implementieren und diese in Eigenregie zu verwalten und weiterzuentwickeln.

Innovationsbedarf

Der aktuelle Stand der Technik im Bereich der Large Language Models (LLMs) und ihrer Anwendungsmöglichkeiten bringt sowohl Chancen als auch Herausforderungen mit sich. Während LLMs bereits in großen Cloud-Infrastrukturen und spezifischen Anwendungen erfolgreich eingesetzt werden, besteht weiterhin erheblicher Innovationsbedarf, insbesondere im Hinblick auf Datenschutz, Anpassbarkeit und Nachhaltigkeit.

Ein wesentlicher Bedarf liegt in der Entwicklung datenschutzfreundlicher Lösungen, die es kleinen und mittelständischen Unternehmen (KMU) ermöglichen, leistungsstarke LLMs ohne Abhängigkeit von internationalen Cloud-Anbietern zu nutzen. Die meisten derzeit verfügbaren Lösungen erfordern Cloud-Hosting über Anbieter wie Google, Amazon oder Microsoft, deren Server meist außerhalb der EU betrieben werden und damit europäische Datenschutzanforderungen (DSGVO) nur bedingt erfüllen. Die Möglichkeit, LLMs auf regionalen, datenschutzkonformen Servern zu hosten und sicher zu betreiben, ist daher eine bedeutende Innovation, um die Nutzung solcher Modelle auch für KMUs attraktiver zu machen.

Zudem ist die Anpassbarkeit großer LLMs für spezifische Anwendungen bislang mit hohem technischem Aufwand und hohen Kosten verbunden. Ein Innovationsbedarf besteht daher in der Entwicklung von Methoden, die kleinere, effiziente Modelle durch gezieltes Fine-Tuning in Anwendungen einsetzen, die keine umfangreichen Rechenressourcen benötigen. Solche Modelle könnten spezifische Anwendungsfälle in KMU abdecken, beispielsweise für Support-Systeme oder Wissensmanagement, und gleichzeitig kosteneffizient und ressourcenschonend betrieben werden.

Auch die Nachhaltigkeit der Technologie stellt eine wesentliche Herausforderung dar. Der Betrieb großer LLMs ist ressourcenintensiv und mit einem hohen Energieverbrauch verbunden, was im Hinblick auf die Klimaziele eine wesentliche Einschränkung darstellt. Ein Innovationsbedarf besteht daher in der Optimierung der Rechenressourcen durch die Entwicklung und Anwendung von „grüner“ IT, um den CO₂-Fußabdruck zu verringern. Hierfür sind neue Ansätze erforderlich, die sowohl die Modellarchitekturen als auch die Hardware effizienter gestalten, um die KI-Nutzung nachhaltiger zu gestalten.

Zusammengefasst besteht Innovationsbedarf in der Schaffung datenschutzkonformer, anpassbarer und nachhaltiger KI-Lösungen, die sowohl große als auch kleine Unternehmen mit minimalem Energieaufwand und hoher Datensicherheit einsetzen können. Diese Innovationen würden LLMs für KMU in Europa zugänglicher machen und ihre breite Anwendung in einer datenschutz- und klimafreundlichen Weise ermöglichen.