aus dem Netzwerk Insider April 2025
In den letzten Jahren haben Large Language Models (LLMs) eine bemerkenswerte Evolution durchlaufen, die einen fundamentalen Wandel in der technologischen Landschaft markiert. Führende Modelle wie GPT-4o von OpenAI und vergleichbare KI- Systeme wie Claude 3.5 Sonnet von Anthropic haben nicht nur die theoretischen Grenzen des Machbaren verschoben, sondern auch konkrete Veränderungen in der Geschäftswelt und gesellschaftlichen Wahrnehmung bewirkt. Besonders der Mittelstand profitiert von dieser technologischen Revolution, da LLMs als vielseitige Werkzeuge weit über die reine Text- und Bildgenerierung hinausgehen. Sie fungieren als strategische Partner bei der Prozessoptimierung, Kostensenkung und Effizienzsteigerung. Vergleichbar mit einem digitalen Schweizer Taschenmesser bieten sie eine breite Palette an Funktionen, die sich nahtlos in bestehende Geschäftsabläufe integrieren lassen.
Die Evolution der generativen KI von einfachen Textgeneratoren zu hochkomplexen Sprachmodellen spiegelt sich eindrucksvoll in Systemen wie GPT-4o wider. Sie beherrschen nicht nur die Kunst der menschenähnlichen Konversation und Textproduktion, sondern exzellieren auch in technischen Bereichen wie der Programmierung und wissenschaftlichen Dokumentation. Ihre analytischen Fähigkeiten erstrecken sich über ein breites Spektrum: Sie führen präzise Datenanalysen durch, decken komplexe Zusammenhänge auf und generieren wertvolle neue Erkenntnisse. In der strategischen Planung unterstützen sie Unternehmen durch zukunftsweisende Innovations- und Prognosemodelle, während ihre kontextbezogenen Analysen und Empfehlungen intelligente Entscheidungsprozesse ermöglichen.
Darüber hinaus glänzen moderne LLMs mit beeindruckenden multimodalen Fähigkeiten: Sie übersetzen mühelos zwischen verschiedenen Sprachen, generieren und analysieren realitätsnahe Bilder wie Flux 1.1 von Blackforest Labs und erreichen beinahe ein menschliches Niveau in natürlichen Konversationen wie mit dem Advanced Voice Mode von ChatGPT. Ihre Expertise erstreckt sich auch auf die Erkennung und Verarbeitung von Audio- und Videoinhalten wie bei Sora Turbo von OpenAI, die Automatisierung komplexer Workflows sowie die Unterstützung kreativer Prozesse in Design und Content-Erstellung. In der technischen Dokumentation und im Projektmanagement optimieren sie Arbeitsabläufe durch automatische Zusammenfassungen, Kategorisierungen und die Extraktion relevanter Informationen aus großen Datensätzen. Diese Systeme haben sich zu unverzichtbaren Werkzeugen entwickelt, die nicht nur operative Prozesse optimieren, sondern auch strategische Entscheidungsfindung in einer Zeit der digitalen Transformation auf ein neues Niveau heben. Ihre Fähigkeit, große Datenmengen zu verarbeiten und daraus wertvolle Erkenntnisse zu gewinnen, macht sie zu einem Katalysator für Innovation und Wettbewerbsfähigkeit in der modernen Geschäftswelt.
Aus eben diesen aufgeführten Gründen ist es essenziell für Unternehmen, ihre Mitarbeitenden zu effektiven „KI-Managern“ ausbilden zu lassen. Als KI-Manager bezeichnen wir hier eine Person, die in der Lage ist, mit verschiedenen KI-Tools zusammenzuarbeiten, um deren Potenzial für Effizienzsteigerung, Automatisierung und Innovation optimal für sich oder ihr Unternehmen zu nutzen. Was macht einen effektiven KI-Manager aus? Relevante Kriterien und Fähigkeiten teilen sich in folgende acht Kategorien auf: Wissen, Datenkompetenz, kritische Denk- und Analysefähigkeit, Kommunikationsfähigkeit, Prompt-Engineering, Erfahrung, Kreativität und Anpassungs- und Lernfähigkeit.
Die Integration von generativer KI erfordert einen ausgewogenen Ansatz zwischen Innovation und Verantwortung. Während das Potenzial dieser Technologie beeindruckend ist, macht ihre zunehmende Verbreitung ein robustes ethisches Rahmenwerk und durchdachte Sicherheitsmaßnahmen unerlässlich. Für kleine und mittelständische Unternehmen ist es dabei essenziell, ein tiefgreifendes Verständnis für die Möglichkeiten und Grenzen von KI zu entwickeln. Dies bedeutet, die Technologie wie ein präzises Instrument zu behandeln – mit klarem Bewusstsein dafür, wofür es sich eignet und wo seine Grenzen liegen.
Die Sensibilisierung der Mitarbeitenden spielt hierbei eine Schlüsselrolle: Ähnlich wie bei der Einführung eines neuen Werkzeugs müssen sie nicht nur in der technischen Handhabung geschult werden, sondern auch ein Gespür für den optimalen Einsatzbereich entwickeln. Dies ermöglicht es ihnen, KI als effektive Unterstützung in ihrem Arbeitsalltag zu nutzen, ohne dabei die kritischen Aspekte der Technologie aus den Augen zu verlieren. Durch diese bewusste und ausgewogene Herangehensweise können Unternehmen die Vorteile der KI-Technologie optimal nutzen und gleichzeitig potenzielle Risiken minimieren.
In diesem Artikel werden im Folgenden die auszubildenden Fähigkeiten von KI- Managern detailliert erläutert und diverse KI-Tools sowie ihre Relevanz für den KI-Manager erklärt. Zuletzt werden die aktuelle und erwartete Entwicklung der KI-Landschaft und darin der Stellenwert des KI-Managers thematisiert.
Was macht einen KI-Manager aus?
Eine absolute Schlüsselkompetenz für KI-Manager ist ein breit gefächertes Wissen über die Materie der Künstlichen Intelligenz. Hier lautet das Stichwort „AI-Literacy“ (KI- Literarizität), also die Fähigkeit, künstliche Intelligenz zu verstehen und die Technologien und Modelle effektiv nutzen und in die Arbeitsalltag integrieren zu können (Lee & Park, 2023). Dieses Wissen erlangt man zwar auf der einen Seite durch die praktische Nutzung von KI; um tatsächlich zum Experten auf dem Gebiet zu werden, ist aber zusätzliche Eigenrecherche über die theoretischen Hintergründe unabdingbar. Im Folgenden werden die Fragen beantwortet: Wie funktionieren KI-Tools, wie LLMs, genau? Was sind die größten Potenziale? Wo liegen die größten Gefahren? Und welche Einsatzgebiete sind die wichtigsten zur Effizienzsteigerung?
Es gibt verschiedene Arten der künstlichen Intelligenz, von simplen Computerprogrammen in Videospielen über Schachroboter bis hin zu multimodalen Large-Language-Modellen wie ChatGPT, automatisierten Predictive-Maintenance-Systemen (vorausschauende Instandhaltung) im Maschinenbau und autonomen KI- Robotern wie die Modelle von Figure (Figure, 2024). Wie alle KI-Systeme nutzen LLMs künstliche neuronale Netzwerke, eine Technologie aus dem Bereich des maschinellen Lernens (ML), die von den Neuronenverbindungen im menschlichen Gehirn inspiriert sind. Die meisten LLMs basieren auf der sogenannten „Transformer-Systemarchitektur“. Hier gibt es drei besonders relevante Kernkonzepte. Beim sogenannten „Pre-training“ werden LLMs auf bis zu Billionen Parametern großen textuellen Datensätzen mittels ML- Algorithmen vortrainiert. Dadurch lernen sie Muster und statistische Zusammenhänge aus den Textmengen, die sie speichern und später als Kontext abrufen können. Der zweite Schritt ist das „Fine-tuning“, welcher eine nachträgliche Feinabstimmung auf spezifischere Aufgaben und Verhaltensweisen des Modells durch konkretes Zusatztraining beinhaltet. Das letzte Konzept ist die „Inferenz“, die lediglich der Fachbegriff für die praktische Anwendung des trainierten LLMs ist, also das Generieren von bestimmten Ausgaben aus gegebenen Nutzereingaben.
Trotz der zunehmenden Verbreitung von führenden LLMs wie ChatGPT, Google Gemini, Microsoft Copilot und Claude mangelt es vielen Mitarbeitenden an der erforderlichen AI-Literacy. Diese Kompetenzlücke verhindert nicht nur die optimale Integration von KI- Lösungen in Unternehmensprozesse, sondern birgt auch das Risiko der Generierung und Verbreitung falscher Inhalte.
Ein zentrales Problem von Transformer-basierten Modellen wie ChatGPT ist ihre Neigung zu Halluzinationen – überzeugend wirkenden, aber falschen Ausgaben (Chen et al., 2023). Diese treten in drei Hauptformen auf: Sachlich falsche Behauptungen, etwa wenn ein LLM fälschlicherweise Thomas Edison die Erfindung des Telefons zuschreibt und dann detailliert nicht-existente Experimente beschreibt, komplett fiktive historische Ereignisse, wie erfundene Kriege zwischen Nationen, und ungenaue Kontextualisierungen, etwa Verweise auf „den letzten Präsidenten“ ohne Spezifizierung von Land oder Zeitpunkt. Die unkritische Integration solcher fehlerhaften Ausgaben in Unternehmensprozesse kann schwerwiegende Folgen haben. Die Hauptursachen für Halluzinationen sind fehlendes Fachwissen der Modelle, Knowledge-Cutoffs in Trainingsdaten, die Tendenz zum People Pleasing sowie überfüllte Kontextfenster und mangelhafte Prompts (White et al., 2023). Während die ersten beiden Faktoren modellinhärent sind, lassen sich die letzteren durch beste Praktiken minimieren: durch regelmäßiges Neustarten von Chats – nun erleichtert durch ChatGPTs neue Memory-Funktion – und effektives Prompt-Engineering. Prompts fungieren dabei als eine Art Programmiersprache für LLMs, die bei präziser Formulierung die Qualität und Quantität der Ausgaben optimiert.
Ein vielversprechender Ansatz zur Vermeidung von Halluzinationen ist die Retrieval-Augmented Generation (RAG) (Wang et al., 2024), die LLMs Zugriff auf externe, faktenbasierte Datenbanken ermöglicht. Dies verbessert besonders die „Noise Robustness“ – die Fähigkeit, aus widersprüchlichen Informationen nur die korrekten zu extrahieren. Ein konkretes Beispiel ist die Frage nach dem Literaturnobelpreisträger aus dem Jahr 2022: Selbst wenn die Dokumente auch Informationen zum Gewinner von 2021 enthalten, kann das RAG-gestützte Modell die richtige Information identifizieren und ausgeben (Chen et al., 2023). LLMs weisen zudem weitere kritische Schwachstellen auf: Sie können bestehende Biases verstärken (sei es aus den Trainingsdaten, durch bewusste Implementierung oder systeminhärente Eigenschaften (Huang et al., 2023)), bergen Risiken für die Privatsphäre und können für die Erzeugung von Desinformation und Deep Fakes missbraucht werden. Im Unternehmenskontext ist daher besondere Vorsicht geboten: Vertrauliche oder persönliche Daten sollten nie in öffentliche Modelle eingegeben werden, und Mitarbeitende müssen durch gezielte Schulungen sowohl für die technischen Möglichkeiten als auch die ethischen Herausforderungen sensibilisiert werden (Hua, Jin & Jiang, 2024). Nur so lässt sich ein verantwortungsvoller und effektiver Einsatz von LLMs in Unternehmensprozessen gewährleisten.
Während die Risiken von LLMs wie Halluzinationen, Verzerrungen und Datenschutzbedenken nicht zu vernachlässigen sind, überwiegt ihr transformatives Potenzial für Unternehmen deutlich. Die zentrale Frage ist, welche konkreten Stärken diese Technologie bietet und welche Entwicklungen in Zukunft zu erwarten sind. LLMs fungieren als Katalysatoren für unternehmerische Innovation, indem sie drei Kernbereiche revolutionieren: Effizienz durch Automatisierung repetitiver Aufgaben, kreative Content-Generierung durch Natural Language Processing (NLP) und personalisierte Lösungen für verschiedenste Anwendungsfälle. Diese Automatisierung ermöglicht es Mitarbeitenden, sich auf strategische und komplexere Aufgaben zu konzentrieren, was zu signifikanten Zeit- und Kosteneinsparungen führt.
Die praktischen Anwendungsmöglichkeiten von LLMs sind vielfältig und reichen von der Content-Erstellung – einschließlich Marketing und Schulungsmaterialien – bis hin zur Optimierung kompletter Marketingprozesse durch SEO-Keyword-Recherche, Wettbewerbsanalysen und der Generierung von SEO-optimierten Produktbeschreibungen. Während viele dieser Anwendungsfälle bereits mit Standard- LLMs wie ChatGPT umsetzbar sind, bieten sich für spezifischere Anforderungen drei Optionen: Die Entwicklung eines maßgeschneiderten Custom GPTs für spezielle Use Cases, die Implementierung eines unternehmenseigenen LLMs auf der eigenen IT-Infrastruktur (was für die meisten KMUs aufgrund des hohen Aufwands und der Kosten oft nicht realisierbar ist), oder die kostengünstigere Alternative der Feinjustierung vortrainierter Modelle über APIs von Anbietern wie OpenAI.
Die Zukunftsperspektiven von LLMs sind vielversprechend: Der Trend geht in Richtung aufgabenspezifischer Modellversionen, die zunehmend besseres Fachwissen in spezialisierten Bereichen wie Medizin, Recht und Technik integrieren werden. NVIDIAs angekündigte Entwicklungen deuten darauf hin, dass LLMs künftig nicht nur aufgabenspezifisch arbeiten, sondern auch untereinander kooperieren können, um komplexere, vielschichtige Aufgaben zu bewältigen, eine Innovation, die die unternehmerische KI-Nutzung revolutionieren könnte.
Datenkompetenz bildet das Fundament für den erfolgreichen Einsatz von KI- Technologien und ist vergleichbar mit der Fähigkeit, eine komplexe Sprache zu beherrschen. Ein KI-Manager muss dabei verschiedene Dimensionen der Datenkompetenz meistern: Im Bereich der Datenerfassung und -qualität muss er die „Grammatik der Daten“ verstehen – also welche Datentypen existieren, wie sie strukturiert werden und welche Qualitätsstandards erfüllt sein müssen. Wie ein Sprachexperte Grammatikfehler erkennt, muss ein KI-Manager Datenfehler, Verzerrungen und Qualitätsmängel identifizieren können.
Die statistische Analysekompetenz funktioniert dabei wie ein Werkzeugkasten: von grundlegenden beschreibenden Statistiken (vergleichbar mit einfachen Werkzeugen wie Hammer und Schraubenzieher) bis hin zu komplexeren Analysemethoden wie Regressionen oder Zeitreihenanalysen (den Spezialwerkzeugen). Diese Werkzeuge ermöglichen es, aus rohen Daten wertvolle Erkenntnisse zu gewinnen. Visualisierungskompetenz spielt eine Schlüsselrolle – ähnlich der Fähigkeit, eine Geschichte zu erzählen. Der KI-Manager muss in der Lage sein, komplexe Datenzusammenhänge durch geeignete Visualisierungen so aufzubereiten, dass sie für verschiedene Stakeholder verständlich und handlungsrelevant werden.
Besonders wichtig ist die Fähigkeit zur kritischen Interpretation: Ein KI-Manager muss Korrelationen von Kausalitäten unterscheiden können, potenzielle Verzerrungen in Datensätzen erkennen und die Grenzen der statistischen Aussagekraft verstehen. Dies beinhaltet auch das Verständnis für ethische Implikationen der Datennutzung und den verantwortungsvollen Umgang mit sensiblen Informationen. Die praktische Anwendungskompetenz rundet das Profil ab: Der KI-Manager muss gängige Datenanalysetools und -plattformen nicht nur theoretisch kennen, sondern auch praktisch einsetzen können – von SQL für Datenbankabfragen bis hin zu Visualisierungstools wie Tableau oder Power BI.
Für einen KI-Manager ist die Fähigkeit, effektiv in einem dynamischen Team zu arbeiten und zu kommunizieren, ebenfalls essenziell. KI-Tools wie ChatGPT können zwar die Produktivität und Effizienz radikal steigern, in großen Projekten ist es jedoch besonders relevant, nicht zu viele und zu fundamentale Teile der Aufgaben ausschließlich durch LLMs übernehmen zu lassen, sondern die Stärken der Mitarbeiter optimal auszuspielen und gleichzeitig die Schwachstellen durch KI zu kompensieren. Auch die gemeinsame Auswertung und Diskussion von wichtigen KI-Ausgaben und Ergebnissen muss im Team stattfinden, um sicherzugehen, dass sich keine ungewollten Fehler in die Prozesse einschleichen und die effektivsten nächsten Schritte gewählt werden. Genauso relevant ist es, die Mitarbeiter im Team als KI-Manager regelmäßig über neue KI- Tools und darüber aufzuklären, wie die Tools idealerweise angewandt werden könnten, um die Produktivität und Effizienz zu steigern.
Das sogenannte Prompt-Engineering wurde bereits in einem vorherigen Abschnitt angesprochen. „Prompt-Engineering“ ist die Fähigkeit, durch klare, präzise und effizient formulierte Prompts den bestmöglichen Output in möglichst wenigen Anfragen zu erzeugen. Hier sind Prompts Eingabeaufforderungen, die einem LLM gestellt werden, um Aufgaben umzusetzen, Prozesse zu automatisieren und bestimmte Qualitäten des produzierten Outputs sicherzustellen (Bies et al., 2024). Für KI-Manager ist effektives Prompt-Engineering eine Schlüsselkompetenz, denn sie müssen stets in der Lage sein, mit KI-Tools optimale Ergebnisse erzielen zu können. Hier sind in erster Linie wichtige Kernpunkte: Zielsetzung und Rollenzuweisung, Kontextualisierung und Präzision, Klarheit und Konkretisierung, Strukturierung und Sequenzierung sowie Feedback und Iteration. Durch die Orientierung an diesen Leitlinien ist die Generierung von zielführenden Ausgaben bei LLMs gesichert.
Die allgemeine Nutzungserfahrung von LLMs im professionellen Kontext ist ein weiterer wichtiger Punkt, der ebenfalls mit dem Prompt-Engineering verwandt ist. Ein KI-Manager muss bereits mit vielen verschiedenen KI-Tools in diversen Kontexten umfassende Arbeitserfahrung gesammelt haben, um die ständig wachsende Vielfalt an Modellen, die aktuell zur Verfügung steht, effektiv zu seinem Vorteil nutzen zu können. Im Zentrum steht die versierte Nutzung von Large Language Models wie ChatGPT, Claude, Gemini – vergleichbar mit der Expertise eines Dirigenten, der verschiedene Instrumente zum harmonischen Zusammenspiel bringt, denn jedes Modell hat seine Stärken und Schwächen. Hier stehen in erster Linie die Text- und Codegenerierung im Vordergrund, doch auch multimodale Kapazitäten wie die Internetrecherche, fortgeschrittenes Reasoning oder Bilderkennung mittels Computer Vision.
Die Bildgenerierung und -bearbeitung bildet einen zweiten Kernbereich, in dem neben dem Standardassistenten Dall-E von ChatGPT auch fortschrittlichere Tools wie Flux, LeonardoAI oder Midjourney zum Einsatz kommen sollten. Wie ein Fotograf verschiedene Kameras und Objektive für unterschiedliche Aufnahmen nutzt, muss ein KI-Manager die Stärken und Schwächen verschiedener Bildgenerierungstools kennen und sie situationsgerecht einsetzen können. Prozessautomatisierung mittels KI-gestützter Systeme bildet einen weiteren essenziellen Kompetenzbereich. Dies umfasst die Implementierung von Chatbots, die Integration von Analysetools und die Entwicklung automatisierter Entscheidungsprozesse. Besondere Bedeutung kommt dabei der Balance zwischen Automatisierung und menschlicher Kontrolle zu, um die Qualität und Verlässlichkeit der Prozesse sicherzustellen. Doch sollte auch mit anderen Tools wie Gamma zur unterstützten Präsentationsgenerierung, Storm (Stanford) für Wissensrecherche und Brainstorming oder Google NotebookLM als Datenbankassistenten Erfahrung und Expertise gesammelt werden, um für alle Anwendungsfälle gewappnet zu sein.
Die kreative Kompetenz eines KI-Managers geht weit über die technische Beherrschung von Tools wie Sora oder Canva hinaus. Sie manifestiert sich vielmehr als ein dynamisches Ökosystem: Die KI agiert als kreative Partnerin, die blitzschnell Variationen und Alternativen generieren kann, während der menschliche Verstand die konzeptionelle Führung behält – vergleichbar mit einem Gärtner, der weiß, welche Pflanzen er setzt und wie er sie kultiviert, um einen harmonischen Garten zu erschaffen. Die menschliche Intuition, emotionale Intelligenz und kulturelles Verständnis bleiben dabei unersetzlich. Im Kern dieser Kompetenz steht die Fähigkeit, KI nicht als Ersatz, sondern als Verstärker der menschlichen Kreativität zu nutzen. Dies bedeutet, die einzigartigen Stärken beider Seiten zu erkennen und zu kombinieren: Die KI brilliert in der schnellen Generierung von Variationen und der Verarbeitung großer Datenmengen, während der Mensch durch intuitive Einsichten, emotionales Verständnis und kulturelle Sensibilität überzeugt. Diese Synergie ermöglicht es, kreative Prozesse neu zu denken und zu gestalten.
Die praktische Anwendung dieser KI-gestützten Kreativität ähnelt einem iterativen Dialog: Der KI-Manager gibt initiale kreative Impulse, die KI generiert daraus verschiedene Optionen, der Manager verfeinert und steuert diesen Prozess durch gezielte Prompts und Anpassungen. Dabei entwickelt sich eine Art kreative Feedbackschleife, in der jede Iteration die Ideen weiter verfeinert und verbessert. Dies ist besonders wertvoll in Bereichen wie Marketing, wo schnelle Adaptionen und personalisierte Inhalte zunehmend wichtiger werden.
Ein wesentlicher Aspekt dieser kreativen Kompetenz ist auch das Verständnis für die Grenzen und Möglichkeiten KI-gestützter Kreativität. Wie ein erfahrener Künstler weiß, welches Medium sich für welchen Ausdruck am besten eignet, muss ein KI-Manager einschätzen können, wann der Einsatz von KI-Tools sinnvoll ist und wann traditionelle kreative Ansätze vorzuziehen sind. Dies erfordert ein tiefes Verständnis sowohl der technischen Möglichkeiten als auch der kreativen Prozesse. Die Zukunft der KI- gestützten Kreativität liegt dabei in der Entwicklung hybrider Workflows, die das Beste aus beiden Welten vereinen. Der KI-Manager der Zukunft wird nicht nur Tools bedienen, sondern kreative Ökosysteme gestalten, in denen menschliche und künstliche Intelligenz nahtlos zusammenarbeiten, um innovative Lösungen und fesselnde Inhalte zu schaffen.
Die rapide Evolution der KI-Technologie erfordert eine fundamentale Neuausrichtung unseres Verständnisses von beruflicher Entwicklung. Anpassungsfähigkeit und kontinuierliches Lernen sind dabei nicht einfach nur wünschenswerte Zusatzqualifikationen, sondern überlebensnotwendige Kernkompetenzen in der KI-Ära. Diese neue Form des kontinuierlichen Lernens unterscheidet sich grundlegend vom traditionellen Modell der punktuellen Weiterbildung. Sie gleicht eher einem fließenden Strom, der sich ständig erneuert und anpasst. Wie ein Musiker, der täglich übt, um seine Fähigkeiten zu verfeinern und neue Techniken zu erlernen, müssen KI-Manager ihre Kompetenzen kontinuierlich erweitern und aktualisieren. Dies bedeutet nicht nur, neue Tools und Technologien zu erlernen, sondern auch bestehende Fähigkeiten zu vertiefen und zu verfeinern.
Die Anpassungsfähigkeit manifestiert sich dabei auf mehreren Ebenen. Auf der technischen Ebene geht es darum, sich schnell in neue KI-Tools und -Frameworks einzuarbeiten. Dies erfordert eine grundlegende Offenheit für Veränderung und die Fähigkeit, bisherige Arbeitsweisen zu hinterfragen und neu zu denken. Auf der konzeptionellen Ebene bedeutet es, neue Paradigmen und Denkansätze zu verstehen und zu integrieren. Wie ein Wissenschaftler muss der KI-Manager bereit sein, etablierte Annahmen zu überprüfen und neue Perspektiven zu entwickeln. Das kontinuierliche Lernen erstreckt sich dabei weit über formale Weiterbildungen hinaus. Es umfasst das aktive Verfolgen von Fachpublikationen, die Teilnahme an Online-Kursen und Webinaren, den Austausch in Fachcommunities und das Experimentieren mit neuen Technologien. Besonders wichtig ist dabei die Entwicklung eines persönlichen Lernansatzes, der es ermöglicht, neue Informationen effizient zu verarbeiten und in bestehendes Wissen zu integrieren.
Diese Kultur des lebenslangen Lernens muss dabei in der Organisation verankert sein. Unternehmen sollten Lernzeiten und -ressourcen bereitstellen und eine Atmosphäre schaffen, in der Experimentieren und gelegentliches Scheitern als notwendige Bestandteile des Lernprozesses akzeptiert werden. Nur so kann sichergestellt werden, dass die Organisation als Ganzes mit der technologischen Entwicklung Schritt hält und wettbewerbsfähig bleibt.
Das KI-Manager-Seminar
Um eben diesen Anforderungen und Schlüsselkompetenzen gerecht zu werden, bietet ComConsult einen zweiteiligen Kurs an, welcher speziell darauf ausgelegt ist, Mitarbeitende auf die komplexen Herausforderungen und diversen Einsatzmöglichkeiten von (generativer) KI vorzubereiten. Ziel des Kurses ist es, die Teilnehmenden auf die oben genannten Schlüsselkompetenzen zu sensibilisieren und nachhaltige Kompetenzen im Umgang mit KI zu schaffen.
Das Seminar ist in zwei Module an zwei Tagen unterteilt, welche sich inhaltlich ergänzen. Tag 1 konzentriert sich auf das grundlegende Verständnis von KI und schafft damit eine Basis für effektives KI-Management. Die Teilnehmer lernen, wie KI historisch entstanden ist und welche KI-Trends maßgeblich sind. Ein zentraler Baustein des Kurses ist die Praxisnähe. Wie funktioniert Prompting? Warum sind gut formulierte Eingaben wichtig und wie verhindert man Halluzinationen? Hier können die Teilnehmer durch konkrete Aufgaben generative Modelle (ChatGPT, Claude etc.) „hands-on“ kennenlernen und selbst ausprobieren. Zuletzt gibt es einen Exkurs zu ethischen und rechtlichen Fragen rund um den Bereich KI. Schlüsselkompetenzen des ersten Tages sind vor allem fundierte AI-Literacy, sicheres Prompt-Engineering und ein ethisches Problembewusstsein für KI.
Tag 2 baut auf dem Gelernten auf und rückt die Praxis noch mehr in den Vordergrund. Durch einen Impulsvortrag lernen die Teilnehmenden erfolgreiche KI-Anwendungsfälle aus verschiedenen Branchen kennen. Daraufhin entwickeln die Teilnehmenden in einem Workshop eigene Ideen für ihren Betrieb und lernen, wie diese mit unternehmensspezifischen GPT-Modellen (Custom GPTs) oft schon umgesetzt werden können. Nach der Mittagspause steht dann die systematische Einführung von KI in Unternehmen im Mittelpunkt, einschließlich Change Management und Mitarbeiter-Integration. Durch eine anschließende Fragerunde werden die Teilnehmer ermutigt, auch eigene Themen anzusprechen und zu diskutieren. Abschließend werden die Erkenntnisse zusammengefasst und mögliche Umsetzungsschritte diskutiert. Hier erwerben die Teilnehmer vor allem strategische Planungskompetenzen, Know-how zur Konfiguration und Anpassung von KI-Tools sowie Führungskompetenzen für eine digitale von KI geprägte Arbeitswelt.
Ausblick für KI-Manager
Für KI-Manager bedeutet dieser technologische Fortschritt eine kontinuierliche Lernkurve – und gleichzeitig ein enormes Potenzial. Wer sich rechtzeitig mit Themen wie multimodalen KI-Modellen, erklärbarer KI und den branchenrelevanten Regulierungen auseinandersetzt, kann dem eigenen Unternehmen strategische Vorteile verschaffen. KI-Manager agieren dabei als Brückenbauer zwischen Technologie und Betrieb: Sie identifizieren nützliche Innovationen, schaffen die notwendigen organisatorischen Rahmenbedingungen und sorgen für einen verantwortungsvollen Einsatz von KI.
Insgesamt lässt sich sagen, dass die nächsten Jahre in der KI-Branche von einer zunehmenden Spezialisierung, einer wachsenden technischen Diversität und stärkeren Regulierungsbestrebungen geprägt sein werden. Für Unternehmen – ob Konzern oder KMU – ist es entscheidend, diesen Wandel aktiv mitzugestalten und Mitarbeitende entsprechend zu qualifizieren. Gerade das KI-Manager-Seminar bietet hierfür eine umfassende Plattform: Es vermittelt einerseits das methodische und technische Rüstzeug, um zeitgemäße KI-Anwendungen zu implementieren und fördert andererseits die Entwicklung einer lernenden, zukunftsorientierten Unternehmenskultur.
Die Entwicklung der KI-Landschaft
Die Landschaft der Künstlichen Intelligenz hat in den letzten Jahren eine rasante Evolution durchlaufen – eine Entwicklung, die sich in Zukunft auch noch weiter beschleunigen könnte. Neue Modelle, Tools und Techniken werden im wöchentlichen Takt veröffentlicht und präsentiert. Doch es gibt einige treibende Faktoren und Trends, die in Zukunft eine größere Rolle spielen könnten.
Bis 2024 galt in der Entwicklung großer KI-Modelle noch die Devise: Je größer, desto besser. Modelle wie ChatGPT-3.5 wurden mit enormen Mengen an Trainingsdaten versorgt – je mehr Parameter, desto leistungsfähiger und „intelligenter“ wurde das Modell. Der Sprung von ChatGPT-3.5 zu ChatGPT-4 verdeutlichte diese Entwicklung eindrucksvoll: Die Menge an Trainingsdaten nahm massiv zu, doch gleichzeitig stiegen auch die Rechenanforderungen, Kosten und die Antwortzeiten. Die wachsende Komplexität brachte neue Herausforderungen mit sich, insbesondere in Bezug auf Effizienz und Skalierbarkeit.
Heute zeichnet sich jedoch ein Wandel ab. Seit dem Release von ChatGPT-4o begannen die Modelle wieder kompakter zu werden, um die Inferenzzeit massiv zu beschleunigen, ohne dabei radikal an Intelligenz einbüßen zu müssen. Statt weiterhin alles umfassende, monolithische Modelle zu entwickeln, setzt die KI-Entwicklung nun zunehmend auf spezialisierte „Foundation Models“. Diese Basismodelle werden mit deutlich weniger Daten trainiert, während zusätzliche Informationen in Echtzeit durch externe Recherchen ergänzt werden. Dieser Ansatz reduziert nicht nur den Ressourcenbedarf, sondern verbessert auch die Aktualität und Präzision der Antworten.
Die Erfahrung mit Modellen wie ChatGPT-4 hat gezeigt, dass ein Alleskönner nicht zwangsläufig ein Experte ist. Während LLMs zwar zu fast jedem Thema eine Antwort generieren konnten, blieben diese oft oberflächlich oder ungenau und sehr anfällig für Halluzinationen. In vielen Bereichen mangelte es an tiefgehendem, fachspezifischem Wissen, das nicht allein durch Webrecherchen ersetzt werden konnte. Die Lösung: Modelle stärker zu fokussieren. Statt ein KI-System mit unzähligen, teils irrelevanten Informationen zu überladen, werden spezialisierte Modelle entwickelt, die in einem bestimmten Fachgebiet – beispielsweise Marketing, Medizin oder Ingenieurwesen – herausragende Ergebnisse liefern.
Diese Entwicklung ebnet den Weg für Multi-Agenten-KI-Systeme (MAS). Hierbei handelt es sich um Netzwerke aus spezialisierten KI-Agenten, die zusammenarbeiten, um komplexe Aufgaben effizient zu bewältigen. Statt ein einzelnes, überlastetes Modell zu verwenden, werden mehrere kleinere, hochoptimierte Subsysteme orchestriert, die gezielt für bestimmte Aufgaben zuständig sind. Dies ermöglicht nicht nur eine präzisere Wissensverarbeitung, sondern auch eine bessere Skalierbarkeit und Flexibilität in realen Anwendungsfällen. Mit diesem Ansatz entwickelt sich die KI-Landschaft von universellen Modellen hin zu einem intelligenten Ökosystem spezialisierter Agenten – eine Evolution, die nicht nur die Leistungsfähigkeit, sondern auch die Effizienz und Anwendbarkeit von KI grundlegend verändern wird.
Es zeichnet sich außerdem ab, dass sowohl (teil-)autonome Agentensysteme wie der Computer Use von Claude oder ChatGPTs Operator und sogenannte „Reasoning-Modelle“ wie OpenAI o1 oder DeepSeek R1 immer prävalenter werden. Während solche Agentenmodelle inzwischen in der Lage sind, auf Befehl die Maussteuerung am Computer zu übernehmen und eigenständig Dateien zu suchen oder im Internet Aktionen wie Einkäufe zu erledigen, sind Reasoning-Modelle darauf trainiert, sich abhängig von der Komplexität der jeweiligen Aufgabe entsprechend viel Zeit zum „Nachdenken“ zu nehmen. Dieses sogenannte „Chain-of-Thought (CoT) Reasoning“ erlaubt es dem System, seine Aufgabe schrittweise anzugehen und genau zu planen sowie mehrere Ansätze parallel zu verfolgen und gegebenenfalls Änderungen an seiner initialen Vorgehensweise vorzunehmen. Erst nachdem das Modell diese Schritte, potenziell in mehreren Iterationen, durchlaufen hat, generiert es seine Ausgabe, während Transformer-Modelle ohne Reasoning-Kapazitäten durch ihre rein autoregressive Natur keine Chance haben, die Eingabe ausgiebig zu reflektieren, sondern nach der einmaligen Encodierung sofort mit der Generierung der Ausgabe beginnen.
Prognosen
Es ist naheliegend, dass die zunehmende Integration von KI-Systemen in den Alltag in einigen Jahren so weit sein wird, dass wir sie nicht nur konstant am Arbeitsplatz nutzen werden, sondern sie uns auch als intelligente Voice-Assistenten wie Siri, Alexa und Google in sämtlichen modernen Geräten umgeben werden. Die Entwicklung einer Symbiose zwischen Menschen und Maschine, die schon seit der Verbreitung von Computern und insbesondere Smartphones andauert, wird so stetig in schnellen Schritten weiter fortschreiten. Der nächste Meilenstein sind vollautonome Agentensysteme, die im Vergleich zu den aktuellen Agenten, welche noch menschliche Instruktionen und Kontrolle benötigen und Probleme beim Zoomen und Scrollen haben, gänzlich ohne menschliches Eingreifen Aufgaben erledigen können. Sie werden daher in vielen Bereichen sogar in der Lage sein, Jobs vollständig zu automatisieren und daher menschliche Arbeiter zu ersetzen. Laut einem Bericht der WEF sollen bis zum Jahr 2030 bereits 92 Millionen Jobs durch KI abgebaut werden (Festag, 2025).
Dies ist allerdings kein Grund für KI-Skeptik. Ganz im Gegenteil sogar, denn nach demselben Bericht werden in den kommenden fünf Jahren 170 Millionen neue Arbeitsplätze durch KI geschaffen werden (Festag, 2025), was insgesamt einen Nettozuwachs von 14 % der Arbeitsplätze bedeutet. Dies bringt jedoch mit sich, dass auch der Bedarf an technischen Kenntnissen und Fähigkeiten stark ansteigen wird. Unter anderem werden Fähigkeiten wie kritisches Denken, Kreativität und Innovation sowie Belastbarkeit und Führungsstärke wichtiger, während der Bedarf an repetitiven datengetriebenen Tätigkeiten in Büros und automatisierbaren physischen Tätigkeiten in Fabriken und auf Baustellen abnehmen wird. Genau aus diesem Grund ist KI-Schulung die optimale Strategie, um sowohl die Führungsebene als auch die Arbeiter ideal auf die KI-gestützte Zukunft vorzubereiten.
Literaturverzeichnis
- Bies, L., et al. (2024). Der schmale Grat zwischen Innovation und Halluzination: Was Large-Language Models wirklich können. IM+io – Best & Next Practices aus Digitalisierung, Management, Wissenschaft, (3), 42–45. https://www.im-io.de/der- schmale-grat-zwischen-innovation-und-halluzination/
- Chen, J., et al. (2023). Benchmarking Large Language Models in Retrieval-Augmented Generation. arXiv. https://arxiv.org/abs/2309.01431
- European Digital Innovation Hub Saarland. (n.d.). How to ChatGPT: Die Kunst des Prompt Engineering. Abgerufen am 14.02.2025, von https://edih-saarland.de/angebot/how- to-chat-gpt/
- Festag, S. (2025, January 13). WEF-Bericht: KI schafft bis 2030 weltweit 170 Millionen Jobs. Heise Online. https://www.heise.de/news/WEF-Bericht-KI-schafft-bis-2030- weltweit-170-Millionen-Jobs-10239208.html
- Figure AI. (2024). Figure AI. Verfügbar unter https://www.figure.ai. Zugegriffen am 6. Mai 2024.
- Huang, L., et al. (2023, November 9). A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions. arXiv. https://arxiv.org/abs/2311.05232
- Hua, S., Jin, S., & Jiang, S. (2024). The limitations and ethical considerations of ChatGPT. Data Intelligence, 6(1), 201–239. https://doi.org/10.1162/dint_a_00243
- Lee, J., & Park, J. (2023). AI as “Another I”: Journey map of working with artificial intelligence from AI-phobia to AI-preparedness. Organizational Dynamics, 52(3), 100994. https://doi.org/10.1016/j.orgdyn.2023.100994
- Mittelstand-Digital Zentrum Saarbrücken. (n.d). Prompt Engineering: LLMs verstehen und effektiv verwenden. Abgerufen am 14.02.2025, von https://digitalzentrum- saarbruecken.de/events/workshop-llms-verstehen-und-effektiv-verwenden/
- Wang, X., et al. (2024). Searching for best practices in retrieval-augmented generation. arXiv. https://doi.org/10.48550/ARXIV.2407.01219
- White, J., et al. (2023). A prompt pattern catalog to enhance prompt engineering with ChatGPT. arXiv. https://doi.org/10.48550/ARXIV.2302.11382