2. Skalierung von KI: Von Pilotprojekten zu messbarem Unternehmenswert
Organisationen investieren zunehmend in KI und versuchen, diese unternehmensweit zu skalieren. Der erhoffte ROI von KI fiel bisher gering aus – dieses Thema wurde in Davos unter dem Stichwort „AI Value Gap“ aufgegriffen: viel Experimentieren, aber kaum messbarer Ergebnis- oder P&L-Effekt.
Entlang vieler Interaktionen mit Top-CXOs gab es eine zentrale Erkenntnis: Die Skalierung von KI ist kein primär technisches Problem. Die KI-Transformation erfordert auch ein neues Leadership-Mindset, Outcome-driven Workflows, neue Operating Models, angepasste Entscheidungsrechte und veränderte Anreizsysteme.
Führende Unternehmen betrachten KI zunehmend als unternehmensweite Fähigkeit statt als Sammlung einzelner Tools. Insbesondere Agentic AI stand hier im Fokus. Tech-Leader betonten, dass autonome Systeme nur dann Wert schaffen, wenn sie bewusst orchestriert, überwacht und in bestehende Prozesse integriert werden. Entscheidend bleibt dabei die strategische Kontrolle durch den Menschen.
3. Governance, Vertrauen und Verantwortung als strategische Imperative
Vertrauen erwies sich als einer der größten Engpässe für den breiten Einsatz von KI. In Davos wurde klar: Governance ist kein reines Compliance-Thema mehr, sondern eine zentrale Führungsaufgabe die Verantwortung und Entscheidungsgewalt neu definiert. Dies gilt insbesondere für Physical AI und Robotics, die zunehmend im öffentlichen Raum, in der Industrie oder in kritischer Infrastruktur eingesetzt werden – von autonomen Fahrzeugen über Roboter in Fabriken bis hin zu intelligenten Transportsystemen. Gerade hier entscheidet Vertrauen über Akzeptanz und Skalierbarkeit.
Responsible AI entwickelt sich dabei von abstrakten Ethikprinzipien hin zu einem operativen Kontroll- und Verantwortungsrahmen. Im Mittelpunkt stehen Transparenz, Nachvollziehbarkeit, klar zugewiesene Verantwortlichkeiten und wirksame Human-in-the-Loop-Mechanismen, die sicherstellen, dass kritische Entscheidungen nachvollziehbar bleiben und jederzeit menschlich überprüft, korrigiert oder gestoppt werden können. Vertrauen, Governance und Souveränität greifen damit ineinander als Voraussetzung für verantwortungsvolle KI-Nutzung und nachhaltige Wettbewerbsfähigkeit.
4. Die Rolle von Jobs im Zeitalter der KI verändert sich
KI verändert unsere Arbeit grundlegend, nicht nur durch Automatisierung, sondern durch neue Rollen, neue Fähigkeiten und neue Formen der Zusammenarbeit.
Dabei rücken zwei Entwicklungen besonders in den Fokus. Agentic AI verändert wissensbasierte Arbeit, indem autonome Systeme Aufgaben nicht nur ausführen, sondern Prozesse steuern, Entscheidungen vorbereiten und Workflows selbstständig orchestrieren. Physical AI ist bereits heute tief in operative Abläufe eingebettet – etwa in Industrie, Logistik oder kritische Infrastruktur – und weitet ihren Einfluss schnell aus. Beide Entwicklungen verschieben die Grenze zwischen menschlicher Verantwortung und maschineller Autonomie.
In Davos waren sich die Führungskräfte einig: Dieser Wandel ist unvermeidbar. Auch wenn KI langfristig mehr Jobs schaffen wird, entstehen schon heute spürbare Skill-Gaps und hoher Anpassungsdruck auf die Belegschaften. Upskilling, Reskilling und neue Organisationsmodelle sind entscheidend, damit Produktivitätsgewinne nicht durch Fachkräftemangel oder Veränderungsresistenz verpuffen.
Physical und Agentic AI verändern nicht nur Arbeit, sondern auch die Rolle von Führung. Daher sollten Organisationen Arbeitsabläufe, Fähigkeiten und Führungsrollen neu gestalten, um im Zeitalter von KI langfristig erfolgreich zu bleiben.
5. Resiliente und nachhaltige Infrastruktur wird zum strategischen Erfolgsfaktor
Weg von einzelnen KI-Modellen hin zu den strukturellen Voraussetzungen für Skalierung und Resilienz: Im Zentrum des Diskurses beim WEF 2026 standen der AI-Stack und die zugrunde liegenden Infrastrukturen – speziell für KI entwickelte Plattformen, domänenspezifische Modelle, Multi-Agenten-Systeme, sichere Compute-Umgebungen sowie robuste Daten-, Steuerungs- und Kontrollschichten.
Mit der zunehmenden Autonomie von KI-Systemen verändern sich auch die Sicherheitsanforderungen grundlegend. AI-getriebene Angriffe, automatisierte Exploits und adaptive Bedrohungsszenarien treffen auf erhebliche Kenntnislücken in vielen Organisationen – insbesondere in Bezug auf Cyber-Resilienz, Identitätsmanagement, Datenintegrität und kontinuierliche Überwachung komplexer KI-Ökosysteme. Cybersecurity darf daher keine nachgelagerte Schutzmaßnahme sein, sondern eine architektonische Kernkomponente zukünftiger KI-Infrastrukturen.