15. April 2025
Von Jana Blankenhagen
Jana Blankenhagen
Chief Human Resources Managerin
Als Chief Human Resources Officer (CHRO) bei OPTIMAL SYSTEMS habe ich in den letzten Jahren hautnah miterlebt, wie Künstliche Intelligenz (KI) die Arbeitswelt und insbesondere das Enterprise Content Management (ECM) verändert. Unsere Lösungen bieten Unternehmen diverse Chancen, unstrukturierte Daten und Informationen aus den Tausenden von Dokumenten und Inhalten, die sie verwalten müssen, besser nutzbar zu machen und ihre Prozesse zu optimieren. Gleichzeitig sehe ich es als unsere Aufgabe, sicherzustellen, dass die Technologie verantwortungsvoll eingesetzt werden kann – stets mit Blick auf den Menschen, der hinter jeder Entscheidung steht. Denn: "A company can purchase the most expensive and modern technology, but a person still has to operate it."
Dieser Leitsatz begleitet mich in meinem beruflichen Alltag. Die beste Technologie entfaltet ihr Potenzial nur, wenn der Mensch sie versteht, kritisch hinterfragt und verantwortungsvoll nutzt. Genau darauf müssen wir uns konzentrieren – auf den Einklang von technologischem Fortschritt und menschlicher Kompetenz.
"Der Computer ist ein Idiot."
Peter Drucker betonte die zentrale Rolle des Menschen im Umgang mit Technologie. Ich würde dieses Zitat alleinstehend so nicht bestätigen. Gleichzeitig unterstreicht es, dass Technologie ohne menschliche Anleitung und kritisches Denken ineffektiv bleibt.
Viele Experten verfolgen diesen Ansatz und haben ihn auf unterschiedliche Weise geprägt. Am bekanntesten ist vermutlich das Werk von Frithjof Bergmann, dem Begründer des "New Work"-Konzepts. Er betonte in seinem Buch "Neue Arbeit, Neue Kultur" (2004), dass Technologie die Menschen nicht ersetzen, sondern unterstützen sollte. Er sah in der Technologie ein Werkzeug, das Menschen wiederkehrende und standardisierte Aufgaben erleichtern oder sogar abnehmen kann, um mehr Kapazität für sinnvollere Arbeit zu generieren.
Ursula Franklin, eine Physikerin und Philosophin, argumentierte in ihrem Buch "The Real World of Technology" (1999), dass Technologien, die die Menschen in den Mittelpunkt stellen und ihre Fähigkeiten erweitern, bevorzugt werden sollten. Technologie, die die Menschen zu reinen Anwender*innen macht, sah sie kritisch.
Sherry Turkle, Professorin für Sozialwissenschaften am MIT, untersuchte in ihrem Buch "Reclaiming Conversation: The Power of Talk in a Digital Age" (2015) die Auswirkungen der Technologie auf menschliche Interaktionen. Sie stellte heraus, dass digitale Technologien uns zwar verbinden, aber auch unsere Fähigkeit zur tiefen und bedeutungsvollen Kommunikation beeinträchtigen können.
Die KI-Verordnung der Europäischen Union (AI-Act) wird aus meiner Sicht einigen Denkanstößen von Drucker, Bergmann, Franklin und Turkle gerecht. Denn sie formuliert wichtige und klare Anforderungen an KI-Systeme, darunter Transparenz, Nichtdiskriminierung, Sicherheit und menschliche Kontrolle. Gleichzeitig zeigt sich schon heute, dass sich die Umsetzung dieser Prinzipien in der Praxis als äußerst komplex und teuer erweist:
Die Erfüllung dieser Anforderungen zieht enorme Kosten und Ressourcen nach sich – von der Entwicklung transparenter Algorithmen bis hin zur Einhaltung strikter Datenschutzregelungen. Dazu hier ein simples ECM-Szenario aus dem Personalmanagement:
Eine der spannendsten Entwicklungen, die wir bei OPTIMAL SYSTEMS vorantreiben, sind KI-basierte Features in unseren ECM-Lösungen, welche unterschiedliche Informationen aus den Daten und Dokumenten möglichst nahtlos verbinden und direkt verarbeiten. Dabei geht es schon mit – auf den ersten Blick – ganz einfachen Prozessen los: Unser System erkennt automatisch bei der Erfassung eines Dokuments oder einer E-Mail, in welche digitale Personalakte es gehört, welche Art von Dokument es ist (z. B. eine Beurteilung oder eine Kündigung), liest den Inhalt aus, erfasst bereits die Metadaten und startet automatisch einen entsprechenden Offboarding-Workflow für den Austritt. Es bräuchte fast nur einen "Klick", und der Erfassungsvorgang wäre damit abgeschlossen.
Allein in diesem Beispiel stecken mehrere komplexe Systemfunktionen, auf die eine KI zugreifen, die sie analysieren und bearbeiten muss. Dazu gehören unter anderem eine Intelligente Suche, Inhaltsanalyse, Klassifizierung, Datenübernahme, sicheres Berechtigungssystem, Versionierung und Bearbeitungshistorie sowie ein automatisierter Workflow mit intelligentem Usermanagement und Schnittstellen in die Systeme, aus denen das Dokument ursprünglich kommt (E-Mail-System, Scanner, Dateiimport).
Mitarbeitende stehen zumindest zunehmend aus HR-Sicht zukünftig noch mehr im Zentrum. Die Anforderungen des AI-Acts stellen sie dabei vor neue Herausforderungen: Sie sollen technologische Ergebnisse kritisch hinterfragen und in Entscheidungen einbinden. Doch die Realität zeigt, dass viele Mitarbeitende dafür nicht ausreichend geschult sind – oder schlicht nicht die Zeit haben.
Die Diskrepanz zwischen den gesetzlichen Anforderungen und den realen Fähigkeiten und Kapazitäten der Mitarbeitenden wird zunehmend deutlicher. Wie können Unternehmen sicherstellen, dass Mitarbeitende die notwendigen Kompetenzen erwerben, wenn gleichzeitig Kostendruck und Effizienzsteigerungen Priorität haben? Es bleibt die Frage:
Führt der AI-Act dazu, dass Menschen Verantwortung übernehmen – oder sie aus Angst vor Fehlern komplett an die Technologie abgeben?
Die Integration von Künstlicher Intelligenz (KI) in unsere Arbeitswelt ist kein Zukunftsthema mehr – sie passiert jetzt. Unternehmen aller Branchen stehen genauso wie wir vor der Herausforderung, ihre Mitarbeitenden genau darauf vorzubereiten, mit KI-Systemen effizient und verantwortungsvoll zusammenzuarbeiten.
Wir als Softwarehersteller tragen diese Verantwortung mit, KI-Tools zu entwickeln, die den Grundprinzipien des AI-Acts entsprechen und so eine sichere, transparente und menschenzentrierte Nutzung ermöglichen. Aus meiner Sicht wird Kritisches Denken dabei zu einer Schlüsselkompetenz, die in der kurzfristigen Zukunft den Unterschied zwischen Erfolg und Misserfolg ausmachen kann.
Ich finde die Ergebnisse von KI oft sehr beeindruckend – von der Geschwindigkeit, mit der Daten analysiert, bis hin zur Präzision, mit der Muster erkannt werden. Doch wir dürfen uns nicht von dieser Perfektion täuschen lassen: Kein System ist unfehlbar, und keine Technologie kann die Komplexität menschlicher Entscheidungen vollständig erfassen.
Grenzen der Technologie erkennen: KI basiert auf Algorithmen, die von Menschen entwickelt und mit Daten trainiert werden, die wiederum nicht frei von Fehlern, Bias oder Lücken sind. Das bedeutet, dass auch die Ergebnisse von KI immer mit Unsicherheiten behaftet sein können. Mitarbeitende müssen daher lernen, die Grenzen der Technologie zu verstehen und zu hinterfragen, ob die präsentierten Ergebnisse tatsächlich verlässlich und im spezifischen Kontext anwendbar sind.
Kritisches Denken als Schlüsselkompetenz: Die Fähigkeit, KI-Ergebnisse kritisch zu prüfen, ist nicht nur ein Schutz vor Fehlern, sondern auch ein zentraler Faktor, um Vertrauen in die Technologie aufzubauen. Mitarbeitende müssen nicht nur hinterfragen, ob ein Ergebnis "technisch korrekt" ist, sondern auch, ob es den Werten, Zielen und rechtlichen Vorgaben des Unternehmens entspricht. Ohne diese kritische Prüfung riskieren Unternehmen, Entscheidungen zu treffen, die langfristige Schäden verursachen könnten.
Unterstützendes Werkzeug, kein Ersatz: KI sollte niemals als Ersatz für menschliches Urteilsvermögen verstanden werden. Sie ist ein Werkzeug, das Informationen bereitstellt und Prozesse unterstützt – die Verantwortung für Entscheidungen bleibt jedoch beim Menschen. Mitarbeitende müssen ermutigt werden, ihre Intuition, Erfahrung und ethischen Werte einzubringen, um KI-Ergebnisse in den richtigen Kontext zu setzen.
Förderung kritischen Denkens: Unternehmen können kritisches Denken nicht voraussetzen, sondern müssen es aktiv fördern. Dies kann durch gezielte Schulungen, Workshops und eine aktiv gelebte interdisziplinäre Zusammenarbeit geschehen, die Mitarbeitenden zeigen, wie sie mit Unsicherheiten umgehen und KI-Ergebnisse effektiv bewerten können. Eine offene Fehlerkultur und regelmäßiger Austausch über Herausforderungen und Grenzen von KI sind ebenfalls essenziell, um eine kritische, aber konstruktive Haltung gegenüber Technologie zu entwickeln.
Warum es mehr als Technologie braucht: Kritisches Denken ist nicht nur eine Fähigkeit, sondern auch eine Einstellung. Es erfordert Mut, etablierte Prozesse oder scheinbar perfekte Ergebnisse infrage zu stellen. Unternehmen müssen eine Kultur schaffen, die diese Haltung belohnt, anstatt sie zu sanktionieren, Mitarbeitende, die bereit sind, den Status quo zu hinterfragen. Sie sind der Schlüssel, um die Potenziale von KI verantwortungsvoll zu nutzen.
Hierbei wird deutlich, dass kritisches Denken nicht als Einzelkompetenz zu betrachten ist. Sie kann nur im Cluster mit weiteren Kompetenzen zielführend sein. Dazu zählen meines Erachtens mindestens drei weitere spezifische Kompetenzen:
Technologische Grundkenntnisse: Ein Grundverständnis für Datenquellen, -struktur, -qualität sowie Grundlagenwissen zu KI-Algorithmen und wie KI-Modelle trainiert werden. Das gilt für alle Mitarbeitenden in allen Fachbereichen, die Daten verarbeiten.
Interdisziplinäre Zusammenarbeit: Teams aus Research & Development, Professional Services und Sales sollten in Zukunft enger interdisziplinär zusammenarbeiten und Expert*innen aus IT, Recht und HR frühzeitig mit einbeziehen, um gemeinsam an Lösungen zu arbeiten. Das vereint alle Mensch-Technologie-Perspektiven. Erstere sind Expert*innen in Sachen Technologie und Algorithmen sowie fachlichem Bedarf und letztere sind Expert*innen in menschlichem Verhalten und relevanten Einflussfaktoren.
Kommunikations- und Reflexionsfähigkeit: Sie ist wichtig, um komplexe Sachverhalte zu vermitteln, Erkenntnisse klar zu formulieren, aktiv zuzuhören und andere Perspektiven einzubeziehen und Konflikte aufzulösen.
Sind diese Kompetenzen allein ausreichend? Fallen Ihnen weitere Schlüsselkompetenzen ein? Es könnte weiterer Erfolgskompetenzen bedürfen.
In unserem aktuellen Webcast erhalten Sie detaillierten Einblick in die Möglichkeiten, KI in Ihrem Arbeitsalltag mit enaio® zu nutzen.
Sie erfahren u. a.:
wie Verwaltungsarbeit in Unternehmen mit KI revolutioniert wird;
wie enaio® classify OpenAI-Abfragen unterstützt;
wie enaio® in die KI-Welt integriert ist.
Melden Sie sich jetzt in der Mediathek für Macher an und sichern Sie sich Fachwissen mit diesem und vielen weiteren Webcasts!
Bei OPTIMAL SYSTEMS sind wir uns dieser Herausforderung bewusst – nicht nur, weil es klare gesetzliche Rahmenbedingungen für den Einsatz von KI geben wird, sondern weil wir wissen, dass es bereits heute entscheidend ist, zu handeln. Der technologische Fortschritt schreitet schneller voran, als Richtlinien und Policies greifen können. Deshalb setzen wir gezielt darauf, jetzt eine Kultur zu schaffen, die sich auszeichnet durch:
Unsere Mitarbeitenden sollen nicht nur passive Anwender*innen sein, sondern aktiv mitgestalten, Technologien verstehen und kritisch hinterfragen. Durch eine offene und ehrliche Kommunikation sowie unser Prinzip "Mit Rat und Tat" schaffen wir einen Raum, in dem Fragen erlaubt sind und verschiedene Perspektiven geschätzt werden. Dies ist essenziell, um einerseits KI-basierte Softwarelösungen zu entwickeln und andererseits selbst KI-Systeme effektiv zu nutzen und gleichzeitig verantwortungsvoll mit ihren Schwächen umzugehen.
Doch wird das ausreichen? Können wir damit den Anforderungen des AI-Acts wirklich gerecht werden? Sichern wir damit, dass ein Mensch die bleibenden technologischen Lücken ausgleichen wird? Werden wir jemals den Idealzustand in der Realität erleben?
In der Realität erleben wir bereits täglich, beruflich wie privat, die Integration von Künstlicher Intelligenz – und mit ihr die Notwendigkeit, verantwortungsvoll zu handeln. Lösungen wie KI-basierte Enterprise Content Management-Systeme zeigen, wie KI dabei helfen kann, Prozesse zu optimieren, Informationen schneller zu verarbeiten, besser zu nutzen und fundiertere Entscheidungen zu treffen. Doch diese Technologie ersetzt nicht unsere menschliche Intuition, Erfahrung und Urteilsfähigkeit.
Unsere Werte und Prinzipien sind dabei nach bestem Wissen und Gewissen für uns entscheidend, um KI-basierte ECM-Lösungen zu entwickeln und einzusetzen. Sie helfen uns, die Zusammenarbeit zwischen Mensch und Technologie so zu gestalten, dass unsere eigenen Mitarbeitenden genauso wie die Mitarbeitenden unserer Kunden und Partner eigenverantwortlich arbeiten können und gleichzeitig ein Bewusstsein für die Auswirkungen ihrer Entscheidungen entwickeln.
Kritisches Denken, die Bereitschaft zur aktiven interdisziplinären Zusammenarbeit auf Augenhöhe, das Bewusstsein Verantwortung zu übernehmen und der Fokus auf menschliche Werte sind dabei essenziell, auch wenn sie mit Blick auf die Anforderungen im AI-Act für mich heute öfter als früher als nicht mehr ausreichend erscheinen und mich vieles kritisch hinterfragen lassen.
KI ist ein mächtiges Werkzeug – aber es sind die Menschen, die den Unterschied machen, denn: "A company can purchase the most expensive and modern technology, but a person still has to operate it."
Danke an Nikola Milanovic, Chief Technology Officer, für den interessanten Diskurs zur Zukunft unserer Produkte, der mich zu diesem Beitrag motiviert hat.