PROJEKTMANAGEMENT AKTUELL
pm
2941-0878
2941-0886
UVK Verlag Tübingen
10.24053/PM-2025-0071
pm364/pm364.pdf0922
2025
364
GPM Deutsche Gesellschaft für Projektmanagement e. V.KI, Tempo, Wirkung: Wie Projektverantwortliche Orientierung finden, wenn Regeln fehlen
0922
2025
Annette Bühler
Technologiebasierte Projekte werfen zunehmend ethische Fragen auf – von Fairness über Transparenz bis hin zu Rechenschaft. Der Beitrag stellt das Ethik-Taschenmesser als strukturierte, praxisorientierte Methode vor, um ethische Prinzipien im Projektalltag anzuwenden. Am Beispiel eines KI-gestützten Bewerbungsprozesses wird gezeigt, wie vier zentrale Werkzeuge – Fairness, Transparenz, Rechenschaft und Gerechtigkeit – gezielt eingesetzt werden können. Ergänzt wird der Beitrag durch ein zweites Beispiel aus dem Bereich der Katastrophenhilfe. Projektverantwortliche erhalten damit einen praktikablen Denkrahmen für verantwortungsvolle Entscheidungen im Spannungsfeld zwischen Tempo, Technologie und Wirkung.
pm3640056
56 PROJEKTMANAGEMENT AKTUELL · 36. Jahrgang · 04/ 2025 DOI 10.24053/ PM-2025-0071 Die Rolle der Ethik im Projektmanagement KI, Tempo, Wirkung: Wie Projektverantwortliche Orientierung finden, wenn Regeln fehlen Annette Bühler Für eilige Leser | Technologiebasierte Projekte werfen zunehmend ethische Fragen auf-- von Fairness über Transparenz bis hin zu Rechenschaft. Der Beitrag stellt das Ethik-Taschenmesser als strukturierte, praxisorientierte Methode vor, um ethische Prinzipien im Projektalltag anzuwenden. Am Beispiel eines KI-gestützten Bewerbungsprozesses wird gezeigt, wie vier zentrale Werkzeuge-- Fairness, Transparenz, Rechenschaft und Gerechtigkeit-- gezielt eingesetzt werden können. Ergänzt wird der Beitrag durch ein zweites Beispiel aus dem Bereich der Katastrophenhilfe. Projektverantwortliche erhalten damit einen praktikablen Denkrahmen für verantwortungsvolle Entscheidungen im Spannungsfeld zwischen Tempo, Technologie und Wirkung. Schlagwörter | Ethische Führung, Projektmanagement, Künstliche Intelligenz, Fairness, Transparenz, Verantwortung, IPMA-Kompetenzen, Ethik-Taschenmesser Projekte bringen Bewegung-- sie schaffen Neues, treiben Wandel voran und sind oft Türöffner für Technologien, die unsere Gesellschaft nachhaltig prägen. Doch je mehr Daten, Algorithmen und Automatisierung ins Spiel kommen, desto größer wird auch die Verantwortung derjenigen, die Projekte leiten. Im Spannungsfeld zwischen Innovationsdruck und gesellschaftlicher Verantwortung rückt eine oft unterschätzte Dimension in den Fokus: Ethik. Sie entscheidet mit darüber, ob ein Projekt nicht nur technisch gelingt, sondern auch nachhaltig trägt. Ein wirksames Instrument, um ethische Überlegungen systematisch in Projektentscheidungen einzubeziehen, ist das „Ethik-Taschenmesser“. Es hilft dabei, Orientierung zu gewinnen, wo Standards fehlen- - und Entscheidungen zu treffen, die nicht nur effizient, sondern auch verantwortungsvoll sind. Das Ethik-Taschenmesser-- ein praxisorientiertes Werkzeug Wer schon einmal ein Schweizer Taschenmesser in der Hand hatte, kennt das Prinzip: kompakt, vielseitig, bereit für unerwartete Situationen. Genauso versteht sich auch das Ethik- Taschenmesser- - ein symbolischer Werkzeugkasten für Projektverantwortliche, die Entscheidungen nicht nur effizient, sondern auch verantwortungsvoll treffen wollen. Statt abstrakter Werte oder schwer fassbarer Leitbilder liefert das Ethik-Taschenmesser zwölf sofort anwendbare Werkzeuge, mit denen sich ethische Fragestellungen im Projektkontext systematisch durchdenken und bearbeiten lassen. Jedes Werkzeug steht dabei für ein zentrales Prinzip, das in Projekten immer wieder auf die Probe gestellt wird- - zum Beispiel Fairness, Transparenz oder Rechenschaft. Gerade im Umfeld von Künstlicher Intelligenz, wo rechtliche Leitplanken wie der EU AI Act oder erste nationale Regelungen- - etwa in der Schweiz- - noch in den Startlöchern stehen oder schwer interpretierbar sind, fehlt es oft an konkreten, anwendbaren Vorgaben für die Projektpraxis. Das Ethik-Taschenmesser schließt hier eine Lücke: Es ist sofort einsetzbar, leicht verständlich und offen genug, um auch mit neuen Herausforderungen umzugehen, die durch KI-basierte Technologien erst entstehen. Wissen | KI, Tempo, Wirkung: Wie Projektverantwortliche Orientierung finden, wenn Regeln fehlen 57 PROJEKTMANAGEMENT AKTUELL · 36. Jahrgang · 04/ 2025 DOI 10.24053/ PM-2025-0071 Wie das konkret aussieht, zeigt ein typisches Projekt aus dem Personalbereich: Ein Unternehmen möchte den Auswahlprozess für neue Mitarbeitende digitalisieren. Die Personalabteilung plant, eine KI-gestützte Lösung zur automatisierten Vorselektion von Bewerbungen einzusetzen. Was als Effizienzgewinn gedacht ist, wirft schnell kritische Fragen auf: Werden bestimmte Gruppen systematisch benachteiligt? Wissen Bewerberinnen und Bewerber überhaupt, wie das System entscheidet? Und wer trägt die Verantwortung, wenn geeignete Kandidat*innen durchs Raster fallen? Genau hier entfaltet das Ethik-Taschenmesser seine Wirkung. Es ermöglicht Projektteams, solche Spannungsfelder frühzeitig zu erkennen und mit einem strukturierten, aber pragmatischen Zugang zu bearbeiten. In den folgenden Abschnitten werden ausgewählte Werkzeuge näher vorgestellt-- und am Beispiel dieses KI-Recruiting-Projekts angewendet. Werkzeuge im Einsatz: Ethik konkret anwenden Wie kann das Ethik-Taschenmesser helfen, konkrete Herausforderungen im Projekt zu bewältigen? Im Folgenden werden vier von zwölf Werkzeugen exemplarisch anhand eines realitätsnahen Szenarios vorgestellt: dem Einsatz von KI im Bewerbungsprozess. Feile der Fairness-- wenn Algorithmen Karrieren beeinflussen Die Feile der Fairness glättet dort, wo Verzerrungen entstehen- - bewusst oder unbewusst. In vielen Projekten, die mit datenbasierten oder KI-gestützten Systemen arbeiten, ist Fairness kein automatisches Ergebnis, sondern muss aktiv gestaltet werden. Im Beispiel des Recruiting-Projekts wird das besonders deutlich: Eine KI soll Bewerbungen vorfiltern und diejenigen Kandidat*innen hervorheben, die angeblich am besten zur Stelle passen. Die Trainingsdaten stammen aus früheren Einstellungsprozessen-- also aus menschlichen Entscheidungen. Und genau hier liegt die erste Herausforderung: Wenn diese historischen Daten Vorurteile oder ungleiche Chancen widerspiegeln, wird die KI diese Muster fortschreiben. Erste Analysen im Projektteam zeigen: Die KI bevorzugt Bewerbungen mit durchgehenden Lebensläufen- - unabhängig von Qualifikation oder Motivation. Auch bestimmte Namensmuster oder sprachliche Eigenheiten scheinen die Gewichtung zu beeinflussen. Solche Effekte müssen nicht das Resultat bewusster Voreingenommenheit sein-- sie entstehen oft aus historischen Mustern in den Trainingsdaten. Ein bekanntes Beispiel aus der Praxis zeigt, wie solche Verzerrungen unbeabsichtigt entstehen können: Ein großes Technologieunternehmen entwickelte ein System zur automatisierten Bewerbungsbewertung. Es stellte sich heraus, dass Bewerbungen von Frauen systematisch abgewertet wurden-- nicht aufgrund direkter Diskriminierung, sondern weil das System auf Daten aus früheren, männlich geprägten Einstellungsverfahren trainiert worden war. Das Projekt wurde später eingestellt. Ein verantwortungsvolles Projektteam greift an dieser Stelle zur Feile der Fairness: • Es analysiert die Datenquellen kritisch auf mögliche Verzerrungen. • Es überprüft die Auswahlkriterien gemeinsam mit Fachexpert*innen und Diversity-Verantwortlichen. • Es testet systematisch, ob das System bestimmte Gruppen benachteiligt oder ausschließt. Fairness bedeutet hier nicht, jede Bewerbung gleichzubehandeln, sondern die Kriterien bewusst so zu gestalten, dass Chancengleichheit ermöglicht wird- - trotz unterschiedlicher Voraussetzungen. Pinzette der Transparenz-- wer entscheidet hier eigentlich? Die Pinzette der Transparenz zieht feine, oft übersehene Details ans Licht-- besonders dort, wo Entscheidungen automatisiert oder technisch unterstützt erfolgen. In Projekten, die auf KI-gestützte Systeme setzen, kann leicht der Eindruck entstehen, die Maschine habe „neutral“ entschieden. Doch ohne nachvollziehbare Kriterien entsteht schnell Misstrauen-- sowohl bei den betroffenen Personen als auch im Projektteam selbst. Im Recruiting-Projekt stellt sich früh die Frage: Wissen die Bewerber*innen, dass sie von einem algorithmischen System bewertet werden? Welche Merkmale fließen in die Entscheidung ein-- und wie werden sie gewichtet? Warum erhält eine Bewerbung ein positives Ranking, eine andere nicht? Transparenz beginnt nicht erst beim Systemdesign, sondern bei der Grundhaltung: Projektteams, die auf die Pinzette der Transparenz zurückgreifen, definieren von Beginn an klare Entscheidungswege- - und sorgen dafür, dass diese auch extern nachvollziehbar bleiben. Konkret bedeutet das: • Die Funktionsweise des Systems wird intern wie extern verständlich dokumentiert. • Bewerber*innen werden darüber informiert, dass ein KI- System eingesetzt wird-- idealerweise inkl. einer Beschreibung, welche Rolle es im Auswahlprozess spielt. • Projektleitende sorgen dafür, dass auch innerhalb des Unternehmens klar ist, wer welche Entscheidung trifft: die Software, ein Mensch-- oder eine Kombination aus beidem. Transparenz bedeutet nicht, jede Codezeile offenzulegen. Aber es bedeutet, dass Projektbeteiligte und Betroffene erkennen können, wie und warum Entscheidungen zustande kommen-- und an wen sie sich bei Fragen oder Einwänden wenden können. Ahle der Rechenschaftspflicht-- Verantwortung darf nicht verschwinden Die Ahle der Rechenschaftspflicht sticht gezielt dort hinein, wo Unklarheiten über Zuständigkeiten bestehen. In komplexen, technologiegetriebenen Projekten-- wie dem Einsatz von KI im Bewerbungsprozess- - kann Verantwortung leicht verwischen: Wer hat entschieden, wer ist zuständig, wenn etwas schiefläuft? Im Recruiting-Projekt wird die Verantwortung zwischen HR, IT, externen Anbietern und der KI selbst verteilt. Ein Bewerbungssystem bewertet Kandidat innen auf Basis automatisierter Kriterien- - aber wer trägt letztlich die Verantwortung für Fehlentscheidungen? Ist es das Projektteam, die Softwareentwickler innen, die Personalabteilung oder das System selbst? Wissen | KI, Tempo, Wirkung: Wie Projektverantwortliche Orientierung finden, wenn Regeln fehlen 58 PROJEKTMANAGEMENT AKTUELL · 36. Jahrgang · 04/ 2025 DOI 10.24053/ PM-2025-0071 Gerade wenn Entscheidungen technisch unterstützt, aber menschlich verantwortet werden, braucht es klare Zuordnungen. Projektteams, die die Ahle der Rechenschaftspflicht einsetzen, klären: • Wer prüft das System vor dem Einsatz? • Wer greift ein, wenn es unerwartete Ergebnisse liefert? • Und wer steht ein, wenn qualifizierte Kandidat*innen fälschlich abgelehnt werden-- oder sich benachteiligt fühlen? Rechenschaftspflicht ist kein juristisches Konzept allein-- sie ist auch kulturell: Nur wenn Verantwortlichkeiten transparent und verbindlich geregelt sind, können Projektmitglieder reflektiert handeln, lernen und Vertrauen aufbauen. Die Ahle hilft, genau diese Punkte sichtbar zu machen-- bevor sie zum Problem werden. Lupe der Gerechtigkeit-- wem zuerst geholfen wird Die Lupe der Gerechtigkeit vergrößert das Gesamtbild: Sie hilft dabei, über Einzelfälle hinaus grundlegende Muster, Priorisierungen und Auswirkungen zu erkennen-- gerade dort, wo knappe Ressourcen verteilt oder sensible Entscheidungen getroffen werden müssen. Im Recruiting-Projekt etwa zeigt sich: Ein KI-System, das auf Effizienz trainiert ist, bewertet Bewerbungen oft auf Basis quantifizierbarer Merkmale-- Ausbildung, Erfahrung, lückenloser Werdegang. Doch werden damit nicht strukturell benachteiligte Gruppen systematisch übersehen? Wer etwa familiäre Pflegezeiten oder einen späten Berufseinstieg in seinem Lebenslauf hat, wird nach reinen Effizienzkriterien womöglich benachteiligt. Die Lupe der Gerechtigkeit fordert Projektteams dazu auf, grundsätzliche Gerechtigkeitsfragen in die Gestaltung technischer Systeme einzubeziehen: • Welche impliziten Annahmen sind im System verankert? • Wer profitiert vom gewählten Auswahlverfahren-- und wer hat das Nachsehen? • Sind unsere Definitionen von „Eignung“ und „Passung“ kulturell geprägt, eingeschränkt oder veraltet? Diese Fragen lassen sich exemplarisch auch auf ganz andere Kontexte übertragen-- etwa auf ein Projekt zur Katastrophenhilfe, bei dem eine KI die Reihenfolge der Hilfsgesuche nach Dringlichkeit sortieren soll. Was auf den ersten Blick nach gerechter Priorisierung aussieht, birgt auf den zweiten Blick erhebliche Risiken: • Wird Dringlichkeit nur anhand wirtschaftlicher Schäden definiert- - und bleiben damit gesundheitliche, familiäre oder sprachlich schwer formulierbare Notlagen unberücksichtigt? • Haben alle Bevölkerungsgruppen die gleiche Chance, korrekt erfasst zu werden- - oder benachteiligt das System vulnerable Personen, deren Hilferuf weniger „Datenwert“ erzeugt? Die Lupe der Gerechtigkeit erinnert Projektteams daran, dass Fairness über formale Gleichbehandlung hinausgeht- - und dass Gerechtigkeit eine bewusste, mitgedachte Perspektive sein muss. Auch und gerade dort, wo Entscheidungen durch Technik vorbereitet oder unterstützt werden. In der konkreten Anwendung zeigen sich schnell vielschichtige Herausforderungen: Die KI bewertet Hilfegesuche anhand definierter Merkmale- - etwa Schadenshöhe, Haushaltsstruktur oder Dringlichkeitsindikatoren wie Gesundheitsgefahr oder Kinder im Haushalt. Doch wie verlässlich sind diese Angaben in einer akuten Krisensituation? Werden sprachlich oder technisch benachteiligte Personen korrekt erfasst? Erhält jemand mit hohem Digitalisierungsgrad automatisch schneller Unterstützung als jemand, der sich nur telefonisch oder schriftlich meldet? Auch kulturelle Unterschiede in der Selbstdarstellung wirken sich aus: Manche Betroffene beschreiben ihre Situation dramatisch, andere sachlich-zurückhaltend-- was das System je nach Trainingsstand unterschiedlich interpretiert. Die KI priorisiert, aber sie versteht weder Kontext noch Scham noch Resilienz. Diese Herausforderungen wären in einem klassischen Auswahlprozess vielleicht unbewusst mitgelaufen-- durch das KI- System werden sie jedoch sichtbar und reproduzierbar. Genau hier setzt die Lupe der Gerechtigkeit an: nicht als Lösung, sondern als Einladung zur bewussten Auseinandersetzung mit der Frage, was wir unter gerechter Hilfe eigentlich verstehen-- und für wen. Kompetenzorientierte Verankerung Die im Ethik-Taschenmesser enthaltenen Werkzeuge lassen sich direkt den drei Kompetenzbereichen der IPMA Individual Competence Baseline (ICB) zuordnen. Sie zeigen, dass ethische Kompetenz keine Zusatzqualifikation ist, sondern ein integraler Bestandteil moderner Projektführung. People-- Führung, Kultur und Zusammenarbeit: Die Anwendung von Werkzeugen wie der Feile der Fairness oder der Schere der Empathie stärkt nicht nur die Entscheidungskompetenz, sondern auch das Vertrauen im Team. Projektleitende, die offen über Kriterien, Werte und Prioritäten sprechen, fördern eine Kultur der Verantwortung-- auch in kritischen Phasen. Practice-- Methoden und Prozesse: Das Ethik-Taschenmesser unterstützt eine reflektierte Anwendung technischer Systeme und Methoden. Die Pinzette der Transparenz und die Ahle der Rechenschaftspflicht zeigen, wie ethische Prinzipien in Konzeption, Implementierung und Steuerung konkret verankert werden können- - besonders in datengetriebenen Projekten. Perspective-- Strategie, Umfeld und Nachhaltigkeit: Werkzeuge wie die Lupe der Gerechtigkeit oder der Kompass der Diversität helfen dabei, über den Projektrand hinauszublicken: Wer sind die mittel- und langfristig Betroffenen? Welche gesellschaftlichen, ökologischen oder kulturellen Dynamiken prägen das Projektumfeld? Solche Fragen sind für nachhaltige Projektentscheidungen ebenso entscheidend wie Zeit, Budget und Qualität. Wer seine Kompetenzen in einer zunehmend technologiegeprägten Projektwelt weiterentwickeln will, findet im Ethik-Taschenmesser eine wertvolle Orientierungshilfe. Es hilft dabei, komplexe Entscheidungsfelder bewusst zu reflektieren, eine ethisch fundierte Haltung zu entwickeln und Führung nicht nur technisch, sondern auch verantwortungsvoll zu gestalten. Damit unterstützt das Ethik-Taschenmesser bei der inhaltlichen Auseinandersetzung mit zentralen Kompetenzbereichen, insbesondere im Hinblick auf Leadership, Nachhaltigkeit und gesellschaftliche Wirkung. Wissen | KI, Tempo, Wirkung: Wie Projektverantwortliche Orientierung finden, wenn Regeln fehlen 59 PROJEKTMANAGEMENT AKTUELL · 36. Jahrgang · 04/ 2025 DOI 10.24053/ PM-2025-0071 Ethik als Leadership-Kompetenz In vielen Projektorganisationen wird derzeit intensiv darüber diskutiert, welche Kompetenzen Führungskräfte in einer zunehmend digitalisierten und KI-gestützten Welt benötigen. Technisches Wissen bleibt wichtig-- doch ebenso entscheidend wird die Fähigkeit, in komplexen, oft widersprüchlichen Entscheidungssituationen eine ethisch fundierte Haltung einzunehmen. Ethische Kompetenz zeigt sich nicht nur in der Einhaltung von Regeln, sondern vor allem in der Art, wie Projektleitende mit Unsicherheit, Zielkonflikten und Verantwortung umgehen. Wer als Führungskraft Entscheidungen trifft, die weitreichende Auswirkungen auf Menschen, Umwelt oder Gesellschaft haben, braucht mehr als Checklisten: Es braucht Orientierung, Reflexion und den Mut, Werte sichtbar zu machen. Das Ethik-Taschenmesser bietet genau dafür eine strukturierte, aber zugleich flexible Grundlage. Es regt dazu an, über rein funktionale Zielsetzungen hinauszudenken und ethische Überlegungen in den Projektalltag zu integrieren- - nicht als Zusatzaufgabe, sondern als selbstverständlichen Teil verantwortungsvoller Führung. In der Projektweiterbildung und Führungskräfteentwicklung gewinnt dieses Thema zunehmend an Bedeutung. Organisationen, die ethische Reflexion fördern, stärken nicht nur ihre Resilienz und Innovationsfähigkeit, sondern schaffen auch eine Kultur, in der Vertrauen, Transparenz und Fairness kein Zufall sind-- sondern Ergebnis bewusster Gestaltung. Fazit: Ein Werkzeug für nachhaltigen Projekterfolg Projekte gestalten Zukunft-- sie prägen Produkte, Prozesse, Organisationen und letztlich das Zusammenleben. Umso wichtiger ist es, dass Projektverantwortliche nicht nur technisch versiert, sondern auch ethisch reflektiert handeln. Das Ethik-Taschenmesser ist keine starre Methode, sondern ein anwendungsorientierter Denkrahmen, der hilft, sich in einem zunehmend dynamischen, technologiegetriebenen Umfeld zu orientieren. Die vorgestellten Werkzeuge zeigen, wie ethische Prinzipien wie Fairness, Transparenz, Rechenschaft und Gerechtigkeit im konkreten Projektalltag lebendig werden. Ob im Recruiting, bei der Gestaltung von KI-Systemen oder-- wie das Beispiel der Katastrophenhilfe zeigt-- in hochsensiblen Entscheidungssituationen: Ethische Führung zeigt sich dort, wo Verantwortung übernommen, Komplexität ernst genommen und Auswirkungen mitgedacht werden. Wer als Projektleiter*in oder Führungskraft ethisch handelt, tut das nicht zusätzlich zum eigentlichen Auftrag-- sondern im Kern der Führungsarbeit. Das Ethik-Taschenmesser hilft dabei, diese Haltung zu schärfen, bewusst zu reflektieren- - und im entscheidenden Moment das richtige Werkzeug zu wählen. Eingangsabbildung: pocketknife-- KI-generiert Annette Bühler Annette Bühler ist Gründerin und Geschäftsführerin von swisswolf Consulting. Sie ist IPMA Level A zertifiziert und als IPMA-Assessorin tätig. Mit ihrer umfassenden Erfahrung in Projektmanagement und ethischer Führung verbindet sie praktische Expertise mit innovativen Ansätzen. Als Autorin des Buches « Ethische Führung in der KI -Ära» hat sie das Konzept des „Ethik-Taschenmessers“ entwickelt, das Führungskräfte bei der Bewältigung ethischer Herausforderungen unterstützt. annette.buehler@swisswolf.com www.swisswolf.com
