PROJEKTMANAGEMENT AKTUELL
pm
2941-0878
2941-0886
UVK Verlag Tübingen
10.24053/PM-2024-0007
31
2024
351
GPM Deutsche Gesellschaft für Projektmanagement e. V.Handlungsempfehlungen zur sicheren und digital souveränen Nutzung generativer KI-Systeme
31
2024
Ralf Schweifler
Harald Wehnes
Die rasant an Bedeutung gewinnenden generativen KI-Systeme, wie ChatGPT und Co., haben einen Mega-Hype erzeugt. Doch müssen wir auch vermehrt die Fallstricke, Risiken und Gefahren dieser neuen Technologie beachten. Nicht um den Hype zu brechen, sondern um einen sicheren und zukunftsorientierten Einsatz von KI-Systemen zu gewährleisten. Eine Schlüsselrolle haben dabei die Auswahl des KI-Systems und dessen Bereitstellungsart.
Ausgehend von aktuellen Problembeispielen werden die besonderen Herausforderungen für das Management und die größten Einsatzrisiken analysiert. Daraus resultierend wird erläutert, was beim Einsatz von generativen KI-Systemen besonders zu beachten ist, um beispielsweise Abfluss und Missbrauch sensibler Daten oder rechtliche Probleme zu vermeiden. Die resultierenden Handlungsempfehlungen zur Auswahl und Nutzung von KI-Systemen werden in einem Leitfaden (MVP) für Unternehmen, staatliche Einrichtungen und Individuen übersichtlich zusammengefasst. Dieser Leitfaden wird laufend weiterentwickelt. Die jeweils aktuelle Fassung ist auf der Plattform https://digital-sovereignty.net abrufbar. Die Autoren freuen sich über Feedback und Ergänzungsvorschläge.
pm3510030
30 PROJEKTMANAGEMENT AKTUELL · 35. Jahrgang · 01/ 2024 DOI 10.24053/ PM-2024-0007 Wie können KI-Systeme sicher und digital souverän eingesetzt werden? -- Ein Leitfaden Handlungsempfehlungen zur sicheren und digital souveränen Nutzung generativer KI-Systeme Ralf Schweifler, Harald Wehnes Für eilige Leser | Die rasant an Bedeutung gewinnenden generativen KI-Systeme, wie ChatGPT und Co., haben einen Mega-Hype erzeugt. Doch müssen wir auch vermehrt die Fallstricke, Risiken und Gefahren dieser neuen Technologie beachten. Nicht um den Hype zu brechen, sondern um einen sicheren und zukunftsorientierten Einsatz von KI-Systemen zu gewährleisten. Eine Schlüsselrolle haben dabei die Auswahl des KI-Systems und dessen Bereitstellungsart. Ausgehend von aktuellen Problembeispielen werden die besonderen Herausforderungen für das Management und die größten Einsatzrisiken analysiert. Daraus resultierend wird erläutert, was beim Einsatz von generativen KI-Systemen besonders zu beachten ist, um beispielsweise Abfluss und Missbrauch sensibler Daten oder rechtliche Probleme zu vermeiden. Die resultierenden Handlungsempfehlungen zur Auswahl und Nutzung von KI-Systemen werden in einem Leitfaden (MVP) für Unternehmen, staatliche Einrichtungen und Individuen übersichtlich zusammengefasst. Dieser Leitfaden wird laufend weiterentwickelt. Die jeweils aktuelle Fassung ist auf der Plattform https: / / digital-sovereignty.net abrufbar. Die Autoren freuen sich über Feedback und Ergänzungsvorschläge. Schlagwörter | Handlungsempfehlungen, Auswahl KI-Systeme, Generative KI-Systeme, Foundation Modelle, ChatGPT, Herausforderungen, Risikomanagement, Leitfaden, sensible Daten, Digitale Souveränität, Datensouveränität Der Einsatz von KI-Systemen entwickelt sich rasant und exponentiell mit bisher nie dagewesenen Chancen aber auch enormen Herausforderungen für Unternehmen, staatliche Einrichtungen und die Gesellschaft. Das gewaltige Spektrum an Möglichkeiten zum Einsatz von KI in der Projektwirtschaft wird in [1] mit 25 Beiträgen von insgesamt 50 Autorinnen und Autoren umfassend beleuchtet. Am KI-Einsatz und den damit verbundenen revolutionären Möglichkeiten kommt heute kaum jemand vorbei. Einige wenige Unternehmen haben bereits jahrelange Erfahrungen, die meisten sind allerdings noch in der Erprobungsphase, die von massiver Dynamik geprägt ist. Es ist wichtig von Anfang an dabei zu sein, um nicht einem fahrenden Zug hinterherschauen zu müssen. Aber der Einsatz muss auch strategisch geplant und mit Augenmaß erfolgen, wobei auch die potentiellen Risiken einzukalkulieren sind. 1. Herausforderungen Unabhängig von der aktuellen Euphorie muss beim KI-Einsatz stets hinreichendes Basiswissen vorhanden sein und eine sorgfältige Zieldefinition, Planung und Vorbereitung vorausgehen. Dabei ist u. a. zu bedenken, dass die neue Technologie zu „Halluzinationen“ neigt, „Tatsachen“ erfindet und diese sogar überzeugend formuliert. Der Abfluss vertraulicher Daten kann dadurch schneller passieren als je zuvor, wie publik gewordene Beispiele [2] zeigen. Selbst Großunternehmen der IT-Branche, wie z. B. Samsung, tun sich diesbezüglich schwer. Amazon, Apple und 12 weitere große Unternehmen haben vorsorglich Beschränkungen für ihre Mitarbeiter verhängt, da sie Datenlecks durch die Nutzung von ChatGPT befürchten [3], und OpenAI ist leider 31 PROJEKTMANAGEMENT AKTUELL · 35. Jahrgang · 01/ 2024 DOI 10.24053/ PM-2024-0007 weit davon entfernt, transparent zu machen, wie eingegebene Daten verwendet werden. Halluzinationen sind besonders kritisch zu bewerten, wenn es um juristische und medizinische Themen oder um Wahlen geht. Es gibt inzwischen eine Reihe von Fällen, in denen ChatGPT Aktenzeichen zu nicht existenten Gerichtsakten erfunden [4] und Falschinformationen zu Wahlen verbreitet hat [5].Abbildung 1 zeigt beispielhaft eine von ChatGPT erfundene „Wahrheit“, die leicht als Fake erkennbar ist. 2. Potentielle Risiken Digitale Souveränität wird vom IT-Planungsrat der Bundesregierung definiert als „ die Fähigkeiten und Möglichkeiten von Individuen und Institutionen, ihre Rolle(n) in der digitalen Welt selbstständig, selbstbestimmt und sicher ausüben zu können “ [6]. Digitale Souveränität bedeutet, dass Bürge- Abbildung 1: Halluzination von ChatGPT 3.5 (Beispiel) rinnen und Bürger, Staat, Organisationen und Unternehmen ohne Bevormundung anderer Staaten oder Big-Tech-Monopolen im digitalen Raum frei handeln können. Sie bildet die Grundlage für wirtschaftliche Prosperität, Sicherheit und den Erhalt unserer Sozialsysteme. Auf den Punkt gebracht: Ohne Digitale Souveränität keine Zukunft für unseren Wirtschaftsraum und unsere Gesellschaft [7]. Man muss sich bewusst machen, dass durch eine bedenkenlose Nutzung von KI-Systemen besorgniserregende Risiken mit irreversiblen Charakter für unsere Digitale Souveränität entstehen können. Die wichtigsten Risiken beim Einsatz generativer KI-Systeme in Bezug auf Digitale Souveränität werden nachfolgend kurz erläutert. Verlust von Datenschutz und Datensouveränität Grundvoraussetzung für ein funktionierendes KI-System bilden Algorithmen und Daten. Die Daten dienen zum Training der Foundation Modelle und werden in großen Mengen benö- Für jede Branche die passende Lösung projektron.de/ branchen PROCESSES Projektportfolio Ressourcenmanagement Multiprojektcontrolling Angebote und Rechnungen Scrum, Kanban, PRINCE2 ® , IPMA, BPMN Anzeige Wissen | Handlungsempfehlungen zur sicheren und digital souveränen Nutzung 32 PROJEKTMANAGEMENT AKTUELL · 35. Jahrgang · 01/ 2024 DOI 10.24053/ PM-2024-0007 tigt, um die Genauigkeit und Richtigkeit der Ergebnisse zu erhöhen und um die sehr aufwendige menschliche Qualitätsbewertung zunehmend zu automatisieren. Diese Daten werden aus den verschiedensten Quellen- - vorzugsweise aus dem Internet-- gesammelt. Woher die Trainingsdaten stammen, ist oftmals nicht transparent. Eine gängige Praxis ist auch das Sammeln von Daten aus der Nutzung der KI-Systeme. Selbst kommerzielle Angebote garantieren nicht, dass eingegebene, potentiell sensible Daten für andere Nutzer nicht als Antwort generiert werden. Somit ergeben sich enorme Risiken bzgl. des Datenschutzes und damit auch der Datensouveränität, da die Anwender de facto nicht bestimmen können, was mit den von ihnen eingegebenen Daten passiert. Cybersecurity KI-Systeme sind anfällig für Angriffe und Missbrauch. Durch die fortschreitenden Fähigkeiten und den Zugriff auf eine Unmenge von Daten steigt die Gefahr von Cyberangriffen, die durch KI-Systeme ausgeführt werden können. Darüber hinaus können KI-Systeme Sicherheitslücken in Software-Quellcodes schneller aufspüren, um selbständig Schadcode zu generieren, der diese Sicherheitslücken ausnutzen kann. Ein noch viel zu wenig beachtetes Sicherheitsrisiko. Verlust von Wissen und steigende Abhängigkeit Von der Nutzung von Navigationssystemen ist bekannt, dass Menschen durch einen Dauereinsatz ihren Orientierungssinn verlieren können [8]. Bei einem unreflektierten Verlassen auf die Ergebnisse von KI-Systemen sind die Auswirkungen wesentlich kritischer und können in den Verlust wichtiger Kompetenzen münden bzw. den Aufbau eigener Erfahrungen und Kompetenzen verhindern. In der Programmierung verlernen zum Beispiel potentiell unerfahrene Nutzer die Fähigkeiten bzw. sind nicht mehr selbstständig dazu in der Lage, Probleme zu lösen bzw. Software professionell zu programmieren und vor allem deren Qualität zu beurteilen. Verstärkt wird die bereits bestehende beängstigende digitale Abhängigkeit durch die Nutzung von Produkten ausländischer Tech-Monopolisten, wie Copilot für Microsoft 365. Sollten diese z. B. durch geopolitische Ereignisse ihre Dienste einstellen müssen, so besteht für die betroffenen Unternehmen und staatlichen Einrichtungen die Gefahr der kompletten Handlungsunfähigkeit [9]. Falsche Informationen KI-Systeme sind in der Lage Deepfakes zu erstellen. Diese täuschend echt aussehenden Videos oder Bilder zeigen vor allem Personen des öffentlichen Lebens und werden zur Verbreitung falscher Informationen und Propaganda genutzt. Des Weiteren besteht das Risiko von Halluzinationen, indem KI- Systeme dem Kontext entsprechende Inhalte erfinden und diese Aussagen mit echt wirkenden, aber gar nicht existierenden, Quellen untermauern. Dadurch wird nicht nur die digitale Souveränität bedroht. Da KI-Systeme in der Lage sind, Meinungen zu beeinflussen und Fakten glaubwürdig zu verändern bzw. vermeintliche zu erfinden, gefährdet dies die demokratische Grundordnung der Gewaltenteilung und eines freien Journalismus. Ethik und Vorurteile KI-Systeme können aufgrund von unvalidierten und vorgefilterten Trainingsdaten [10] oder unangemessener Algorithmen voreingenommen sein (Bias). Dies kann zu ethischen Problemen führen, wie Diskriminierung oder unfairem Verhalten gegenüber bestimmten Personengruppen. Verlust von geistigem Eigentum und Urheberrechtsprobleme Rechtliche Fragen zum geistigen Eigentum können entstehen, insbesondere wenn KI-Systeme auf Daten zurückgreifen, deren Herkunft unklar ist. Die Nutzung von Daten oder Algorithmen, die durch das Urheberrecht geschützt sind, kann rechtliche Konsequenzen haben, wie beispielsweise Schadensersatzforderungen, Unterlassungsansprüche oder juristische Verfahren (vgl. Klage der New York Times gegen OpenAI). 3. Notwendige Management-Entscheidungen Ohne Top Management Entscheidung kein Einsatz von KI. Vor dem Einsatz von KI-Systemen müssen die Verantwortlichen von Unternehmen und Organisationen wichtige strategische Entscheidungen- - unter Abwägung von Chancen und Risiken-- treffen. Hierzu gehören: • Zielsetzung und Einsatzgebiete: Klare strategischen Ziele sind zu definieren, die durch den Einsatz erreicht werden sollen. Soll das System den Kundensupport verbessern, interne Prozesse optimieren, den Programmierbereich unterstützen oder andere spezifische Funktionen erfüllen? • Einstellung von KI-Experten: Sowohl für die Planung als auch für den Einsatz sind Fachexperten erforderlich. Neben der Einstellung ist auch die KI-Ausbildung vorhandener Mitarbeiter und der damit verbundene Aufbau von KI-Expertise wichtig. • Rollen und Verantwortlichkeiten: Durch die Festlegung der Rollen und Verantwortlichkeiten wird sichergestellt, dass alle Aspekte des KI-Einsatzes abgedeckt werden. Typische Rollen sind: Projektportfoliomanager, Projektmanager, Datenschutzbeauftragte, Spezialisten der beteiligten Fachbereiche und IT-Experten. Durch juristische Expertise muss sichergestellt werden, dass der Einsatz rechtlich einwandfrei ist und Unternehmens-, Kundendaten und Daten von Geschäftspartnern ausreichend geschützt sind. • Vorgehensmodell: Die KI-Welt ist derzeit durch eine große Dynamik und „moving targets“ geprägt. Daher bietet sich der Einsatz von agilen Vorgehensmodellen an, z. B. Lean Startup in Kombination mit ScrumBan. • KI-Systemauswahl: Die Sicherheit eines KI-Systems ist von entscheidender Bedeutung, insbesondere wenn es um den Schutz sensibler Daten, die Vermeidung von Sicherheitslücken und die Einhaltung gesetzlicher Bestimmungen geht. Aus rechtlichen Gründen sollten daher möglichst KI-Systeme von Anbietern eingesetzt werden, die ihren juristischen Hauptstandort in der EU haben, wie z. B. Aleph Alpha, DeepL, Mistral AI, Neuroflash, Stable Diffusion oder Synthesia. Die gleichen Voraussetzungen sollten auch die Service-Provider (Cloud-Anbieter) erfüllen, sofern kein Inhouse-Betrieb erfolgt. Für sensible Daten muss stets eine Wissen | Handlungsempfehlungen zur sicheren und digital souveränen Nutzung 33 PROJEKTMANAGEMENT AKTUELL · 35. Jahrgang · 01/ 2024 DOI 10.24053/ PM-2024-0007 interne Lösung, das bedeutet gekapselte Systeme, angestrebt werden, um Datenabfluss zu vermeiden und Datensouveränität von Beginn an sicherzustellen. • Kommunikation und Schulung: Für die Einführung sind Kommunikationsstrategien zu entwickeln sowie Mitarbeiter-Schulungen durchzuführen, damit die KI-Systeme sicher, digital souverän und effektiv genutzt werden können. 4. Handlungsempfehlungen Das Hauptziel dieses Beitrags ist, den Lesern praxisnahe Handlungsempfehlungen zu geben. Die hier aufgeführten Empfehlungen wurden in einer aktuell noch laufenden Masterarbeit von Herrn Ralf Schweifler (Mitautor), Universität Würzburg, erstellt und unterliegen einem permanenten Ergänzungs- und Änderungsprozess. Sie sind im Folgenden auf verschiedene Stakeholder aufgeteilt. Handlungsempfehlungen für staatliche Einrichtungen Die Stärkung der technologischen und digitalen Souveränität Deutschlands ist das Leitmotiv der Digital- und Innovationspolitik (Digitalstrategie 2022 [11]) der Bundesregierung. Da KI-Systeme häufig in Clouds bereitgestellt werden, wurden bei der Erstellung der Handlungsempfehlungen auch die „Kriterien für Souveräne Clouds“ der Datenschutzkonferenz 2023 [12] berücksichtigt. Transparenz, Datensouveränität, Kontrollierbarkeit, Vorhersehbarkeit und Verlässlichkeit sind für einen sicheren KI-Systemeinsatz unabdingbar. Auswahl des KI-Systems • Es dürfen ausschließlich KI-Systeme europäischer Anbieter zum Einsatz kommen. • Kein Einsatz von KI-Systemen von Anbietern mit Monopolstellung am digitalen Markt, da dadurch bestehende digitale Abhängigkeiten verstärkt und digitale Souveränität geschwächt wird. • Das verwendete KI-System muss entweder in Eigenregie, bei einer Organisation des öffentlichen Rechts oder von einem Anbieter mit juristischem Hauptstandort in der EU betrieben werden. • Bei externen KI-Systemen müssen die Daten auf Servern von Unternehmen mit juristischem Hauptstandort in der EU gespeichert und verarbeitet werden. • Anforderungen der DSGVO und des AI Acts müssen erfüllt sein. Kommunikation und Schulung der Mitarbeiter • Mitarbeiter sind über die Möglichkeiten und Grenzen des KI-Einsatzes aufzuklären. • Mitarbeiter sind zu sensibilisieren, dass bei der Nutzung keine personenbezogenen Daten, Daten von Dritten oder sensible Informationen eingeben werden und keine Urheberrechtsverletzungen stattfinden. Umgang mit erhaltenen Antworten • Inhalte, die falsch sind oder suspekt wirken, müssen geprüft werden. Inhalte, die zur Veröffentlichung erstellt wurden, müssen validiert werden. • Anstößige, diskriminierende oder rassistische Inhalte sollten stets gemeldet werden. • Chatbots, die zur öffentlichen Nutzung durch Bürger entwickelt werden, müssen vor der Veröffentlichung auf unangemessene Inhalte sowie deren Resistenz gegenüber gängiger Methoden des KI-Jailbreakings, wie Prompt-Injections, geprüft sein. Darüber hinaus muss eine Funktionalität zur Meldung unangemessener Inhalte bereitgestellt werden. Handlungsempfehlungen für Unternehmen Anders als bei den notwendigen, strengen Vorgaben für die staatlichen Akteure werden hier nur Empfehlungen ausgesprochen. Unternehmensverantwortliche müssen Risiken und Chancen selbstständig abwägen. Sie sollten im Sinne der digitalen Souveränität agieren, um Abhängigkeiten zu minimieren und innovationsfähig zu bleiben. Auswahl des KI-Systems • Nutzung von On-Premise-Lösungen sichern Datensouveränität. • Rechtsstandort und Datenhoheit (sehr wichtig bei Eingabe sensibler Daten): Der juristische Hauptstandort des KI-Systemanbieters sollte in der EU sein, gleiches gilt für den Hosting Partner, falls das System nicht selbst gehostet wird. In diesem Fall sollten auch die physischen Standorte der Serversysteme in der EU sein. • Monopolstellung des Anbieters: Hat der Anbieter eines infrage kommenden KI-Systems eine Monopolstellung am digitalen Markt, so sollte unbedingt eine Alternative mit vergleichbarer Leistung gesucht werden, da sonst Stärkung der Monopolstellung und verstärkte digitale Abhängigkeit. • Die Risikoklassen des AI Acts sind zu beachten. Nutzung externer KI-Systeme • Keine Eingabe sensibler Daten („Kronjuwelen“ des Unternehmens), wie Vertrags- und Ausschreibungsdaten, Passwörter, Kundendaten, Geschäftspartnerdaten, Nutzernamen, Code, interne Dokumente etc. • Risiko von unternehmensspezifischem Know-how-Verlust prüfen und proaktiv Gegenmaßnahmen treffen. Mitarbeiterschulungen • Mitarbeiter über Möglichkeiten und Grenzen von KI-Tools aufklären. • Mitarbeiter bezüglich unbeabsichtigter Weitergabe von Betriebsgeheimnissen, Urheber- und Datenschutzverletzungen sensibilisieren. Umgang mit erhaltenen Antworten • Mehrere Quellen konsultieren und sich nicht nur auf die KI verlassen. • Generierte Inhalte, die veröffentlicht werden sollen, müssen durch einen erfahrenen Experten geprüft werden, bspw. Senior-Entwickler für QA bei Software. • Anstößige, diskriminierende oder rassistische Inhalte sollten stets gemeldet werden. • Bei Themen, die nicht so einfach auf traditionellem Weg validierbar sind: Gleicher Prompt in einem anderen (vom Unternehmen erlaubten externen) KI-System eingeben. Wissen | Handlungsempfehlungen zur sicheren und digital souveränen Nutzung 34 PROJEKTMANAGEMENT AKTUELL · 35. Jahrgang · 01/ 2024 DOI 10.24053/ PM-2024-0007 Handlungsempfehlungen für Individuen Die Handlungsempfehlungen für Individuen stellen reine Empfehlungen dar, um die digitale Souveränität eines jeden Einzelnen bestmöglich zu wahren und zu steigern. Da die meisten Personen im privaten Umfeld gängige kostenlose KI-Modelle, wie ChatGPT, nutzen und nicht die Möglichkeit haben, eigene zu hosten, ist es besonders wichtig auf Datensouveränität und Datenschutz zu achten und den richtigen Umgang zu erlernen. Auswahl des KI-Systems • Die KI sollte auf die persönlichen Ziele und Bedürfnisse ausgelegt sein, um das beste Ergebnis aus den Anfragen zu erzielen. • Wenn es möglich und sinnvoll ist, sollten Alternativen genutzt werden bzw. alternative Wege in Kombination mit KI- Lösungen. • Wenn immer möglich sollten KI-Systeme europäischer Anbieter mit Hosting in der EU eingesetzt werden. Private Nutzung eines KI-Systems • Einsatzspektrum: Persönliche Weiterbildung; Brainstorming, Recherche, Zusammenfassungen etc. • Kritisch: Lebensläufe mit ChatGPT teilen, um Feedback zu erhalten, u. ä. • Fehlendes eigenes Know-How kann zu fehlerhaften Antworten des KI-Systems führen, die kaum überprüfbar sind. Umgang mit erhaltenen Antworten • Kritischer Umgang mit den vom KI-System generierten Ergebnissen trotz überzeugender Formulierungen und Inhalte. • Mehrere Quellen konsultieren und sich nicht nur auf die KI verlassen. • Anstößige, diskriminierende oder rassistische Inhalte sollten stets gemeldet werden. 5. Fazit und Ausblick Die digitale Abhängigkeit Deutschlands hat ein besorgniserregendes Ausmaß erreicht. Experten sprechen bereits davon, dass wir uns auf dem Weg in eine digitale Kolonie befinden. Vor diesem Hintergrund sind die Chancen und Risiken von KI-Systemen vor ihrem Einsatz besonders kritisch zu prüfen. Die aktuelle Euphorie soll damit nicht gestoppt oder reduziert, sondern in sichere und digital souveräne Bahnen gelenkt werden. Zu Beginn des Beitrags wurden die wichtigsten Herausforderungen und Risiken beleuchtet, die mit dem Einsatz von KI-Systemen verbunden sind: Verlust von Datenschutz, Datensouveränität, Wissen und geistigem Eigentum sowie die Gefahren bezüglich Cybersecurity, steigender digitaler Abhängigkeit, Diskriminierungen, Urheberrechtsverletzungen u. ä. Vor einem KI-Einsatz in Unternehmen und Organisationen sind stets strategische Managemententscheidungen zu treffen. Um die aufgeführten Risiken zu vermeiden, müssen bei der Auswahl eines KI-Systems neben der Leistungsfähigkeit stets auch die Aspekte Sicherheit und digitale Souveränität berücksichtigt werden. Konkret bedeutet dies vorrangig KI-Systeme einzusetzen, die von Anbietern stammen, die der EU-Gesetzgebung unterliegen. Falls die Systeme nicht selbst betrieben werden, muss sichergestellt sein, dass auch die Betreiber (Service Provider) ihren juristischen Hauptsitz in der EU haben und die physischen Systeme in der EU stehen. Das Management muss auch die notwendigen Rahmenbedingungen für einen erfolgreichen KI-Einsatz schaffen: Zielsetzung, Organisation und Prozesse, Bereitstellung der erforderlichen Ressourcen, Vorgehensmodell, Kommunikation, Schulung etc. Aufgrund der hohen Dynamik am „KI-Markt“ haben wir es mit einem „moving target“ zu tun. Dementsprechend muss auch das Management agil agieren. Für die Unternehmen ist besonders wichtig, dass ihre digitalen „Kronjuwelen“ ausreichend geschützt sind. Den Mitarbeitern ist der Paradigmenwechsel in der Verantwortlichkeit bewusst zu machen: Während bisher die interne IT die Mitarbeiter vor einer falschen IT-Verwendung geschützt hat, tragen beim Einsatz eines externen KI-Systems die Mitarbeiter selbst die Verantwortung für eine fehlerhafte Nutzung. Hauptziel dieses Beitrags ist, den Lesern praxisnahe Handlungsempfehlungen zu geben. Diese Liste der Empfehlungen ist nicht abschließend. Die Autoren freuen sich über Feedback, Ergänzungs- und Änderungsvorschläge. Die jeweils aktuelle Fassung ist auf der Plattform https: / / digitalsovereignty.net abrufbar. Um zukünftig das Auswahlverfahren für KI-Systeme zu erleichtern, benötigen wir in Deutschland dringend breit gestreute KI-Labore, die zum einen in der Lage sind KI-Systeme zu testen, aber auch KI-Systemen Gütesiegel zu verleihen [13]. Zusätzlich ist es notwendig, dass angewandte Wissenschaft, die Industrie und vor allem KMUs an diesen KI-Laboren beteiligt werden. Literatur [1] Bernert, C.; Scheurer, S.; Wehnes, H. (2024): KI in der Projektwirtschaft, UVK Verlag, München. [2] Donath, A. (2023): Samsung-Ingenieure geben ChatGPT vertrauliche Daten preis. https: / / www.golem.de/ news/ kuenstliche-intelligenz-samsung-ingenieure-leakeninterne-daten-an-chatgpt-2304-173 220.html [3] Mok, A. (2023): Amazon, Apple, and 12 other major companies that have restricted employees from using ChatGPT. https: / / www.businessinsider.com/ chatgptcompanies-issued-bans-restrictions-openai-ai-amazonapple-2023-7 [4] Hiltscher, J. (2023): ChatGPT erfindet Gerichtsakten. https: / / www.golem.de/ news/ halluzination-chatgpterfindet-gerichtsakten-2305-174 509.html [5] Endt, C.; von Lindern, J. (2023): Microsofts Chatbot verbreitete Falschinformationen zu Landtagswahlen. https: / / www.zeit.de/ digital/ 2023 - 10/ bing-ki-microsoftbayern-landtagswahl-falschinformationen [6] Bundesministerium des Inneren (2020): Digitale Souveränität. https: / / www.cio.bund.de/ Webs/ CIO/ DE/ digitaleloesungen/ digitale-souveraenitaet/ digitale-souveraeni taet-node.html Wissen | Handlungsempfehlungen zur sicheren und digital souveränen Nutzung 35 PROJEKTMANAGEMENT AKTUELL · 35. Jahrgang · 01/ 2024 DOI 10.24053/ PM-2024-0007 Ralf Schweifler Ralf Schweifler ist Masterstudent der Informatik an der Universität Würzburg. In seiner Masterarbeit behandelt er das Thema „Digitale Nachhaltigkeit: Betrachtung und Evaluation von digitaler Souveränität in Verbindung mit der Nutzung von KI“. eMail: ralf.schweifler@stud-mail.uni-wuerzburg.de Prof. Dr. Harald Wehnes Prof. Dr. Harald Wehnes hat jahrzehntelange Erfahrungen als Führungskraft und Projektmanager in der Wirtschaft und Großforschung. Seit 2000 hält er Vorlesungen zu Projektmanagement und Start-ups an der JMU Würzburg. Bei der GPM leitet er seit 2024 die Fachgruppe „PM an Hochschulen“, die mit 400 Professoren und Dozenten des PM das größte Hochschulnetzwerk im deutschsprachigen Raum ist. Seit Anfang 2024 ist er Mitglied des Präsidiums der Gesellschaft für Informatik e. V. Julius-Maximilians-Universität Würzburg Institut für Informatik Am Hubland 97 074 Würzburg eMail: wehnes@informatik.uni-wuerzburg.de [7] Wehnes, H.; Bacharach, G. (2023): Digital souveränes Projektmanagement- - Wie geht das? Projektmanagement aktuell , 34 (5), 50-54. [8] Weber, C. (2023): Verlieren wir durch Navis unseren Orientierungssinn? https: / / www.zeit.de/ zeit-wissen/ 2015/ 02/ orientierung-verlust-navigationsgeraete [9] Mahn, J.; Wölbert, C. (2020): Die riskante Abhängigkeit der Bundesrepublik von amerikanischen IT-Riesen. https: / / www.heise.de/ hintergrund/ Die-riskante-Ab haengigkeit-der-Bundesrepublik-von-amerikanischen-IT- Riesen-4 881 155.html [10] Weiß, E. M. (2023): Google ändert Nutzungsbedingungen: Alles darf für KI-Training genutzt werden. https: / / www.heise.de/ news/ Google-aendert-Nutzungsbedingungen-Alles-darf-fuer-KI-Training-genutzt-werden-9 207 556.html [11] Bundesministerium für Digitales und Verkehr (BMDV): Digitalstrategie 2022. https: / / bmdv.bund.de/ Shared Docs/ DE/ Anlage/ K/ presse/ 063-digitalstrategie.pdf? __ blob=publicationFile [12] Datenschutzkonferenz (2023): Kriterien für Souveräne Clouds. https: / / datenschutzkonferenz-online.de/ media/ weitere_dokumente/ 2023-05-11_DSK-Positionspapier_ Kritierien-Souv-Clouds.pdf [13] Mittelstand-Digital Zentrum WertNetzWerke (2024). https: / / www.mittelstand-digital-wertnetzwerke.de Eingangsabbildung: © iStock.com / Blue Planet Studio Anzeige Welche Möglichkeiten haben Start-ups und KMUs, mit den gegebenen Mitteln und Fähigkeiten ihre Zielmärkte so zu analysieren, dass sich adäquate Entscheidungen treffen lassen? Welche Quellen und Strategien eignen sich für eine sachgemäße Marktrecherche und welche Entscheidungsmethoden sollten zum Einsatz kommen? Einer der häufigsten Gründe, warum Start-ups, Solo-Entrepreneure und Innovationsprojekte von KMUs scheitern, ist der, dass sie ihre Märkte falsch einschätzen. In diesem Buch erfahren Sie, welche Methoden und Prozesse geeignet sind, um ein Scheitern zu vermeiden. Dabei wird die Marktrecherche eng an die Entwicklung des Geschäftsmodells gekoppelt und es werden konkret umsetzbare Handlungsempfehlungen gegeben, welche die besonderen Herausforderungen innerhalb der frühen Gründungsphase und im Innovationsprozess berücksichtigen. Sebastian Pioch Von der Marktrecherche zum innovativen Geschäftsmodell Erfolgskonzepte für Start-ups und KMUs 1. Auflage 2024, 191 Seiten, €[D] 29,90 ISBN 978-3-381-11081-0 eISBN 978-3-381-11082-7 Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spra cherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwis senschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kultur wissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen \ Fremdsprachendidaktik \ DaF \ Germanistik \ Literaturwissenschaft \ Rechtswissenschaft \ Historische Sprachwissenschaft \ Slawistik \ Skandinavistik \ BWL \ Wirtschaft \ Tourismus \ VWL \ Maschinenbau \ Politikwissenschaft \ Elektrotechnik \ Mathematik & Statistik \ Management \ Altphilologie \ Sport \ Gesundheit \ Romanistik \ Theologie \ Kulturwissenschaften \ Soziologie \ Theaterwissenschaft \ Geschichte \ Spracherwerb \ Philosophie \ Medien- und Kommunikationswissenschaft \ Linguistik \ Literaturgeschichte \ Anglistik \ Bauwesen Narr Francke Attempto Verlag GmbH + Co. KG \ Dischingerweg 5 \ 72070 Tübingen Tel. +49 (0)7071 97 97 0 \ Fax +49 (0)7071 97 97 11 \ info@narr.de \ www.narr.de