November 13, 2024

Ethik und Sicherheit in der KI: Neue Jobprofile für eine verantwortungsvolle Zukunft

Die neu entstandenen Herausforderungen rund um KI erfordern neue Berufsbilder oder vor allem Spezialisierungen an der Schnittstelle von Technologie, Ethik und Sicherheit.

Auf der Suche nach neuen Mitarbeitenden?
Kontaktieren Sie uns gerne für eine unverbindliche Beratung

Am 1. August 2024 trat der europäische AI Act in Kraft – womöglich ein kritischer Wendepunkt bei der Entwicklung der künstlichen Intelligenz: Während diese EU KI-Verordnung als weltweit erste umfassende KI-Regulierung neue Maßstäbe für sichere und ethische KI setzt, sehen viele Unternehmen dadurch die Innovationskraft Europas im Keim erstickt.
Im selben Moment warnt der aktuelle Microsoft Digital Defense Report 2024 vor einer dramatischen Zunahme KI-gestützter Cyberangriffe – mit Deutschland als einem Hauptziel. Die Bedrohungen reichen hierbei von täuschend echten Deepfakes bis hin zu automatisierten Hackerangriffen, die traditionelle Sicherheitssysteme überlisten.

Und dann werfen Forschende am Max-Planck-Institut für Bildungsforschung weiterhin alarmierende Fragen auf: Wie können wir sicherstellen, dass KI-Systeme nicht manipulativ in menschliches Verhalten eingreifen? Und wie verhindern wir, dass automatisierte Entscheidungssysteme bestehende gesellschaftliche Vorurteile verstärken?

All diese Herausforderungen erfordern neue Berufsbilder oder vor allem Spezialisierungen an der Schnittstelle von Technologie, Ethik und Sicherheit. Expert:innen, die sowohl die technischen Feinheiten als auch die ethischen Implikationen von KI verstehen, werden zu Schlüsselfiguren – denn am Ende geht es um Machbarkeit, Risiken und Wirtschaftlichkeit.

AI Security in der Entwicklung

Der EU AI Act etabliert strenge Sicherheitsanforderungen für die Entwicklung und den Einsatz von KI-Systemen. Im Zentrum steht dabei ein risikobasierter Ansatz, der KI-Anwendungen in verschiedene vier Risikostufen einteilt: unannehmbares Risiko, hohes Risiko, begrenztes Risiko und minimales Risiko (Abb. 1). Besonders bei Hochrisiko-Anwendungen, wie etwa in den Bereichen kritischer Infrastrukturen oder Personalverwaltung, müssen Unternehmen umfangreiche technische und organisatorische Maßnahmen implementieren:

  • Dokumentation der technischen Robustheit und Zuverlässigkeit
  • Implementierung von Qualitätsmanagementsystemen
  • Gewährleistung menschlicher Aufsicht
  • Nachweis der technischen Genauigkeit

Während die Grundidee einer KI-Regulierung begrüßt wird, weist der KI Bundesverband auf kritische Schwachstellen hin, die insbesondere europäische Start-ups und KMUs betreffen.

(Abb. 1, EU AI Act Risikostufen, LinkedIn)

Zentrale Kritikpunkte des KI-Verbands

Eine wesentliche Sorge betrifft die zu weit gefasste Definition von KI-Systemen. Die aktuelle Definition würde nahezu jede Software einschließen, die statistische Verfahren oder Such- und Optimierungsverfahren einsetzt - auch ohne eigentlichen KI-Bezug. Dies schafft erhebliche Rechtsunsicherheit für Unternehmen.

Besonders problematisch ist auch die Definition von Hochrisiko-Anwendungen, die nach Einschätzung des Verbands zu breit angelegt ist. Auch Anwendungen mit geringem Risikopotenzial fallen unter strenge Auflagen, was zu unverhältnismäßigem Aufwand führt.

Wettbewerbsfähigkeit in Gefahr

Der KI-Verband warnt vor einem möglichen Wettbewerbsnachteil gegenüber amerikanischen und chinesischen Konkurrenten. Die hohe Komplexität der Regulierung und die damit verbundenen bürokratischen Anforderungen könnten die Entwicklung europäischer KI-Innovationen verlangsamen oder schlicht behindern.

Chancen durch Compliance

Trotz der Kritikpunkte bietet der AI Act auch Chancen. Unternehmen, die sich frühzeitig auf die Anforderungen einstellen, können sich als Vorreiter im Bereich sicherer und vertrauenswürdiger KI positionieren. Eine gut durchdachte und rechtlich konforme Entwicklung verhindert nicht nur spätere Nachbesserungen, sondern stärkt auch das Vertrauen der eigenen Klientel.

Während der EU AI Act die Sicherheit in der Entwicklung von KI-Systemen reguliert und dabei kontrovers diskutiert wird, steht die IT-Sicherheit vor einer ganz anderen Herausforderung: KI-gestützte Cyberangriffe nehmen drastisch zu und erfordern neue Verteidigungsstrategien. 

IT Security: Die wachsende Bedrohung durch KI-gestützte Cyberangriffe

Wie jedes Werkzeug in der Menschheitsgeschichte bringt auch die Entwicklung und der Einsatz von Künstlicher Intelligenz neben Chancen auch erhebliche Sicherheitsrisiken mit sich. Wie eingangs erwähnt zeigt der Microsoft Digital Defense Report 2024 eine dramatische Zunahme KI-gestützter Cyberangriffe, wobei die Zahl der blockierten Angriffe von 35,7 Milliarden im Jahr 2021 auf 156 Milliarden im Jahr 2023 gestiegen ist. Neben der Anzahl der Angriffe ist auch ihre Komplexität gestiegen, und ja, leider hebt KI diese sprichwörtlich auf die nächste Stufe.

Aktuelle Bedrohungslandschaft

Cyberkriminelle setzen KI-Technologien zunehmend für hochentwickelte Angriffsmethoden ein. Besonders besorgniserregend ist der Einsatz von KI zur Automatisierung und Skalierung von Cyberangriffen. Kriminelle nutzen fortschrittliche KI-Modelle, um täuschend echte Phishing-E-Mails zu erstellen, Social Engineering-Angriffe zu optimieren und Sicherheitslücken in Systemen automatisch zu identifizieren. Kritisch ist dabei die Erstellung täuschend echter Social-Engineering-Inhalte, die selbst erfahrene Nutzer in die Irre führen können. 

Die zunehmende Zusammenarbeit zwischen cyberkriminellen Gruppen und staatlichen Akteuren, die Werkzeuge und Techniken austauschen, verschärft diese Situation zusätzlich. Deutschland ist dabei besonders im Fokus der Angreifer, mit einer überdurchschnittlich hohen Anzahl an gezielten Attacken auf Unternehmensinfrastrukturen. 

Herausforderungen für die Verteidigung

Eine besondere Herausforderung stellt die hohe Geschwindigkeit und Dynamik dar, mit der Cyberkriminelle ihre Angriffsmethoden anpassen und weiterentwickeln. Dies erfordert von Unternehmen neue, agilere Ansätze in der Cybersicherheit –  sie müssen dazu ihre Verteidigungsstrategien grundlegend überdenken und KI-gestützte Sicherheitssysteme zur Früherkennung implementieren.

Notwendige Gegenmaßnahmen

Die effektive Abwehr dieser neuen Bedrohungen erfordert einen ganzheitlichen Ansatz. Dieser Ansatz ist nicht neu und generell erfordert in der IT-Sicherheit. Unternehmen müssen nicht nur in moderne Sicherheitstechnologien investieren, sondern auch ihre Mitarbeitenden regelmäßig zu aktuellen Bedrohungen und Social-Engineering-Versuchen schulen. Wichtig ist dabei das kontinuierliche Monitoring verdächtiger Aktivitäten und die Stärkung der internationalen Zusammenarbeit in der Cybersicherheit. Nur durch koordinierte Anstrengungen kann der zunehmenden Professionalisierung der Angreifer begegnet werden.

Praktische Sicherheitsmaßnahmen

Unternehmen können konkrete Schritte unternehmen:

  • Implementierung von Security-by-Design-Prinzipien
  • Regelmäßige Sicherheitsaudits und Penetrationstests
  • Aufbau eines KI-Risikomanagement-Systems
  • Schulung der Mitarbeitenden in IT-Sicherheit
  • Einstellung von Sicherheitsexpert:innen und Aufbau von IT-Security-Teams

Während die technische Sicherheit von KI-Systemen eine grundlegende Voraussetzung für deren Einsatz ist, werfen die ethischen Aspekte der KI-Nutzung noch komplexere Fragen auf. Im folgenden Kapitel betrachten wir, wie Unternehmen ethisch vertretbare KI-Lösungen entwickeln und implementieren können. Dabei geht es um fundamentale Fragen der Fairness, Transparenz und Verantwortlichkeit im Umgang mit KI-Technologien.

AI Ethics: Die moralische Dimension der künstlichen Intelligenz

Widmen wir uns nun den ethischen Herausforderungen, die KI mit sich bringt. Hier geht es um tiefgreifende ethische Fragen aufgeworfen, die unsere Gesellschaft als Ganzes betreffen.

Grundlegende ethische Prinzipien

Bernd Irlenbusch, ein Experte auf diesem Gebiet, identifiziert fünf Hauptbereiche ethischer Herausforderungen im Zusammenhang mit KI:

  1. Diskriminierung und Fairness
  2. Transparenz und Erklärbarkeit
  3. Verantwortlichkeit und Kontrolle
  4. Datenschutz und Sicherheit
  5. Verlässlichkeit und Schutz

Diese Bereiche überschneiden sich oft und bilden die Grundlage für viele ethische Diskussionen rund um KI.

Transparenz als Schlüssel

Ein zentrales Thema in der KI-Ethik ist Transparenz. Valère Rames, ein Deep Tech- und Algorithmus-Experte, betont die Wichtigkeit der Transparenz bei KI-Systemen. Er argumentiert, dass die Entscheidungsprozesse von KI-Algorithmen möglichst verständlich und erklärbar sein sollten, um das Vertrauen der Öffentlichkeit zu stärken und einen verantwortungsvolleren Umgang mit der Technologie zu fördern.

Vielfalt und Inklusion

Ein weiterer wichtiger Aspekt ist die Berücksichtigung von Vielfalt und Inklusion bei der Entwicklung von KI-Systemen. Rames weist darauf hin, dass KI-Systeme, die mit unzureichenden oder einseitigen Daten trainiert werden, kulturelle und soziale Vorurteile verstärken können. Um diesem Problem entgegenzuwirken, ist es grundlegend, diverse Entwicklungsteams zu fördern und inklusive Praktiken während des gesamten Entwicklungsprozesses anzuwenden.

Die Hochkonjunktur und der Fall der KI-Ethik

Interessanterweise hat die KI-Ethik in den letzten Jahren eine Achterbahnfahrt erlebt. Wie die Kalaidos Fachhochschule berichtet, gab es zunächst eine Hochkonjunktur der KI-Ethik, ausgelöst durch warnende Stimmen wie die von Nick Bostrom und verstärkt durch die Einführung von ChatGPT. Prominente Persönlichkeiten wie Elon Musk und Stephen Hawking forderten strenge Regulierungen.

Jedoch folgte auf diesen Höhepunkt ein schneller Wandel zum ethischen Pragmatismus. Der praktische Nutzen und wirtschaftliche Interessen traten in den Vordergrund, oft auf Kosten ethischer Prinzipien. Ein Beispiel dafür ist die Verwendung von KI in militärischen Anwendungen, die trotz ursprünglicher ethischer Bedenken zunehmend akzeptiert wurde.

Die Zukunft der KI-Ethik

Trotz dieser Herausforderungen gibt es Hoffnung für die Zukunft der KI-Ethik. Experten betonen die Notwendigkeit strengerer regulatorischer Rahmenwerke, die Integration ethischer Prinzipien in den Entwicklungsprozess und die Wichtigkeit öffentlicher Aufklärung. Unabhängige Audits und Zertifizierungen für ethische KI sowie internationale Zusammenarbeit werden als wichtige Schritte nach vorne gesehen.

Neue sowie spezialisierte KI Job-Profile

Die wachsenden Anforderungen an Sicherheit und ethische Verantwortung in der KI-Entwicklung prägen den Arbeitsmarkt der Zukunft: Während etablierte KI-Rollen wie Machine Learning Engineers und Data Scientists teilweise neue Expertise in Cybersicherheit und ethischer KI-Entwicklung aufbauen müssen, entstehen parallel völlig neue Berufsprofile. Gefragt sind Spezialist:innen, die KI-Systeme nicht nur entwickeln und implementieren, sondern auch deren Sicherheit gewährleisten und ethische Leitplanken setzen können. 

KI-Berater / AI Consultant

KI-Berater:innen fungieren als Brücke zwischen technischen KI-Experten und Entscheidungsträgern im Unternehmen. Sie führen “AI-Readiness-Assessments” durch, entwickeln passgenaue KI-Strategien und identifizieren Geschäftsprozesse, die durch KI optimiert werden können. Dabei müssen sie ethische Implikationen und Compliance-Anforderungen im Blick behalten. Erfolgreiche KI-Berater:innen vereint tiefgreifendes technisches Wissen mit exzellenten kommunikativen Fähigkeiten, um komplexe KI-Konzepte für alle Stakeholder verständlich zu machen.

Zentrale Aufgabenbereiche

  • Entwicklung passgenauer KI-Strategien unter Berücksichtigung ethischer und rechtlicher Aspekte
  • Schulung von Führungskräften und Mitarbeitern zu KI-Grundlagen und -Potenzialen

AI Strategist

Ein AI Strategist ist für die langfristige Vision und Planung des KI-Einsatzes im Unternehmen verantwortlich. Er oder sie entwickelt eine umfassende KI-Roadmap, die mit der Gesamtstrategie des Unternehmens abgestimmt ist, und priorisiert KI-Initiativen basierend auf Geschäftswert und technischer Machbarkeit. Dabei muss die ethische Ausrichtung aller KI-Initiativen sichergestellt und KPIs zur Messung des Erfolgs entwickelt werden. Erfolgreiche AI Strategists kombinieren technisches Verständnis mit strategischem Denken und einem ausgeprägten Geschäftssinn.

Zentrale Aufgabenbereiche

  • Entwicklung einer KI-Roadmap unter Berücksichtigung ethischer Aspekte
  • Kontinuierliche Marktbeobachtung und Trendanalyse im KI-Bereich

KI-Manager / KI-Projektmanager

KI-Manager koordinieren die Umsetzung von KI-Projekten. Sie planen und überwachen den gesamten Projektlebenszyklus, leiten interdisziplinäre Teams und sorgen für die Einhaltung von Datenschutz- und Sicherheitsvorgaben. Professionelle KI-Manager vereinen technisches Know-how mit Führungs- und Kommunikationsstärke, um eine reibungslose Zusammenarbeit mit allen Stakeholdern zu gewährleisten.

Zentrale Aufgabenbereiche

  • Projektmanagement und Problemlösung: Planung, Überwachung und Risikomanagement bei technischen und ethischen Herausforderungen.
  • Compliance und Datenschutz: Sicherstellung der Einhaltung von Datenschutz- und Sicherheitsrichtlinien.

KI-Produktmanager

KI-Produktmanager sind für die Entwicklung und Markteinführung KI-basierter Produkte oder Dienstleistungen verantwortlich. Sie analysieren den Markt, definieren Produktvisionen und arbeiten eng mit den Entwicklungsteams zusammen. Dabei behalten sie stets die Benutzerfreundlichkeit und Zugänglichkeit der KI-Produkte im Blick und berücksichtigen ethische Aspekte sowie potenzielle Bias (systematische Verzerrungen in Daten oder Algorithmen, die zu unfairen oder diskriminierenden Ergebnissen führen können). Erfolgreiche KI-Produktmanager vereinen ein tiefes Verständnis für KI-Technologien mit Kenntnissen über Marktdynamiken und Nutzerverhalten.

Zentrale Aufgabenbereiche

  • Benutzerfreundlichkeit und ethische Vertretbarkeit: Sicherstellung, dass KI-Produkte intuitiv und fair sind, ohne diskriminierende Verzerrungen.
  • Kontinuierliche Verbesserung: Optimierung der Produkte auf Basis von Nutzerfeedback und ethischen Überlegungen.

Data Governance Specialist

Data Governance Specialists spielen eine kritische Rolle bei der verantwortungsvollen Verwaltung von Daten für KI-Systeme. Sie entwickeln und implementieren Datenmanagement-Richtlinien, stellen die Einhaltung von Datenschutzgesetzen sicher und überwachen die Datenqualität und -integrität für KI-Anwendungen. Dabei arbeiten sie eng mit KI-Ethiker:innen zusammen, um eine ethische Datennutzung zu gewährleisten. Gute Data Governance Specialists haben ein tiefes Verständnis für Datenmanagement, Compliance und KI-Technologien.

Zentrale Aufgabenbereiche

  • Implementierung von Datensicherheitsmaßnahmen zum Schutz sensibler Informationen
  • Schulung von Mitarbeitern in Bezug auf Datenschutz und verantwortungsvolle Datennutzung

KI-Sicherheitsexperte / AI Security Specialist

AI Security Specialists sind die Wächter der KI-Systeme, die sowohl technische Expertise in KI als auch fundierte Kenntnisse der Cybersicherheit vereinen. Sie entwickeln und implementieren Sicherheitsframeworks für KI- und Machine-Learning-Systeme, führen Risikoanalysen durch und schützen KI-Anwendungen vor Manipulationen wie Adversarial Attacks oder Data Poisoning. In einer Zeit, in der KI-gestützte Cyberangriffe dramatisch zunehmen, sind sie kritisch für den Schutz sensibler Daten und die Integrität von KI-Systemen. Erfolgreiche KI-Sicherheitsspezialist:innen sollten neue Bedrohungsszenarien antizipieren und Sicherheitsstrategien entsprechend anpassen.

Zentrale Aufgabenbereiche

  • Entwicklung und Implementierung von KI-spezifischen Sicherheitsprotokollen und Schutzmaßnahmen
  • Durchführung von Sicherheitsaudits und Penetrationstests für KI-Systeme unter Berücksichtigung ethischer Richtlinien

Deep Learning Engineer

Deep Learning Engineers entwickeln und optimieren komplexe neuronale Netzwerke für verschiedene Anwendungsbereiche. Sie designen und implementieren Deep Learning-Architekturen, optimieren Modelle hinsichtlich Genauigkeit und Effizienz und arbeiten eng mit Domain-Experten zusammen. Dabei müssen sie stets ethische Aspekte wie Fairness und Interpretierbarkeit bei der Modellentwicklung berücksichtigen. Erfolgreiche Deep Learning Engineers bringen fundierte Kenntnisse in Mathematik, Statistik und Programmierung sowie ein tiefes Verständnis für neuronale Netzarchitekturen mit. Lesen Sie dazu auch unseren Artikel: Die Evolution von Machine Learning-Positionen

Zentrale Aufgabenbereiche

  • Optimierung von Modellen unter Berücksichtigung ethischer Aspekte wie Fairness und Interpretierbarkeit
  • Implementierung von Transfer Learning und Few-Shot Learning-Methoden (beides Techniken, bei denen Modelle mit nur wenigen Trainingsbeispielen lernen können, anstatt auf große Datenmengen angewiesen zu sein).

KI-Trainer / AI Trainer

KI-Trainer (oft auch Machine Learning Trainer genannt) sind spezialisiert auf das effektive Training und Fine-Tuning von KI-Modellen. Sie wählen geeignete Trainingsdaten aus, entwickeln Strategien zur Verbesserung der Modellgenauigkeit und implementieren Techniken wie Data Augmentation. Dabei arbeiten sie eng mit Ethiker:innen zusammen, um Bias in Trainingsdaten zu erkennen und zu minimieren. Professionelle KI-Trainer benötigen ein tiefes Verständnis für Machine Learning-Algorithmen, Datenanalyse und ethische Aspekte des KI-Trainings.

Zentrale Aufgabenbereiche

  • Erkennung und Minimierung von Bias in Trainingsdaten
  • Dokumentation von Trainingsprozessen für Transparenz und Reproduzierbarkeit

KI-Ethiker:innen

KI-Ethiker:innen gewährleisten die verantwortungsvolle KI-Entwicklung und -Nutzung. Sie entwickeln ethische Richtlinien, führen ethische Folgenabschätzungen durch und beraten Entwicklungsteams zu ethischen Aspekten während des gesamten Entwicklungsprozesses. Dabei fördern sie auch den öffentlichen Dialog über ethische Aspekte der KI. Dazu benötigen sie ein interdisziplinäres Verständnis von Philosophie, Technologie und Gesellschaftswissenschaften.

Zentrale Aufgabenbereiche

  • Durchführung ethischer Folgenabschätzungen für KI-Anwendungen
  • Schulung von Mitarbeitern zu ethischen Fragen im Zusammenhang mit KI

(KI) Prompt Engineer

Prompt Engineers sind Spezialist:innen für die Optimierung der Interaktion zwischen Menschen und KI-Systemen. Sie entwickeln und optimieren Prompts für verschiedene Anwendungen, analysieren und verbessern die Ausgabequalität von KI-Modellen und arbeiten eng mit UX-Designern zusammen. Dabei berücksichtigen sie ethische Aspekte bei der Gestaltung von Prompts und Interaktionen. Sie brauchen dazu umfassende Kenntnisse in natürlicher Sprachverarbeitung, Kognitionswissenschaften und Mensch-Maschine-Interaktion mit.

Zentrale Aufgabenbereiche

  • Optimierung von Prompts unter Berücksichtigung ethischer Aspekte
  • Kontinuierliche Evaluation und Anpassung basierend auf Nutzerfeedback

Fazit

Die wachsenden Anforderungen an Sicherheit und ethische Verantwortung in der KI-Entwicklung prägen den Arbeitsmarkt der Zukunft maßgeblich. Neue Jobprofile wie KI-Ethiker, AI Security Specialists oder Data Governance Specialists entstehen, während sich bestehende Rollen wie die des Machine Learning Engineers oder Data Scientists um Kompetenzen in Cybersicherheit und ethischer KI-Entwicklung erweitern.
Diese Entwicklung wird durch zwei parallel verlaufende Trends getrieben: Einerseits schafft der EU AI Act einen verbindlichen Rahmen für die sichere und ethische Entwicklung von KI-Systemen, andererseits nimmt die Bedrohung durch KI-gestützte Cyberangriffe dramatisch zu. KI-Expert:innen der Zukunft bringen ein tiefes Verständnis für ethische Implikationen und Sicherheitsaspekte mit.
Für Unternehmen bedeutet dies, dass sie nicht nur in Technologie, sondern vor allem in Menschen investieren müssen, die KI verantwortungsvoll und sicher entwickeln und einsetzen können. Nur so können sie die Chancen der KI nutzen und gleichzeitig den wachsenden Herausforderungen sowie Regularien in den Bereichen Sicherheit und Ethik gerecht werden.

Weiterlesen im Thema KI: 

Schafft KI mehr Arbeitsplätze, als sie vernichtet?

Spezialisierung im Bereich Künstliche Intelligenz – Generalist vs. Spezialist

Learning and Development im Bereich Cybersicherheit

Learning and Development meets KI und Machine Learning

Wie Sie Cloud Expert:innen im Zeitalter von KI und Cybersecurity finden

Weitere Fragen zu diesem Thema?

Abonnieren Sie unseren Newsletter