Soziale Auswirkungen des Einsatzes von „schwacher KI“ in der Industrie

14. Apr 2020 | 0 Kommentare

Da sich der Begriff „KI“ (künstliche Intelligenz) und die Unterscheidung von „schwacher KI“ und „starker KI“ im Digitalisierungsdiskurs etabliert haben, nutze ich diesen auch, obwohl die allermeisten Experten sagen, dass der KI-Begriff irreführend ist. Die Nutzung des Begriffs „Intelligenz“ suggeriert, dass eine Maschine so „denken“ könnte wie ein Mensch. Bis heute ist unklar, was Intelligenz genau ist und was sie alles umfasst. Ebenso muss man davon ausgehen, dass Maschinen anders „denken“ als Menschen. Insofern ist der Begriff irreführend.

Menschliche und künstliche Intelligenz

Dennoch haben menschliche Intelligenz und „künstliche Intelligenz“ im Bezug auf die „Methodik des Lernens“ eine Schnittmenge. Im Zusammenhang mit einfachen und komplexeren „Lernvorgängen“ spricht man dann auch von einer „schwachen KI“ . Von einer „starken KI“ spricht man, wenn eine KI aus sich selbst heraus, sozusagen in einem kreativen Akt „eigene Wege“ plant und geht. Über eine „starke KI“ wird aktuell allenfalls in Forschungseinrichtungen und in dystopischen Romanen und Filmen nachgedacht, in der Industrie ist sie derzeit nicht relevant. Jede KI basiert auf Algorithmen (Handlungsanweisungen) und ist Grundlage von Automatisierungslösungen, die v.a. in der Industrie immer schneller voran schreiten. Sie betreffen v.a.
    • die IT-Sicherheit und den Datenschutz,
    • die Produktion im Bezug auf Prozessoptimierung und zur Einführung teilautomatisierter Assistenzsysteme,
    • neue digitale Geschäftsmodelle und
    • den HR Bereich ebenfalls in Bezug auf Prozessoptimierung und zur Unterstützung von Personalentscheidungen.
Vor allem im Bereich der Produktion und im HR-Bereich ist die Einführung von Automatisierungslösungen mit erheblichen Produktivitäts- und Qualitätsfortschritten aber auch mit sozialen Wirkungen verbunden, die genauer betrachtet werden müssen. Im Wesentlichen geht es hier um die Kontrolle, die Autonomie, das Tätigkeitsprofil, den Interaktionsrahmen und um Diskriminierungsrisiken der Beschäftigten.

Algorithmische Systeme im Bereich der Produktion

Durch die Digitalisierung in der Produktion sollen v.a. repetitive Tätigkeiten und Prozessschritte mindestens teilweise automatisiert und der gesamte Warenfluss und Erstellungsprozess schneller und fehlerfreier gemacht werden. Sämtliche Automatisierungsverfahren, auch die komplexeren, basieren auf dem Einsatz von Algorithmen. Das sind meistens in eine Software programmierte Handlungsanleitungen (Wenn-Dann-Aussagen), die einer Maschine, einem Werkzeug genau beschreiben, was in einer bestimmten Konstellation zu tun ist. Maschinen und Werkzeuge führen hierbei nicht nur einfache Handlungsanweisungen aus, sondern sie „lernen“ auch neue Handlungsvollzüge, sodass die Maschine morgen mehr kann als heute. So „lernt“ eine Maschine aufgrund von ständiger Wiederholung, dass beim Werkstück A die Handlung B und beim Werkstück C die Handlung D auszuführen ist, ohne dass man ihr diesen speziellen Handlungszusammenhang ausdrücklich einprogrammiert hat. Sie lernt ihn, weil man ihr einen abstrakten Lernvorgang einprogrammiert hat. Die Maschine oder das Werkzeug werden sozusagen trainiert.

Darüber hinaus kann eine algorithmusgesteuerte Maschine nicht nur auftragsgemäß „handeln“ und ihr „Handlungsrepertoire“ aufgrund von „Erfahrung“ und Wiederholung erweitern, sondern sie kann aufgrund von Informationen, die man der Maschine in Form von digitalisierten Daten (Eigenschaften des Produkts, der Maschine, des Prozesses, von Handlungen des Beschäftigten, etc.) zuführt, auch Gesetzmäßigkeiten, Korrelationen und Probleme erkennen und entsprechend handeln. Eine Maschine könnte z. B. erkennen, dass ein bestimmter Prozessschritt für einen bestimmten Fehler verantwortlich ist und könnte aufgrund des antrainierten Prozesswissen sogar eine konkrete Fehlerbehebung vorschlagen. Eine Maschine könnte z. B. auch frühzeitig erkennen, wie hoch eine Fehler- oder Ausfallwahrscheinlichkeit ist oder ob ein Werkstück fehlerhaft ist, sodass man rechtzeitig intervenieren kann. Das alles erhöht die Qualität und die Produktivität.

Für algorithmische Systeme sind Daten der wichtigste Nährstoff. Ohne Daten könnten sie nichts. Einer automatisierten Bohrmaschine muss vorher ein digitales Abbild des zu bearbeitenden Werkstücks eingegeben worden sein, damit „sie“ dies überhaupt bohren kann. Wie das digitale CAD-Abbild eines Werkstücks, sind Bewegungsabläufe, Interaktionen, Geschwindigkeiten, Abstände, Temperaturen, Mengen, etc. alles digital abbildbare Größen, mit denen die Algorithmen „gefüttert“ werden, damit die Maschinen oder die Werkzeuge die geforderten Handlungen durchführen können. Die Daten beziehen die algorithmischen Systeme durch Eingabe an der Maschine selbst, über Laptop o. ä. oder über Sensoren, die an der Maschine, dem Werkzeug, dem Werkstück oder u. U. auch am Beschäftigten angebracht sind.

Die Auswirkungen von schwacher KI auf den Werker

Zunächst einmal ist es die Aufgabe des Werkers in der Produktion die teilweise automatisierten Maschinen zu bedienen, sie zu steuern, zu überwachen und zu warten. Er hat aber durch die partiellen „Fähigkeiten“ der Maschine auch die Möglichkeit und die Pflicht, sein Handeln aufgrund der „Rückmeldungen“ der Maschine im Bezug auf Qualität und Output zu optimieren. Er interagiert also mit der Maschine oder dem Werkzeug. Diese Interaktionen zwischen dem Werker und der Maschine sind ebenfalls Daten, die erfasst und ausgewertet werden.

 

Kontrolle

Die Handlungen des Werkers werden dadurch transparent. Er wird kontrolliert. Durch diese Interaktionen kann ein umfassendes Bewegungs- und Leistungsprofil des Beschäftigten erstellt werden, ohne dass ihm das u. U. bewusst ist. Ohne seine Einwilligung oder eine entsprechende Betriebsvereinbarung (BV) wäre das ethisch nicht zu vertreten, auch wenn ein solches Leistungsmonitoring im unternehmerischen Interesse läge. Auch wenn der Beschäftigte durch den Arbeitsvertrag ein Leistungsversprechen gegeben hat, würde eine derartige Kontrolle seines Leistungsversprechens einer „anlasslosen“ und dadurch unverhältnismäßigen Überwachung gleichkommen und unmittelbar in seine Persönlichkeitsrechte, hier sein informationelles Selbstbestimmungsrecht eingreifen. Ein solcher Eingriff wäre nicht nur datenschutzrechtswidrig, sondern auch ethisch nicht zu rechtfertigen, weil das Gut der „informationellen Selbstbestimmung“ höherwertiger einzustufen ist als das Recht auf „anlasslose Kontrolle eines Versprechens“. Es würde darüber hinaus auch das Vertrauen, das Beschäftigte und Arbeitgeber regelhaft gegenseitig als grundlegenden Vorschuss in ihre Beziehung einbringen, massiv schädigen.

 

Entwertung

Ein ebenso kritische Wirkung bezieht sich auf die Tätigkeit des Werkers in einem digitalisierten Umfeld. Wie stark werden sich die handwerklichen haptischen Arbeitsvollzüge reduzieren, was übernimmt die Maschine, was der Werker? Inwieweit werden die Fähigkeiten des Werker noch gebraucht? Verändert sich sein Tätigkeitsprofil mehr in Richtung Steuerung und Überwachung der Maschine und der Prozesse, hat er alos mehr übergreifende „managende Aufgaben“ oder macht das die Maschine und er nur noch die einfachen und monotonen Aufgaben.

Veränderungen im Umfang und in der Komplexität der Tätigkeiten haben Auswirkungen auf die selbst zugeschriebene Bedeutung, auf den Sinn der Arbeit des Werkers und damit auch auf seinen Selbstwert. Wird er durch die Maschine entwertet, weil er seine Fähigkeiten und Fertigkeiten nicht mehr einbringen kann oder ist die Maschine ein Diener, ein Unterstützer, die ihm das Arbeitsleben erleichtert und er seine Fähigkeiten und Fertigkeiten auch noch erweitern kann. Dieser Aspekt ist insbesondere bei Menschen mit Behinderung bedeutsam, weil je nach Taktung und Konfiguration der Maschine ein Beschäftigter mit Handicap diese u. U. gar nicht mehr bedienen könnte. Im positiven Fall könnte er sie aber auch noch besser bedienen als vorher, weil ihm durch den Algorithmus Arbeiten abgenommen werden, die vorher schwierig für ihn waren.

 

Autonomie

Eine damit unmittelbar zusammenhängende Auswirkung betrifft die Autonomie, das Selbstbestimmungsrecht des Werkers: ist der Werker Subjekt, i. S. desjenigen der entscheidet, organisiert, verändert und Verantwortung für die Interaktionen übernimmt, oder ist er ein Objekt der Maschine oder des Prozesses? Wer steuert wen? Der Mensch die Maschine und den Prozess oder der Prozess / die Maschine den Menschen? Wenn ein Werker z. B. in einer automatisierten Produktionslinie dem Takt „ausgeliefert“ ist, er aber den Takt nicht mithalten kann und sich ein Stau bildet, gerät er u.U. nicht nur durch seine vor- oder nachgelagerten Kollegen in einen „Sozialstress“, sondern er fühlt sich auch ohnmächtig, weil er die Situation nicht beeinflussen kann. Sein Handlungsspielraum, seine Gestaltungs- und Einflussmöglichkeiten im Bezug auf die Aufgabenausführung würden massiv eingeschränkt und der Werker würde sich nur noch als „Instrument“, als „Mittel zum Zweck“ sehen. Seine Autonomie, seine Subjekthaftigkeit als unmittelbarster Ausdruck der Menschenwürde würden angegriffen werden: er wäre nur noch Objekt für fremde Zwecke. Dies wäre nicht nur ethisch höchst problematisch, sondern dies wäre auch ein erhebliches gesundheitliches Risiko.

Das Gleiche gilt für die Arbeit an und mit einer teilautomatisierten Maschine oder einem teilautomatisierten Robotersystem. Hier muss die Interaktion zwischen Mensch und Roboter im Fokus einer ethischen Betrachtung stehen: wie umfangreich greift die Maschine in den Steuerungskreis des Werkers ein. Hier geht es nicht nur darum, wer welche Aufgabe macht, sondern wer die Interaktion steuert, d. h. wer bestimmt, wer was macht. Untersuchungen haben ergeben, dass der Werker kein Problem damit hat, wenn die Maschine an seiner Stelle bestimmte Aufgaben macht, sondern dass die Verantwortung für die Gesamtaufgabe dann abnimmt, wenn die Maschine „führt“ und die Verantwortung dann zunimmt, wenn die Autonomie des Werkers, wenn seine Steuerungs- und Entscheidungshoheit durch die Maschine nicht eingeschränkt werden. Es geht nicht darum, wer welche Tätigkeit ausführt, sondern es geht entscheidend darum, wer führt und steuert. Wer letztlich welche Tätigkeit ausführt, hat in erster Linie damit zu tun, wer für welche Aufgabe die höchste Kompetenz hat, was dann auch durchaus bedeuten könnte, dass der Werker der Maschine eine „Entscheidung“ zuweist, weil sie dieses „technische Problem“ besser durchdringt.

 

Kommunikations- und Beziehungsverhalten

Eine weitere soziale Auswirkung des Einsatzes schwacher KI in der Produktion sind die Veränderungen in den Kommunikationsstrukturen und dem Kommunikationsverhalten sowohl in einem Team als auch zwischen dem Beschäftigten und der Maschine. Maschinen/Werkzeuge/Roboter werden plötzlich zu Kollegen, zu „beeinflussenden“ Akteuren der Problembeschreibung und der Problemlösung. Die Maschine sendet Informationen, d. h. sie kommuniziert und wird dadurch zum Interaktionspartner des Beschäftigten, ohne jedoch beziehungsfähig zu sein und ohne in aller Regel die Fähigkeit zu haben, auf die Vieldeutigkeit menschlicher Kommunikation und Sprache angemessen reagieren zu können. Trotz dieser Unwucht in der Interaktionsbeziehung zwischen Mensch und Maschine schreibt der Werker „seiner Maschine“ mit der Zeit bestimmte menschliche Eigenschaften zu, die dann vielleicht auch mal enttäuscht werden können. Der Werker erwartet etwas, was die Maschine so aber nicht „bringt“. Die Maschine wird ein Stück weit vermenschlicht.

Darüber hinaus müssen sich auch alle anderen Teamkollegen mit den „neuen Kollegen“ befassen. Wie wird sich die Kommunikation in Teams verändern, wenn der digitale Kommunikationscode der Maschine zur herrschenden Kommunikationsnorm wird, wenn Mehrdeutigkeit nicht mehr verstanden und Gefühle ausgespart werden? Gelingt es einem Team auch andere Blickwinkel, als solche einzunehmen, die die Maschine vorgibt?

Wie verändert sich das Kommunikations- und Beziehungsverhalten des Beschäftigten auch im Privaten, wenn im Beruflichen ein eher restringiert-digitaler Kommunikationscode dominiert? Auch wenn der Werker auf unterschiedlichen Kanälen (Gesten, Mimik, Verbal und durch direkte Eingabe) mit der Maschine interagiert, so passt er sich doch den begrenzten Aufnahmemöglichkeiten der Maschine an und wird insofern auch selbst „neu trainiert“. Selbst wenn die Maschine durch „Lernalgorithmen“ bestimmte Handlungen des Werkers zunehmend „versteht“, so wird der Werker aufgrund seiner höheren Kreativität und Anpassungsfähigkeit zumindest sehr lange in der Position sein, in der er sich den Möglichkeiten der Maschine mehr anpasst als umgekehrt. Eine Anpassung der Maschine an ihn, feiert er dann als Erfolg: ein süßes Gift? Durch diese Position der Stärke lässt sich der Mensch durch die Maschine mittelbar dominieren, ähnlich einem Baby/Kleinkind, das durch seine Schwäche die Eltern dominiert: so wird die Maschine zum Baby.

Welche Auswirkung hat diese digitale Verengung auf seine analoge Welt? Verringert oder erweitert sich dadurch gar seine soziale Kompetenz? Relevante Risiken und Fragen, auf die es bis jetzt noch keine gesicherten Antworten gibt, die aber gleichwohl bedacht werden sollten.

Schwache KI und algorithmische Systeme in HR

Im HR-Bereich ist der Einsatz algorithmischer Systeme oder „schwacher KI“ für die Beschäftigten und Bewerber am unmittelbarsten. Ihre personenbezogenen Daten werden in einer Software direkt erfasst und für bestimmte vorher festgelegte Zwecke verarbeitet (Personalverwaltung, Recruiting, Onboarding, Personalentwicklung, etc.). Ziel der Automatisierung ist die Vereinfachung von typischen HR-Prozessen für die User: weg von der Papierverwaltung, vom Führen von Excellisten und individuellen Lösungen hin zu standardisierten automatischen Prozessen. Die User (HR-Beschäftigte, Bewerber, etc.) müssen dann nur noch die Daten eingeben und die gewünschte Operation oder Funktion wählen.

 

Diskriminierungsrisiken bei der Personalauswahl

Beim Recruiting gehen die Unternehmen immer stärker auf reine Online-Bewerbungsverfahren über, was sowohl für den Bewerber als auch für den Business Partner auf Unternehmensseite übersichtlicher und einfacher ist und zudem noch Papier spart. Die dahinter liegende Software selektiert dann die Bewerber:innen entsprechend einem einprogrammierten Anforderungsprofils vor und es kommt zu einem Bewerberranking. Auch das vereinfacht die Angelegenheit für den HR-User erheblich.

Eine grundsätzliche Frage wäre hier, ob ein digitales Vorsortieren für das Unternehmen bessere oder schlechtere Ergebnisse bringt, bzw. ob der Gesamteindruck einer Bewerbung, die man selbst durchgelesen hat, nicht aussagekräftiger sein könnte. Verständlicherweise sagt man zu Recht, dass bei einer automatisierten Vorselektion das subjektive Moment und die Vorurteile und Verzerrungen (der sog. bias) des HR-Users vermieden würden, sodass eine solche Vorauswahl objektiver und diskriminierungsfreier wäre. Andererseits zeigen aber einige einschlägige Bias-Forschungen, dass es hier ganz entscheidend darauf ankommt, wie diese Algorithmen „trainiert“ werden, d. h. mit welchen Daten und Vorgaben sie gefüttert werden, um die besten Bewerber:innen zu identifizieren. Dies könnten direkte Vorgaben bzgl. des Anforderungsprofils sein oder es könnten aber auch Datensätze von Menschen sein, die auf einer solchen Stelle besonders erfolgreich sind. Anhand solcher Datensätze würde der Algorithmus dann „Erfolgskorrelationen“ (das gleichzeitige Auftreten mehrerer bestimmter Kriterien = Erfolg) definieren, die dann mit den Bewerber:innen abgeglichen werden.

Wenn für das Ranking auch keine Daten nach Geschlecht, Religionszugehörigkeit oder Nationalität einbezogen werden (dürfen), könnten „indirekte Merkmale“ der Bewerber:innen wie bspw. Berufserfahrung, Wechselhäufigkeit, Vereinszugehörigkeiten, Hobbys oder auch sprachliche Muster von Lebensläufen gescannt und diese dann mit den „Erfolgskorrelationen“ verglichen werden. In den Untersuchungen kam jedenfalls heraus, dass Bewerberinnen trotz gleicher Qualifikation vielfach deutlich niedriger als männliche Bewerber gerankt wurden. Der Grund dafür lag darin, dass die Algorithmen in solchen Fällen einseitig (also mit Verzerrungen) trainiert wurden. So wurden z. B. überwiegend männlichen „Erfolgslebensläufe“ in die Algorithmen eingegeben, weil in diesem Tätigkeitsfeld überwiegend Männer beschäftigt sind, sodass in Bezug auf die Merkmale „Sprachmuster“, die bei Männern und Frauen unterschiedlich sind, und „Berufserfahrung“ Bewerberinnen aufgrund ihres Geschlechts und einer oft stärkeren elterlichen Beanspruchung nicht zum Zug kamen. Weitere indirekte Auswahlkriterien, wie die Einbeziehung von sozialen Medien, mit denen Präferenzen und Gewohnheiten gescannt würden, um bestimmte Verhaltensdispositionen abzuleiten, würden solche Verzerrungen noch verstärken. Diese Verzerrungen diskriminieren Bewerber dann, wenn sie von den einprogrammierten Profilen und Korrelationen abweichen, ohne dass sie tatsächlich weniger qualifiziert wären. Ethisch und auch rechtlich relevant wäre dies aus Sicht der Bewerber, ökonomisch und ebenfalls rechtlich relevant wäre dies u.U. auch für das Unternehmen.

 

Leistungs- und Verhaltensprognose von Beschäftigten

Eine weitere ethisch problematische Facette des Einsatzes algorithmischer Systeme im HR-Bereich ist die sogenannte Verhaltensvorhersage von Beschäftigten. Hier könnten anhand der zur Verfügung stehenden personenbezogenen Daten zukunftsbezogene Aussagen zu Ausfalls- und Krankheitsrisiken und zu einem zukünftigen Leistungsvermögen der Beschäftigten gemacht und entsprechend klassifiziert werden. So könnte ein Algorithmus. Anhand von biometrischen Daten, Familienstand, Wohnort, Alter, Geschlecht, Krankheitsdaten im Betrieb und Bildungsgrad bspw Aussagen über die Leistungs- und Entwicklungsfähigkeit eines Beschäftigten in den nächsten Jahren machen. Je nach dem auf welche externen Datenquellen der Algorithmus zusätzlich noch zugreifen könnte, wären Aussagen zum Leistungsverhalten und zu „Verhaltensdispositionen“ des Beschäftigten noch differenzierter möglich. Unabhängig davon, ob diese Aussagen und die ihr zugrundeliegenden Korrelationen richtig sind, würde ein Beschäftigter nur aufgrund einer reinen Rechenoperation klassifiziert und dadurch ggf. auch diskriminiert werden. Der Beschäftigte würde nicht mehr als Individuum, sondern nur noch als Angehöriger einer „Risiko- oder Leistungsgruppe“ betrachtet werden: die einen werden unterstützt, die anderen nicht mehr, weil sie ein schlechtes Scoring haben.

Weiterhin könnten über solche algorithmischen Systeme auch Schichtplanungen oder die Zusammensetzung von Projektteams vorgenommen werden, völlig unabhängig davon, wie die davon Betroffenen das sehen. Die Führungskraft würde hier einen elementaren Teil seiner Führungsverantwortung an ein algorithmisches System abgeben. Grundsätzlich wäre die Berechnung „fachlich-sozialer Korrelationen“ i.S. einer oberflächlich-plausiblen Sichtweise nicht verwerflich, problematisch wäre es aber, wenn die Richtigkeit dieser Korrelationen nicht hinterfragt würden und der einzelne Beschäftigte sich diesem „Diktat“ unterordnen müsste oder er keine Möglichkeit hätte, eventuelle Verzerrungen zu korrigieren. Deshalb verbietet sich eine Entscheidung von Algorithmen. Bewertungen und Zuordnungen von Beschäftigten müssen immer „Einzelurteile“ und dürfen nie „Klassenurteile“ sein. Dies ist eine Aufgabe der Führungskräfte.

Fazit – was wäre zu tun?

Automatisierungen und der Einsatz von algorithmischen Systemen können unbestritten zahlreiche Vorteile sowohl für das Unternehmen selbst als auch für die Beschäftigten bringen. Sie erhöhen die Produktivität und die Qualität und sie könnten Beschäftigte von zahlreichen unangenehmen, monotonen und auch schwierigen Aufgaben entlasten. Für einen ethisch verantwortbaren Einsatz solcher Systeme sollte die zentrale Frage in Bezug auf die „Digitalisierung der Arbeitswelt“ leitend sein:

Unterstützen und entlasten solche Systeme den Beschäftigten oder dominieren sie ihn, zuerst subtil, dann offen und direkt. Wer ist für wen da?

Damit die aufgeführten Gefahren und Risiken nicht eintreten, sollte sich jedes Unternehmen ein Framework über Ziele und ethische Leitlinien des Einsatzes von schwacher KI im Unternehmen erarbeiten (ähnlich dem Framework der EU zu ethischen Leitlinien zum Einsatz von KI).

 

Zentral wären hier 4 Kategorien:

    • Ziele – was sind die Ziele des Einsatzes von algorithmischen Systemen in den einzelnen Bereichen?
    • Funktionen – welche Fähigkeiten und Funktionen sollen diese Algorithmen haben?
    • Datenbasis – mit welchen Daten werden die Algorithmen trainiert, wenn sie die Aufgabe haben, Regeln und Korrelationen zu erkennen?
    • Entscheidungen – welchen Stellenwert haben die „Erkenntnisse“ von Algorithmen bei Entscheidungen, die die Beschäftigten direkt betreffen?

Aus ethischer Sicht sind prinzipiell legitime betriebliche Interessen mit den persönlichen Interessen der Beschäftigten aber auch mit grundlegenden moralischen Normen, die weit über Einzelinteressen hinausgehen, abzuwägen. So wären algorithmische Systeme, die Beschäftigte oder Bewerber:innen diskriminieren, die das informationelle Selbstbestimmungsrecht des Einzelnen verletzen oder die den Beschäftigten zu einem ausschließlich ausführenden „Objekt“ des Algorithmus machen, ethisch nicht zu vertreten.

 

Für die Bereiche der Produktion und den HR-Bereich wären dahingehend insbesondere folgende Punkte zu beachten:

    • Transparenz und Bildung – Die Werker müssen wissen, wie die Algorithmen in ihren Maschinen in den Grundzügen funktionieren und welche Folgen Interaktionen zwischen ihnen und der Maschine haben.
    • Digitale Kommunikationscodes vermeiden – In der Kommunikation im Team und jedem einzelnen Beschäftigen muss klar sein, dass die Maschine kein „Kollege“ ist – Vermenschlichungen in Gestalt und Sprache sind zu vermeiden.
    • Keine Kontrolle der Beschäftigten – ohne Zustimmung des Werkers oder ohne eine entsprechende Betriebsvereinbarung dürfen in der Produktion, an der Maschine keine personenbezogenen Daten erhoben werden und eine datenbezogene Kontrolle der Beschäftigten muss ausgeschlossen werden.
    • Steuerungshoheit des Werkers – der Werker sollte sein Tempo ein Stück weit mitbestimmen können. Eine Taktung ausschließlich über algorithmische Systeme sollte vermieden werden – dies wäre bspw. in einem „one-piece-flow“ System, in dem der Werker, das Werkstück von Anfang bis Ende selbst erstellt, gut gewährleistet.
    • Prozessstress vermeiden – v.a. in komplett automatisierten Prozessschritten sollten Puffer, Lager, Bypässe und Doppelbesetzungen bei Engstellen gewährleistet sein, um Prozessstress bei Beschäftigten zu vermeiden.
    • Selektionslogiken transparent machen – beim Einsatz von Recruiting-Software muss jedem HR-User klar sein, nach welchen Kriterien Bewerber selektiert werden.
    • Diskriminierungen ausschließen – beim Selektionsvorgang sind sachlich nicht gerechtfertigte „Ausschlüsse“ zu vermeiden – entsprechende Filter sind zu deaktivieren.
    • Daten- und Entscheidungskritik gewährleisten – Transparenz von Datenbasis und beim Erstellen von generierten Wunschprofilen muss die Datenbasis, mit dem der Algorithmus trainiert wird sowie die Korrelationen und Klassifizierungen, die sich daraus ergeben, kritisch hinterfragt werden und transparent sein.
    • Menschen entscheiden – eine Klassifizierung von Beschäftigten in Risiko- und Leistungsklassen darf keine individuelle Betrachtung ersetzen. Eine Entscheidung zur Entwicklung und zum Einsatz eines Beschäftigten darf nicht durch einen Algorithmus getroffen werden.

Durch ein solches Framework an Leitlinien und Vorgaben kann der Einsatz von schwacher KI und algorithmischen Systemen ethischen Kriterien wie Fairness, Diversität, gerechter Teilhabe, Transparenz, Datenschutzkonformität, Diskriminierungsfreiheit und Selbstbestimmung genügen und zum Nutzen aller Beteiligten eingesetzt werden.