Bewerben

Persönliche Daten eingeben
Daten merken

Daten hochladen
Datei Hochladen

Künstliche Intelligenz: Brauchen wir bald Personalführungstipps für Maschinen?

1. Dezember 2017 0


Unzählige Science-Fiction-Filme und Bücher erzählen die gleiche Story: Die Künstliche Intelligenz übernimmt immer mehr Aufgaben, bis sie schließlich in Form von Robotern die Weltherrschaft an sich reißt. Übertrieben? Oder brauchen wir in der Arbeitswelt schon bald Personalführungstipps für Maschinen?

Künstliche Intelligenz: Wie groß ist die Gefahr, die vom Roboter ausgeht

Die Vorstellung von gefährlichen Robotern oder Künstlichen Intelligenzen (KI), die sich der Kontrolle ihrer menschlichen Schöpfer entledigen und zur Gefahr werden, ist so alt wie der Roboter selbst.

Zum ersten Mal verwendete der tschechische Schriftsteller Karel Ĉapek in seinem Theaterstück „Rossums Universal Robots“ den Begriff des Roboters. Der Gegenstand der Handlung: Vom Menschen gebaute Roboter lehnen sich gegen ihre Erbauer auf und versklaven sie. Das war 1920.

Gibt es abseits dieser Fiktion eine wirkliche Gefahr für den Menschen durch Maschinen mit künstlicher Intelligenz? Die Frage scheint heute umso allgegenwärtiger zu sein, weil die Menschheit mit großem Tempo auf das Zeitalter der Roboter zusteuert.

Einer, der diese Vision für alles andere als eine Übertreibung hält, ist der Chef des Automobilherstellers Tesla und des Raumfahrtunternehmens Space X: Elon Musk. „Der Wettbewerb um die Vorherrschaft in KI auf nationaler Ebene wird meiner Meinung nach der wahrscheinlichste Auslöser des Dritten Weltkriegs“, twitterte er fatalistisch.

Worte, die ein mediales Beben auslösten. Ausgerechnet einer der Köpfe, die die Digitalisierung erbarmungslos vorantreiben, stellt sich gegen sie. Was ist da los? Nicht zum ersten Mal meldete sich Musk zu diesem Thema zu Wort.

Kann Künstliche Intelligenz bewusste Entscheidungen treffen?

Jüngst ergab sich wegen einem seiner Statements gar ein Streit mit Facebook-Gründer Mark Zuckerberg, der die Entwicklung von KI als weit weniger bedrohlich empfindet. Musk bescheinigte Zuckerberg daraufhin ein „begrenztes Verständnis“ von der Materie zu haben.

Musk fürchtet vor allem die Möglichkeit, dass Maschinen irgendwann selbst überlegen, wann sie ein anderes Land angreifen. Ein neuer Weltkrieg könnte demnach „nicht von Staatschefs, sondern von einer KI initiiert werden, wenn sie entscheidet, dass ein Präventivschlag der wahrscheinlichste Weg zum Sieg ist“, ist Musk überzeugt.

Übertragen auf die Arbeitswelt könnten ebenso erhebliche Risiken von denkenden Robotern ausgehen. Entwickeln Maschinen so etwas wie einen „bösen Willen“ könnten sie ihren Arbeitgebern erheblichen Schaden zufügen:

  • Berechnungen fehlerhaft ausführen
  • Daten an Unberechtigte aushändigen
  • Daten unberechtigt auslesen und analysieren, so dass sie menschlichen Mitarbeitern schaden können
  • Systeme manipulieren

Bereits in den 1980er-Jahren haben Forscher des MIT vorausgesagt, dass Künstliche Intelligenzen bald das Niveau von Menschen erreichen werden. Ist es schon bald soweit? Ist die Gefahr zum Greifen nah?

Eher nicht, halten moderne KI-Experten dagegen. Derzeit entwickeln sich Künstliche Intelligenzen zwar rasant weiter. Man denke nur an Chatbots, die etwa Recruiter dabei unterstützen, Jobinterviews zu führen.

Oder Algorithmen, die Führungskräfte bei der Personalauswahl helfen, indem sie ihnen intelligente Empfehlungen geben, welcher Bewerber besser und welcher schlechter zu einer Vakanz passt. Die finale Entscheidung liegt aber immer beim Menschen.

Künstliche Intelligenz: Ist alles gut, wenn die Grundprogrammierung gut ist?

Und das wird auch so bleiben. Denn komplexere Zusammenhänge zu erkennen und zu entwickeln, ist für Künstliche Intelligenzen immer noch nur eine Vision, die Experten nicht in naher Zukunft verwirklicht sehen.

Im Klartext: Eigene, weiterführende Entscheidungen treffen, können Roboter nicht in dem Maße wie der Mensch. Sie können Fakten zusammentragen, abgleichen und Wahrscheinlichkeiten berechnen. Sie können sich aber nicht „entscheiden“, gut oder böse zu sein.

KI-Experten betonen daher, dass sich Maschinen nicht über die Menschheit erheben können. Es ist unmöglich, dass sich Maschinen plötzlich entschließen, schädliche Handlungen zu vollziehen, wenn es in ihrem Programmcode nicht vorgesehen ist. Das würde ein Bewusstsein voraussetzen, das sie nicht haben. Sie folgen einzig und allein stoisch ihrer Programmierung.

Grundprämisse dafür ist, dass Roboter von vornherein so programmiert sind, dass sie Menschen oder Unternehmen kein Leid zufügen. Manager können also erstmal beruhigt aufatmen. Selbst, wenn sie in naher Zukunft mit Android-Kollegen zusammenarbeiten sollten – es wird mit ihnen keine zusätzlichen klassischen Personalführungsthemen geben wie mit realen Mitarbeitern. Und schon gar nicht irgendwelche moralischen Debatten.

Künstliche Intelligenz und Ethik

Was dafür derweil aus ethischer Sicht unbedingt sichergestellt werden muss: Es bedarf strengerer Regulierungen intelligenter Maschinen inklusive ethischer Grundprinzipien, die von ihren „Erschaffern“ bei der Entwicklung eingehalten werden müssen.

Damit setzt sich aktuell das EU-Parlament auseinander. Hier wurden bereits Vorschläge diskutiert, wie die Rechtslage von Künstlicher Intelligenz künftig in dieser Hinsicht zu regeln ist.

Auch Fragen der Haftung müssen geklärt werden. Auszuschließen ist zwar, dass ein Roboter ein eigenständiges Bewusstsein entwickelt und sich selbst von „gut“ auf „böse“ umprogrammiert. Nichtsdestotrotz kann eine Künstliche Intelligenz schädliche Handlungen vollziehen. Nicht, weil sie es will, sondern gerade, weil sie so stoisch ihrer Programmierung folgt und noch nicht gelernt hat, wann es intelligenter wäre, den Prozess zu stoppen.

Die natürlichen Grenzen der Künstliche Intelligenz

Das ist alles andere als unrealistisch. Denn selbst wenn, die KI darauf programmiert ist, etwas Nützliches zu tun, besteht das Risiko, dass sie eine Methode wählt, die sich nicht mit den Vorstellungen ihres Anwenders deckt.

Wer etwa ein selbstfahrendes Auto bittet, ihn so schnell wie möglich zum Flughafen zu fahren, könnte auf dem Weg dorthin an einer Polizeikontrolle vorbeirauschen und damit in ernsthafte Schwierigkeiten kommen. Das System verursacht dann einen Schaden, weil es im Grunde stoisch seinen Auftrag verfolgt und nicht wusste: Im Falle einer Polizeikontrolle immer anhalten.

Unterlaufen der Künstlichen Intelligenz beispielsweise im Business-Umfeld in besonders geschäftskritischen Bereichen ähnlich folgenschwere Fehlentscheidungen, kann es auch hier schnell teuer werden. Zum Beispiel, weil die Prozesskette aus den Fugen gerät.

Dann kommen diese Fragen auf:

  • Wer haftet bei einem solchen Szenario?
  • Ist es das Unternehmen, das das Gerät gekauft hat?
  • Oder die Person, die das Gerät steuert oder das Unternehmen, die das System entwickelt hat?

Das werden die Fragen sein, mit denen sich Unternehmenslenker und Führungskräfte auseinandersetzen müssen, die Roboter einsetzen wollen. Weniger wird aber die Sorge eine Rolle spielen, ob der Roboter, der einem Manager eben noch mit grün leuchteten Augen Verständnis signalisierte, urplötzlich aus eigenem Antrieb auf rot umschaltet, um Verheerendes anzurichten. Das gehört weiterhin in den Bereich Science Fiction. Zumindest auf sehr, sehr lange Sicht.

Wenn Ihnen unser Beitrag gefallen hat, freuen wir uns, wenn Sie diesen weiterempfehlen
8

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

  • Engineering
Engineering: Der Arbeitsmarkt für Ingenieure
  • Karriere Job
  • Leadership und Management
  • Recruiting
Arbeitnehmerüberlassung: Wie Personaldienstleister die Beratungsszene aufmischen
  • IT
  • Karriere
  • Life Sciences
  • SAP
Cultural Diversity: Warum Vielfalt die Innovationskraft stärkt
  • Allgemein
  • IT
  • Karriere
  • Life Sciences
Raus aus dem Innovators Dilemma: So gewinnen Sie den Wettbewerb um Innovationen

Nichts mehr verpassen und jetzt zum Newsletter anmelden! Anmelden

KONTAKT

Haben Sie Fragen zu unseren Dienstleistungen oder zu einer ausge- schriebenen Stelle? Rufen Sie uns gerne direkt an oder kontaktieren Sie uns über das Kontaktformular. Wir melden uns innerhalb von 24 Stunden zurück.

069-668050175

FRANKFURT

APRIORI – business solutions AG
Friedrich-Ebert-Anlage 49
MesseTurm 24. Etage
60308 Frankfurt

BERLIN

APRIORI - business solutions AG (WeWork) Potsdamer Platz – Kemperplatz 1 10785 Berlin (Mitte)

Simple Share Buttons