Wir brauchen Regeln für die Koexistenz von Mensch und Maschine

19. Oktober 2017
Getty Images

2. Teil: Digitales Social Engineering

Polarisierung

Aber die künstliche Intelligenz könnte unsere Gesellschaft auch polarisieren, indem sie uns in zunehmendem Maß in virtuelle Gruppen gleichgesinnter Menschen hineinzwängt und uns dadurch in unseren Überzeugungen und Wertvorstellungen bestärkt, ohne daß wir durch zufällige Konfrontation mit Andersdenkenden die Chance erhalten, diese Ansichten zu überprüfen, zu verteidigen oder womöglich zu revidieren. Und nicht zuletzt könnte KI auch für "digitales Social Engineering" und für die Schaffung von Mikro-Parallelgesellschaften missbraucht werden. Selbst digitale Wahlkreisschiebungen wären möglich: So könnten Mitarbeiter politischer Parteien Wähler bestimmter Profile mithilfe von KI-Tools beispielsweise schon Jahre vor der Wahl zum Umzug in bestimmte Wahlkreise verlocken; oder AirBnB könnte in bestimmten Bezirken nur Unterkünfte an Personen mit genau ausgewähltem soziopolitischem, ökonomischem oder psychometrischem Profil vermieten bzw. nur Immobilien von solchen Anbietern anmieten. Und auch Unternehmen könnten ihre Mitarbeiter mithilfe von KI noch sehr viel gezielter auswählen (dies passiert teilweise heute schon). Dadurch würden zwar ihre kurzfristigen Erfolgsraten steigen, doch ihr Mitarbeiterpool wäre möglicherweise weniger vielfältig, was sie in ihren längerfristigen strategischen Optionen einschränken würde.

Wer fällt die Werturteile?

Eine Maschine beurteilt uns aufgrund unserer expliziten Wertvorstellungen (vor allem derjenigen, die sich aus unseren kommerziellen Transaktionen ergeben), übersieht dabei jedoch andere tiefverwurzelte Überzeugungen, die wir in unserem Handeln zum betreffenden Zeitpunkt vielleicht gerade nicht zum Ausdruck bringen. Neu entstandene Überzeugungen oder Änderungen unserer Wertvorstellungen, die sich nicht so ohne weiteres systematisch erfassen lassen, können der künstlichen Intelligenz leicht entgehen. So könnte KI beispielsweise aufgrund früherer Daten Entscheidungen über unsere Sicherheit treffen, die das Wohlbefinden anderer Menschen gefährden - Entscheidungen, die wir in diesem Moment möglicherweise verwerflich finden. Wir sind komplexe Wesen, die immer wieder zwischen unseren Wertvorstellungen und anderen wichtigen Prioritäten abwägen, und wofür wir uns im Einzelfall entscheiden, hängt von der jeweiligen Situation ab. Manchmal gibt es zu diesen Situationen nur wenige oder gar keine systematisch erfassten Präzedenzfälle, auf die ein KI-Programm zurückgreifen könnte. So kann man sich z.B. vorstellen, daß sich die Entscheidung eines tierliebenden Menschen, sein autonome Fahrzeug möge einem Tier auf der Straße ausweichen und damit sein eigenes Verletzungsrisiko erhöhen, verändert, sobald dieser Mensch Kinder bekommt. Wird die Maschine unser Recht auf Willensfreiheit und Werte-Evolution - und das Privileg, uns selbst immer wieder neu zu erfinden - respektieren?

Diskriminierung und Vorurteile

Außerdem könnte eine Maschine Menschen mit schlechterem Gesundheitszustand oder niedrigerem sozialem Status diskriminieren , weil ihre Algorithmen auf Mustererkennung und groben statistischen Durchschnittswerten basieren. Als Uber bei der Entwicklung seiner Algorithmen Postleitzahlen heranzog, um herauszufinden, aus welchen Siedlungen die Mitfahrer mit größter Wahrscheinlichkeit stammten, gab es sofort einen Aufschrei wegen Rassendiskriminierung. Welchen Menschenschlag wird die künstliche Intelligenz begünstigen: Wird sie sich für das Überleben der Stärksten, der Beliebtesten oder der Produktivsten einsetzen? Wird sie diese Entscheidungen transparent machen? Und welche Regressmöglichkeiten haben wir, um uns dagegen zu wehren?

Auch die Entwicklung von Algorithmen und die Beschaffung von Datensätzen kann ungewollten Einflüssen unterliegen: zum Beispiel der persönlichen Lebensgeschichte, den Präferenzen und unbewussten Vorurteilen des Programmierers - oder Motiven und Anreizen vonseiten seines Arbeitgebers. Können wir davon ausgehen, dass KI bei ihrer Arbeit stets objektiv sein wird? Was für KI-Systeme werden Unternehmsen wohl entwickeln: solche, die im Interesse ihrer Kunden, Parter, Topmanager oder Aktionäre agieren? Wird eine KI für das Gesundheitswesen, die von Technologieunternehmen, Klinikketten und Versicherungsgesellschaften gemeinsam entwickelt wurde, wirklich in erster Linie das Interesse der Patienten wahrnehmen, oder wird dabei nicht vielleicht doch eher die Rendite ganz oben auf der Prioritätenliste stehen?

Wir können die Geister, die wir gerufen haben, nicht wieder loswerden, und das sollen wir auch gar nicht - schließlich bietet die KI Vorteile, die unser Leben verändern und uns eine enorme Weiterentwicklung ermöglichen, sowohl menschlich und gesellschaftlich als auch wirtschaftlich. Man muss kein Anhänger utopischer oder dystopischer Science Fiction sein, um zu erkennen, daß wir uns an einer Schwelle zu einer faszinierenden, radikalen Veränderung in der Evolution der Menschheit befinden, wie es sie schon seit einem Jahrtausend nicht mehr gegeben hat. Solche Revolutionen laufen niemals reibungslos ab: Sie sind fast immer chaotisch, undurchsichtig und voller ethischer Fußangeln.

Eine neue Charta der Rechte

Deshalb schlagen wir vor, eine Magna Carta für die globale KI-Ökonomie zu erstellen - eine von verschiedenen Interessenvertretern gemeinsam entwickelte, inklusive Charta der Rechte, von der wir uns bei der Entwicklung künstlicher Intelligenz von jetzt an leiten lassen sollten und die den Grundstein für die künftige Koexistenz zwischen Mensch und Maschine und für eine inklusivere Weiterentwicklung der Menschheit legen soll. Ob im wirtschaftlichen, sozialen oder politischen Bereich - wir als Gesellschaft müssen endlich anfangen, uns über Rechte, Pflichten und Rechenschaftsregeln für Inklusion und Fairness an der SchnittsteIle zwischen KI und unserem Leben als menschliche Wesen Gedanken zu machen. Diese Verhandlung zwischen den verschiedenen Interessensgemeinschaften wirtschaftlicher, wissenschaftlicher, politischer und sozialer Art muss über einen modernen, digitalen und offenen Kongress geführt werden. Dieser Kongress muss internationale Teilnehmerschaft erlauben, denn auch die KI überschreitet Grenzen. Und er sollte sowohl innovations- als auch gerechtigkeitsfördernde Regeln zum Ziel haben. Ohne diese Voraussetzungen wird es uns nicht gelingen, in der Gesellschaft eine ausreichende Vertrauensbasis für die künstliche Intelligenz schaffen; und dann werden wir die enormen Chancen, die sie bietet, auch nicht nutzen können.

Dieser Beitrag ist Teil einer Reihe von Beiträgen, die wir im Vorfeld des Global Drucker Forum 2017 in Wien veröffentlichen. Das Thema der Konferenz in diesem Jahr lautet "Wachstum und Wohlstand für alle".

ZU DEN AUTOREN:

Olaf Groth, Ph.D.
ist CEO bei Cambrian.ai, einem Netzwerk, das Führungskräfte und Investoren zu Fragen disruptiver Trends in der globalen Innovationsökonomie berät. Er lehrt als Professor für Strategie, Innovation und Wirtschaftswissenschaften an der Hult International Business School, ist Gastdozent am Roundtable on the International Economy der University of California in Berkeley und Mitglied des globalen Expertennetzwerks beim Weltwirtschaftsforum. Er ist gemeinsam mit Mark Nitzberg Autor des Buches Solomon's Code: Power & Values in an Age of AI, das 2018 erscheint.

Mark Nitzberg
ist geschäftsführender Direktor des Center for Human-Compatible AI an der University of California in Berkeley. Außerdem bekleidet er die Position des wissenschaftlichen Leiters und Direktors bei Cambrian.ai und berät eine Reihe von Startups, wobei er auf seine Erfahrungen als weltweit vernetzter Informatiker und mehrfacher Sozialunternehmer zurückgreifen kann.

Mark Esposito, Ph.D.
ist sozioökonomischer Stratege und Bestsellerautor. Er forscht auf den Gebieten MegaTrends, Geschäftsmodellinnovationen und Wettbewerbsfähigkeit an der SchnittsteIle zwischen Geschäftsleben, Technologie und Regierung. Er ist Mitgründer von Nexus FrontierTech, einem Unternehmen, das Kunden im Hinblick auf den Einsatz künstlicher Intelligenz berät und betreut. Er ist Professor für Betriebswirtschaft und Ökonomie an der Hult International Business School und der Grenoble Ecole de Management, sowie Mitglied der Fakultät an der Harvard Universität.



Künstliche Intelligenz


Was der enorme technische Fortschritt für Unternehmen und Manager bedeutet


Seite
1
2
Artikel
Kommentare
0
Diskussionsregeln

Wir freuen uns über lebendige, konstruktive und inspirierende Diskussionen auf HBM Online. Um die Qualität der Debattenbeiträge sicherzustellen, werden unsere Moderatoren jeden Beitrag prüfen. Eine Nutzung der Kommentarfunktion zu kommerziellen Zwecken ist nicht erlaubt. Beiträge mit vorwiegend werblichem, strafbarem, beleidigendem oder anderweitig inakzeptablem Inhalt werden von unseren Moderatoren gelöscht.

© Harvard Business Manager 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der manager magazin Verlagsgesellschaft mbH
ANZEIGE
Die neuesten Blogs
Nach oben