Ausschlusskriterium Künstliche Intelligenz: Norwegischer Pensionsfond überprüft Investments

Der norwegische Pensionsfond, zugleich größter staatlicher Staatsfond der Welt, hat angekündigt seine Investitionen in Unternehmen, die mit der Entwicklung von künstlicher Intelligenz in Zusammenhang stehen, zu . Das sagte Johan H. Andresen, Vorsitzender des Ethikrats des Fonds, vergangene Woche in einem Interview ((https://www.bloomberg.com/news/articles/2018-03-08/ai-raises-alarm-at-world-s-biggest-wealth-fund-s-ethics-watchdog)).

Der norwegische Pensionsfond verwaltet ein Vermögen, welches Ende 2017 bei umgerechnet rund 885 Milliarden Euro lag ((https://www.nbim.no/en/the-fund/market-value)). Dieses Vermögen wurde in über 9 000 Unternehmen investiert. Der Fond hält damit im Durchschnitt 1,4 Prozent aller gelisteten Konzerne weltweit ((https://www.nbim.no/contentassets/49715a01ed684b1686ff3c017f1efa12/annual-report-2017—government-pension-fund-global.pdf)).

Um der damit einhergehenden Verantwortung und dem eigenen Nachhaltigkeitsanspruch gerecht zu werden, überwacht ein Ethikrat die Investitionen des Pensionsfonds. Dabei stehen insbesondere umweltschädigende und menschenrechtsverletzende Unternehmenstätigkeiten im Fokus. Im Jahr 2017 wurden beispielsweise drei Palmölproduzenten sowie ein Konzern aus der Tabakbranche von allen Investitionen ausgeschlossen. Insgesamt stehen 135 Unternehmen auf der „Schwarzen Liste“ des Fonds und 17 Weitere unter Beobachtung ((https://www.nbim.no/contentassets/67c692a171fa450ca6e3e1e3a7793311/press-seminar-responsible-investment-2017.pdf)). Nun sollen mögliche Folgen von Technologieentwicklungen im Zusammenhang mit künstlicher Intelligenz stärker untersucht werden, so Andresen. Dabei gehe es in erster Linie um autonome Waffensysteme, die im öffentlichen Diskurs schon seit mehreren Jahren wegen sicherheitspolitischen, technologischen, ethischen und rechtlichen Bedenken in der Kritik stehen. Sogenannte „Killer-Roboter“ können beispielsweise nicht ausreichend zwischen zivilen und militärischen Zielen unterscheiden – dies schreibt das humanitäre Völkerrecht jedoch zwingend vor ((http://www.facing-finance.org/de/die-kampagne/deutsch-killer-roboter-stoppen/)). Die internationale Kampagne ‚Stop Killer Robots‘, einem Bündnis aus 64 internationalen Nichtregierungsorganisationen in 28 Ländern, setzt sich aufgrund der zahlreichen Risiken daher für ein völkerrechtlich verbindliches Verbot von autonomen Waffensystemen ein. Bisher haben sich 22 Staaten dieser Verbotsforderung angeschlossen. Rund 120 weitere Staaten fordern eine internationale Regulierung.

Die aktuell entstehenden, ethischen „Herausforderungen“ im Zusammenhang mit künstlicher Intelligenz treten dabei in einer Vielzahl weiterer Themenfeldern auf, erklärt Andresen. So spielen beispielsweise Algorithmen zunehmend auch bei der Bewertung der Kreditwürdigkeit und in der Verbrechensbekämpfung eine Rolle. Auch Elon Musk, CEO von Tesla und Gründer des Raumfahrtunternehmens SpaceX und damit selbst an der Entwicklung selbstlernender Programme beteiligt, unterstützt ein Verbot autonomer Waffensysteme und forderte jüngst auf der Technikmesse South by Southwest in Austin, Texas, eine politische Regulierung künstlicher Intelligenz ((http://www.handelsblatt.com/my/unternehmen/it-medien/elon-musk-kuenstliche-intelligenz-ist-gefaehrlicher-als-atomwaffen/21058422.html?ticket=ST-5807102-bTI2Ybj1eEjOLiCrXEQ0-ap3)).

Eine Entscheidung des norwegischen Ethikrats für einen Investitionsausschluss betroffener Unternehmen hätte also großes Gewicht und könnte starke Signale setzen:  Sie würde die Regeln für Nachhaltigkeit in der Finanzwelt neu definieren und könnte zusätzlich den Druck auf die internationale Staatengemeinschaft erhöhen, ebenfalls feste Regularien einzuführen.