Bei der Anwendung von Künstlicher Intelligenz (KI) kommen viele ins Schwärmen: Autos können autonom fahren, Maschinen fordern selbstständig Wartungstechniker an, eine Software zählt die Einblendung eines Logos während einer Sportübertragung oder Kanzleien können riesige Aktenberge schnell auswerten. Doch die dahinter steckende KI ist immer nur so gut wie der Mensch, der den Algorithmus programmiert hat. Das Problem:
Weil Maschinen so das Leben von Menschen beeinflussen können, muss mehr Transparenz her. Unternehmen sollten aufzeigen, auf welcher Grundlage der Algorithmus operiert.
Genau daran arbeitet eine interdisziplinäre Gruppe der Softwareschmiede SAP. Ihre Mitglieder kommen aus dem Innovation Center, das technische Trends erkundet, aus dem Bereich Datensicherheit und Datenschutz sowie aus dem Bereich Government Relations, der Lobbyarbeit betreibt. „Wir wollen einen kategorischen Imperativ fürs maschinelle Lernen entwickeln“, zitiert das Handelsblatt SAP-Informatiker Markus Noga, der den Bereich maschinelles Lernen verantwortet. Denn die Algorithmen, die die riesigen Datenberge auswerten, liefern zwar scheinbar ein genaues Bild, können aber dann doch nicht viele individuelle Gründe abbilden. Das größte Manko aber ist, dass die Entscheidungsfindung völlig intransparent erfolgt.
So soll der Verhaltenskodex von SAP Missbrauch der Systeme verhindern, Verzerrungen vermeiden und bei der Entwicklung von Haftungsgrundsätzen mitarbeiten. Denn schon in der Vergangenheit gab es schnell fatale Fehler bei Big-Data-Analysen. Der Bilderkennungsdienst Google Photos fiel etwa dadurch auf, dass er beim Suchbegriff „Gorilla“ Menschen mit schwarzer Hautfarbe zeigte. Dem soll der Kodex durch Offenlegung entgegenwirken, in die Blackbox namens „Algorithmus“ Transparenz bringen und so in der Öffentlichkeit Vertrauen in die KI aufbauen.
Quelle: Handelsblatt, 18. Januar 2018