Diese Seite verwendet Cookies.

Mehr erfahren

Künstliche Intelligenz

Die Grenzen erkennen

Zurück

Autofahren ist nicht schwer. Aber was ist, wenn es zu irrationalen Vorgängen und Situationen im Strassenverkehr kommt?

Die Bank verweigert einen Kredit trotz bester Bonität, Amazon schlägt beharrlich Bücher vor, die man nie lesen würde, und der Ganzkörperscanner am Flughafen findet irgendetwas auffällig am eigenen Körper: Die Auswirkungen maschinellen Lernens kennt jeder aus dem Alltag – auch wenn die wenigsten wissen, dass dahinter Künstliche-Intelligenz-Algorithmen liegen.

Je weitreichender die Einsatzgebiete solcher Algorithmen sind, umso gefährlicher sind mögliche Fehlschlüsse oder Ungenauigkeiten solcher Systeme: Das kann jeder sofort nachvollziehen, wenn es beispielsweise ums autonome Fahren oder um die Steuerung automatischer Waffensysteme geht. Experten glauben nicht daran, dass diese Fehler gänzlich auszumerzen sind. Sie liegen im System – und in der Anwendung: Denn es ist längst kein Allgemeingut unter Informatikern, welcher Algorithmus für welche Anwendung geeignet ist. Dazu kommen Annahmen, die im Vorfeld getroffen werden müssen, und bei vielen Algorithmen die Unmöglichkeit, das Ergebnis auf die Richtigkeit oder statistische Relevanz hin zu überprüfen.

Das Problem von Panzer und Sonne

Algorithmen können überwacht oder unüberwacht lernen. Ersteres wird unter anderem für Klassifikationsaufgaben genutzt: Ist beispielsweise ein Mensch auf einem Foto oder nicht? Grundlage dafür sind Trainingsdaten, anhand derer der Algorithmus auf Vorgabe eines Menschen lernt, was das richtige Ergebnis ist – auf diesen 1000 Bildern ist ein Mensch, auf diesen 1000 nicht. Hat das System für alle eventuell vorkommenden Fälle genügend Trainingsdaten, so die Idee, lernt es daraus selbst, bislang unbekannte Bilder zu klassifizieren.

So kursiert in Forscherkreisen das Beispiel eines Systems, das darauf trainiert wurde, Panzer auf Bildern zu erkennen. Der Trainingsdatensatz bestand aus Werbebildern der Herstellerfirmen von Panzern und beliebigen anderen Bildern, auf denen kein Panzer zu sehen war. Aber das System funktionierte in der Anwendung nicht – es erkannte Panzer nicht, sondern filterte stattdessen Bilder heraus, auf denen die Sonne schien. Das Problem war schnell erkannt: Auf den Werbebildern hatte ebenfalls stets die Sonne geschienen. Das Netz hatte das als Kriterium angenommen.

Woher stammen die Daten?

Aber nicht alle Fehler sind so einfach zu finden. Die Frage ist immer, woher die Daten kommen. Ein Sensor beispielsweise altert oder verschmutzt, Bilder werden eventuell mit der Zeit dunkler. Wer kein falsches Ergebnis haben möchte, muss diese „Datenalterung“ mit einrechnen – und sich ihrer dafür erstmal bewusst sein. Auch ein falsches Ergebnis wird nicht unbedingt so einfach entdeckt: Schließlich entscheiden Algorithmen nicht nur über für Menschen offensichtlich zu erkennende Dinge wie die, ob auf einem Bild ein Panzer ist.

Angesichts immer größerer Computer und wachsender Masse an Trainingsdaten gewinnen bei der Bilderkennung so genannte neuronale Netze immer mehr an Bedeutung. Sie sind heute die leistungsfähigsten Mustererkennungsverfahren. Dabei wird die Funktionsweise des menschlichen Gehirns lose nachgeahmt: Die Netze bestehen aus mehreren Lagen mit einer festzulegenden Anzahl an Neuronen, deren Verbindungen sich verstärken oder abschwächen abhängig von den „Erfahrungen“, die sie machen. Solche Erfahrungen sind beispielsweise die Trainingsdaten aus dem überwachten Lernen und das Feedback, ob zu einem Trainingsdatum die richtige oder falsche Vorhersage gemacht wurde.

Dank der vielen Übungsdaten lassen sich heute sehr viel größere und tiefere Netze trainieren als noch vor einigen Jahren. Während früher ein berühmter Computer-Vision-Datensatz aus 256 Bildern und sein Nachfolger aus 1000 Bildern bestand, gibt es heute Datensätze mit einer Million gelabelter Bilder – also solche, auf denen Menschen markiert haben, was darauf zu sehen ist.

Die Willkür der Entscheidung

Aber die Netze haben auch entscheidende Haken: Man kann bei neuronalen Netzen schwer nachvollziehen, wie sie zu einer Entscheidung kamen. Zudem beruhe der Entwurf neuronaler Netze auf einer großen Willkür: Bei der Entscheidung, wie viele Lagen mit wie vielen Neuronen genutzt werden sollten, beruhe vieles auf Bauchgefühl oder auf Ausprobieren. Die Entwickler testen verschiedene Varianten und schauen, wann das beste Ergebnis entsteht. Erklären können sie ihre Entscheidung nicht.

Dass häufig das Bauchgefühl oder auch relativ unbestimmtes Herumprobieren zu der Entscheidung führt, welcher Algorithmus für welches Problem angewendet wird, stört auch Katharina Zweig, Leiterin der Arbeitsgruppe Graphentheorie und Analyse komplexer Netzwerke an der TU Kaiserslautern: „Das größte Problem: Wir als Informatiker sind nicht dafür ausgebildet zu modellieren.“

Modellieren bedeutet beispielsweise die Entscheidung, welche Daten als Trainingsdaten relevant sind und welcher Algorithmus auf diese angewendet wird. Ein umstrittenes Projekt, das die Schufa vor einiger Zeit gemeinsam mit dem Hasso-Plattner-Institut angekündigt hatte, aus Daten von sozialen Netzwerken die Kreditwürdigkeit Einzelner vorhersagen zu können, beruhe auf einem Modell – der Idee, dass diese Daten dafür geeignet sein könnten. Welcher Algorithmus des maschinellen Lernens darauf angewendet wird, wird im Zweifel danach entschieden, welcher des beste Ergebnis bringt, also die nicht Kreditwürdigen findet und nicht zu viele Kreditwürdige fälschlich aussortiert. Schließlich wissen die Forscher aus der Zusammenarbeit mit der Schufa, wer als kreditwürdig eingeschätzt wird. Ein Algorithmus sucht dann Gemeinsamkeiten der Betroffenen anhand der Daten, die sie auf Facebook geteilt haben. Aber woher weiß man, dass das nicht zufällige Korrelationen sind? Und ist das dann seriös, Menschen auf dieser Grundlage einen Kredit zu verwehren?

Aber das Ganze hat auch noch ein größeres, statistisches Problem, das häufig übersehen wird – auch von Informatikern. Angenommen, am Ende entsteht ein Algorithmus, der anhand von Facebook-Daten zu 90 Prozent richtig vorhersagen würde, wen die Schufa als nicht kreditwürdig ansehen würde, und lediglich 5 Prozent Kreditwürdige fälschlicherweise als nicht kreditwürdig einstuft. Auf den ersten Blick wirkt das wie ein recht gutes Ergebnis. Man könnte auf die Idee kommen, dass Facebook eine gute Datenquelle ist, um die Kreditwürdigkeit von Menschen zu berechnen.

Unschuldige geraten zwangsläufig in Verdacht

Diese Gefahren sind beim unüberwachten Lernen möglicherweise noch größer. Dabei bekommt der Algorithmus keine Trainingsdaten und keinen Hinweis auf das gewünschte Ergebnis, sondern er soll Strukturen oder Zusammenhänge in den Daten erkennen. Er kann zum Beispiel ungewöhnliche Ereignisse finden, so genannte „Outlier“ – das wird angewendet, um Hackerangriffe auf Computernetzwerke anhand auffällig anderer Anfragen aus dem Netz zu erkennen. Die Aufgabe für den Algorithmus lautet dann: Finde heraus, was typische Ereignisse sind, und sage mir, was nicht typisch ist. Ein anderer wichtiger Anwendungsfall ist die Clusteranalyse, die Suche nach „natürlichen“ Gruppen, Daten mit ähnlichen Eigenschaften. Diese Verfahren sind beispielsweise geeignet, um Cliquen in sozialen Netzwerken zu identifizieren oder Kunden, die ähnliche Kaufinteressen haben.

Amazon beispielsweise wendet eine Mischung aus überwachten und nicht überwachten Verfahren an: „Kunden wie Sie interessierten sich auch für …“ beruht zum Teil auf dieser Clusteranalyse, die vielleicht erkannt hat, dass Käufer von Erziehungsratgebern oft auch Holzspielzeug kaufen. Der Algorithmus sortiert die Menschen in Gruppen. Die Kunden sind es dann, die den Algorithmus trainieren. Indem sie eine Empfehlung kaufen, zeigen sie ihm, dass er richtig liegt. Amazon kann Algorithmen einfach durchprobieren, verdienen sie mehr Geld, ist es für ihre Zwecke ein besserer Algorithmus.

Anders ergeht es beispielsweise der NSA. So einfach ist es nicht zu überprüfen, wie zielstrebig deren Algorithmus potenzielle Terroristen gefunden hat. Schließlich geraten zwangsläufig auch Unschuldige unter Verdacht.

Da ist die Sache mit der Verantwortung

Das Hauptproblem ist die Long Chain of Responsibility", die lange Verantwortungskette. Erst entwickelt jemand einen Algorithmus, dann implementiert ihn ein anderer, wiederum ein anderer wählt die Daten aus und jemand interpretiert das Ergebnis – häufig verschiedene Menschen, die nicht um die möglichen Fehler wissen, die bereits im System sind.

Wie stellen wir als Gesellschaft sicher, dass die Ergebnisse am Ende gut sind? Schließlich hat auch die Gesamtheit kein Interesse daran, dass beispielsweise zu wenig Kredite vergeben werden, weil falsche Annahmen in einen Algorithmus eingeflossen sind, den keiner mehr kontrollieren kann. Leute, die einen Kredit bekommen, bringen die Wirtschaft in Schwung.

Von einer Idee muss sich die Gesellschaft verabschieden: dass ein System, das auf maschinellem Lernen basiert, je mit einer Genauigkeit von 100 Prozent arbeitet. In der Regel liegt die Genauigkeit zwischen 60 und 99 Prozent. Das liegt häufig auch an ungenauen Eingabedaten – eine Fehlerursache, die oft bewusst hingenommen wird: Genaue Messungen sind teuer, man braucht mehr Zeit und bessere, teure Geräte. Für manche Anwendungsfälle kann man mit einer nicht perfekten Genauigkeit leben, für andere eher nicht: Kritisch wird es zum Beispiel, wenn der Computer in autonomen Waffensystemen falsche Entscheidungen trifft. Ein perfektes System lässt sich nicht realisieren. Alles andere ist Augenwischerei.

Zurück

The next big story

Haben Sie die nächste große Geschichte?

Möchten Sie diese mit dem :gerlachreport teilen?

Wir bieten Ihnen viele Möglichkeiten, sich mit unseren Journalisten in Verbindung zu setzen und Materialien zu liefern. Kein Kommunikationssystem ist völlig sicher, aber unsere Möglichkeiten werden helfen, Ihre Anonymität zu schützen.

Bitte senden Sie keine Rückmeldungen, Story-Ideen, Pitches, Leserbriefe oder Pressemitteilungen über diese Kanäle.

Für eine allgemeinere Korrespondenz nutzen Sie bitte unsere regulären E-Mail-Adressen.

Ihr sicherer Kontakt

Neben unseren regulären E-Mail-Adressen haben wir für vertrauliche Nachrichten und Mitteilungen ein Postfach eingerichtet, das über Pretty Good Privacy (PGP) verfügt und absolut sicher ist:

redaktion.dta@protonmail.com

Bitte hinterlassen Sie auf jeden Fall eine Telefonnummer. Wir rufen Sie innerhalb kürzester Zeit zurück.

E-Mails an die Redaktion oder Chefredaktions-Adresse werden durch die Sicherheitsabteilung überprüft. Es kann vorkommen, dass für die Verifizierung des Absenders ein Personennachweis angefordert wird, wenn der Verdacht einer Identitätsfälschung vorliegt oder vorliegen könnte.

Was ist ein guter Tipp?

Ein starker News-Tipp hat mehrere Komponenten.

Die Dokumentationen oder Nachweise sind wichtig.

Spekulationen können spannend sein. Verdächtigungen oder Behauptungen, die einer Überprüfung nicht standhalten, sind es nicht.

Eine guter Nachrichten-Tipp beschreibt ein klares und verständliches Problem. Die Suche nach Hilfe, weil großer Schaden oder Leid angerichtet wurden. Falsche Verdächtigungen helfen niemandem und führen nicht zu einer Veröffentlichung.

Aber lassen Sie sich nicht abschrecken. Manchmal ist ein kleiner Hinweis das fehlende Puzzlestück in einem gesamten Themenkomplex, der von uns ohnehin bearbeitet wird. Besonders wichtig: Hinterlassen Sie bitte eine Kontakt-Telefonnummer.

Gute Tipps sind:

Hier ist ein Beweis dafür, dass in einer Behörde, Organisation oder einem Verband gemauschelt, getrickst und getäuscht wird.

Hier ist der Beweis dafür, dass Anlegergelder falsch oder illegal benutzt werden.

Hier ist der Beweis, dass betrogen, unterschlagen oder veruntreut wird.

Hier ist der Beweis für Täuschung, falsche Versprechen und üble Abzocke.

Wir kontrollieren alle Nachrichten regelmäßig, können aber nicht versprechen, dass jeder Informant umgehend eine individuelle Antwort erhält.

Sämtliche Kommunikation unterliegt der strikten Vertraulichkeit.