Machine Learning :
Wie Künstliche Intelligenz die ökonomische Forschung erobert

Lesezeit: 4 Min.
Was braucht eine KI, um menschliche Tätigkeiten perfekt nachahmen zu können? Alicia Vikander in einer Szene aus Alex Garlands Film „Ex Machina“
Die KI verspricht Antworten auf bisher unbeantwortbare ökonomische Fragen. Bei manchen Problemen stößt aber auch der beste Algorithmus an Grenzen.

Künstliche Intelligenz (KI) hat das Potential, unser Leben auf den Kopf zu stellen. Und sie kann auch Antworten auf Fragen liefern, die uns bisher verschlossen blieben. In den Wirtschaftswissenschaften zum Beispiel finden Forscher mit ihrer Hilfe heraus, wie Einwanderer zu ökonomischen Aufsteigern werden oder wie Klimawandel und Wirtschaftswachstum entlegene Weltregionen verändern. Susan Athey, eine Vorreiterin im Einsatz der neuen Technologie, schrieb schon 2019, maschinelles Lernen – der Kern der KI – werde innerhalb kurzer Zeit eine „dramatische Auswirkung“ auf die Ökonomik haben. Die Schlüsse, die sie und ihre Kollegen auf Grundlage der neuen Methoden ziehen, verändern wiederum unser Verständnis der Welt.

Maschinelles Lernen kann sowohl bei der Zusammenstellung von Daten als auch bei deren Analyse helfen. In ersterem Fall ersetzt es das, was zuvor eine große Schar wissenschaftlicher Hilfskräfte von Hand tun musste. Und das in einem Bruchteil der Zeit. Das macht sehr viel größere Datensätze nutzbar, was zum Beispiel der Wirtschaftshistoriker James Feigenbaum von der Boston University in seiner Forschung einzusetzen weiß. Er greift auf historische Zensus-Daten zurück, um den Werdegang von Menschen über einen langen Zeitraum hinweg zu beobachten. Die Daten enthalten eine Fülle an Informationen zu Bildung, Familienverhältnissen und wirtschaftlicher Situation. Indem Feigenbaum und seine Kollegen einzelne Datensätze von einem Zensus zum nächsten verknüpften, konnten sie unter anderem zeigen, wie sich Einwanderer in den Vereinigten Staaten integrierten und zu ökonomischem Erfolg kamen.

Die Schwierigkeit liegt darin, dass diese Daten gewöhnlich voller Fehler sind. Dieselbe Person von Jahrzehnt zu Jahrzehnt zu verfolgen ist nicht so einfach. Aus dem deutschen Einwanderer Schmidt wird binnen zehn Jahren ein Smith. Oder beim Geburtsdatum schleicht sich ein Zahlendreher ein. Um daraus ohne die Hilfe von Computern einen konsistenten Datensatz zu machen, wären mühsame Handarbeit und eine Vielzahl an Bauchentscheidungen nötig. Feigenbaum trainierte einen Algorithmus, indem er für eine kleine Stichprobe Personen von Hand verknüpfte und der Software so beibrachte, was zum Beispiel häufige Alternativschreibweisen sind und wie viel Toleranz bei Abweichungen noch akzeptabel ist. Dieser Algorithmus ließ sich dann mit den Daten von Millionen Menschen füttern und fand mit relativ hoher Präzision die richtigen Paare.

Einsichten aus entlegenen Gebieten

Bisweilen müssen Ökonomen in der empirischen Forschung aber noch einen Schritt vorher ansetzen. Wenn die Daten nicht schön säuberlich in Computertabellen vorliegen, sondern nur gedruckt auf Papier, musste sie in der Vergangenheit jemand mühsam von Hand abtippen. Das ist nicht nur sehr teuer, sondern fehleranfällig. Die Ökonomin Melissa Dell hat dazu ein Programm entwickelt, das mithilfe von sogenanntem Deep Learning nicht nur Zahlen in eingescannten Tabellen erkennen kann, sondern auch deren Layout korrekt digitalisiert.

Während Feigenbaums und Dells An­sätze es ermöglichen, große Datenmengen nutzbar zu machen, stehen andere Ökonomen vor dem Problem, dass es für die Fragestellungen, die sie erforschen, schlichtweg keine guten Daten gibt. Wer sich etwa mit der ökonomischen Entwicklung oder den Auswirkungen des Klimawandels in ärmeren Ländern beschäftigt, der kann oft nicht auf akribisch erhobene staatliche Statistiken zurückgreifen. Ein interdisziplinäres Team an der Universität Stanford machte sich daher zunutze, dass es auch für die entlegensten Gegenden der Welt eine einheitliche Informationsquelle gibt: hochauflösende Satellitenfotos. Die Forscher brachten dem Computer bei, auf diesen Bildern Anzeichen ökonomischer Aktivität zu erkennen. Vereinfacht gesagt: Ein Quadrant mit Straßen und Fabriken weist auf mehr Entwicklung hin als ein Feld oder Wald. So konnten sie auf günstige Weise den Wohlstand einer Region schätzen.

Ein Bereich, in dem maschinelles Lernen schon länger benutzt wird, ist die Analyse von Texten. Das lohnt sich zum Beispiel bei Publikationen der Notenbanken, die gemeinhin jedes Wort mit Bedacht wählen, um Änderungen in ihrer Politik vorwegzunehmen, aber auch bei journalistischen Medien. Der Computer kann dann sprachliche Muster erkennen, die Menschen in Tausenden Seiten von Text vermutlich nicht auffallen würden. So ließen Susan Athey und ihre Ko-Autoren einen Algorithmus spanische Nachrichtentexte automatisch in Kategorien einteilen, um zu analysieren, wie sich das Nutzungsverhalten der Leser nach der Abschaltung von Google News im Jahr 2014 veränderte.

Bei einer Frage stößt KI an Grenzen

Bei einer zentralen Frage der Ökonomik kann der Computer den Menschen allerdings nicht ersetzen: Die Unterscheidung zwischen Korrelation und Kausalität kann nur treffen, wer mehr vom Inhalt versteht, als die KI aus den Daten herauslesen kann. Denn die erkennt letztlich nur gemeinsame Muster in den Daten, aber nicht, wie diese Muster zustande kommen. Das macht die Algorithmen zwar grundsätzlich sehr gut im Vorhersagen zukünftiger Ereignisse, aber auch anfällig für alles, was nicht in dieses Muster passt. Susan Athey schreibt dazu in der Fachzeitschrift „Science“, die Methoden seien vor allem zur Beantwortung relativ einfacher Fragen populär geworden: „Damit Standardvorhersagetechniken funktionieren, sind nur sehr wenige Annahmen erforderlich: Die Umgebung muss stabil sein, und die Einheiten, deren Verhalten untersucht wird, sollten sich nicht gegenseitig beeinflussen oder ‚stören‘.“

Vorhersagen und Kausalschlüsse seien zwar eng verknüpft, aber eben nicht das Gleiche, so Athey. Und je empirischer die Volkswirtschaftslehre in den vergangenen Jahrzehnten wurde, desto mehr rückte auch die Frage in den Mittelpunkt der Forschung, wie man einen Kausalzusammenhang angemessen belegen kann. Diese zentrale Frage werden Ökonomen bis auf Weiteres ohne Hilfe der Künstlichen Intelligenz beantworten müssen.

Auch die Größe der Datensätze in der Forschung schränkt den Nutzwert von Künstlicher Intelligenz für ökonomische Analysen ein. Google und Facebook können auf Milliarden von Datenpunkten zurückgreifen. Da können die Algorithmen ihre ganze Stärke ausspielen. Hinzu kommt die Gefahr von Verzerrungen in den Daten: Auch der beste Algorithmus spuckt falsche Ergebnisse aus, wenn man ihn mit schlechten Daten trainiert. Gerade weil die KI frei von jeder Theorie an die Daten herangeht, besteht dann die Gefahr, dass solche Fehler nicht auffallen.