"Regulierung ist nicht der Feind von Innovation"
Round-Table-Diskussion, moderiert durch Mag. (FH) Dieter Aigner, Geschäftsführer der Raiffeisen KAG mit den Expert:innen
Mag. Günther Schmitt, Fondsmanager und Leiter der Abteilung Aktien, entwickelte Märkte, Raiffeisen KAG, Wien
Dr. Sandra Wachter, Professor of Technology and Regulation, Universität Oxford
Mag. Michael Wiesmüller, Leiter der Abteilung Digitale und Schlüsseltechnologien für industrielle Innovation, Bundesministerium für Klimaschutz, Umwelt, Energie und Mobilität, Innovation und Technologie, Wien
Dipl.-Ing. (FH) Bernd Zimmermann, Go-To-Market Lead für Modern Work & Surface für Österreich, Microsoft, Wien
Dieter Aigner: Nach zähem Ringen hat man sich auf EU-Ebene im letzten Dezember doch noch auf ein neues Gesetz zur künstlichen Intelligenz, den AI Act, geeinigt. Frau Wachter, Sie haben aktiv an diesem Gesetz mitgewirkt. Wie zufrieden sind Sie mit dem Ergebnis? Können Sie uns vielleicht auch kurz darlegen, was das Gesetz im Grundsatz leistet?
Sandra Wachter: Ich bin sehr zufrieden, dass wir dieses Gesetz überhaupt haben. Auch wenn es berechtigte Kritikpunkte gibt, so ist der AI Act, so wie er jetzt ist, tausendmal besser als kein Gesetz zu haben. Es ist ganz, ganz wichtig, dass wir jetzt eine Regulierung haben, mit der man arbeiten kann. Definitiv positiv ist, dass das Gesetz nicht nur die prädiktive künstliche Intelligenz reguliert – also den Einsatz von maschinellem Lernen, um Muster in vergangenen Ereignissen zu erkennen und Vorhersagen über zukünftige Ereignisse zu treffen –, sondern auch die generative KI, die menschliche Sprache, Kunst und andere komplexe Themen lernen kann, um dann neue Aufgaben zu lösen.
Was sind Ihre Kritikpunkte?
Sandra Wachter: Die liegen im Bereich der Ausgestaltung. Bei der generativen KI hat man einen Zwei-Stufen-Ansatz definiert, an den sich Entwickler von sogenannten generativen AI-Modellen halten müssen. Weist das Modell systemische Risiken auf, dann sind die Anforderungen nochmals höher. Grundsätzlich ist gegen diesen Zwei-Stufen-Ansatz nichts einzuwenden. Das Problem ist nur die Klassifizierung. Denn die erhöhten Anforderungen kommen nur dann zur Anwendung, wenn man sich in einem hohen FLOPS-Bereich befindet. FLOPS, das sind die Floating-point operations per second, ein Maß für die Leistungsfähigkeit von Computern oder Prozessoren. Es geht hier also darum, wie viel Energie, wie viel Ressourcen während des Trainings verbraucht werden, und da fallen dann nur ganz starke leistungsfähige Modelle, also wahrscheinlich nur GPT 4 oder vielleicht Gemini, hinein. Das heißt, diese strengeren Regeln gelten nur für dieses System. Aus meiner Perspektive ist das keine geeignete Maßzahl, Gefahr zu messen, damit misst man eher die Umweltbelastung. Die Dinge, um die wir uns Sorgen machen müssen, wie Bias, Diskriminierung, Missinformation, mangelnde Erklärbarkeit und Datenmissbrauch, lassen sich so nicht festmachen und finden auch bei weniger leistungsstarken Modellen statt. Aber diese Ausgestaltung lässt sich eventuell noch mit einem delegierten Rechtsakt korrigieren. Wenn es um die prädiktive KI geht, hätte ich befürwortet, bestimmte Anwendungen der Emotionserkennung und Gesichtserkennung (z. B. in der Strafrechtspflege) sowie die vorausschauende Polizeiarbeit („predictive policing“) komplett zu verbieten.
Die EU hat mit der Regulierung von KI die Nase vorn. Wie wichtig ist das?
Sandra Wachter: Sehr wichtig. Es ist ganz fantastisch, dass wir hier als Erste die Fahne in den Boden stecken konnten! Jetzt setzen wir den globalen Maßstab.
Nachteile für den Standort sehen Sie nicht?
Sandra Wachter: Wenn man Regulierung als Feind der Innovation betrachtet, dann kann man das so sehen. Aber wenn man sich den AI Act anschaut, dann ist es das Gegenteil davon. Diese Regulierung ist dazu da, Grund- und Menschenrechte zu schützen, KI erklärbar zu machen, Sexismus und Rassismus so gut es geht zu verhindern und die Cybersecurity zu stärken.
Ich denke nicht, dass man damit schlechter aussteigt. Unabhängig davon muss man sich überlegen, wo die Macht zu Hause ist. Die Macht ist nicht dort, wo entwickelt wird, sondern dort, wo gekauft wird. Europa ist der größte Markt der Welt. Es ist gut, wenn wir hier voranschreiten und den Ton angeben.
Wie sehen Sie das, Herr Wiesmüller? Ist die Regulierung der Feind der Innovation?
Michael Wiesmüller: Man kann es nicht oft genug sagen: Wir müssen aufhören, einen Gegensatz zwischen Innovation und Regulierung herzustellen. Das ist extrem schädlich für die Diskussion. Innovation und Regulierung müssen aufeinander bezogen werden. Für unser Team im Ministerium ist daher vor allem das 5. Kapitel sehr wichtig, in dem es um „Measures in Support of Innovation“ geht, also die Maßnahmen, wie man eine Regulierung so gestalten kann, dass sie innovationsfreundlich ist. Dieses Kapitel ist der Versuch, diese gefährliche Gegenüberstellung von Innovation und Regulierung aufzulösen. Wie können wir Prozesse schaffen, wo Innovatoren von den Regulatoren etwas lernen und umgekehrt. Wie können wir Prozesse gestalten, um besser zu regulieren und menschengerechtere Innovationsprozesse zu schaffen. Das war eines der wichtigsten Kapitel für uns und ganz generell ist dieser Abschnitt sehr gut gelungen. Man kann es immer besser machen, das ist ja nicht die Bibel für die nächsten 100 Jahre, und vielleicht muss man es novellieren, aber für den Anfang ist es sehr wichtig und ausreichend gut aus meiner Perspektive.
Braucht Technologie ganz generell Regulierung?
Michael Wiesmüller: Das, was wir gerade mit der KI-Verordnung sehen, würde ich als Prinzip bezeichnen, das uns immer schon begleitet hat. Nämlich, nicht alles, was technisch möglich ist, ist auch ökonomisch gut und gesellschaftlich richtig. Technologische Entwicklungen müssen kritisch betrachtet werden. Die Kategorien, von denen wir hier reden – Diskriminierung und die Auswirkungen auf die Demokratie –, klingen abstrakt. Wir hatten in den 1950er-Jahren in Europa einen Wunderstoff, einen Werkstoff, der fantastische Eigenschaften hatte. Er war leichter und einfach herzustellen. Man konnte ihn überall verbauen und hat es auch getan: in Luftfiltern, in Zahnbürsten, in Gebäuden, in Autos. Der Stoff hieß Asbest. Wir haben lange gebraucht, um zu erkennen, welche toxikologischen Auswirkungen dieser Werkstoff auf menschliches Leben hat. Und erst in den 1980er- und 1990er-Jahren hat man begonnen, Regulierungsschritte zu setzen. Damit möchte ich natürlich nicht KI mit Asbest vergleichen. Aber wir müssen begreifen, dass Technologien toxische Auswirkungen auf uns, unsere Kinder, unsere Gesellschaft und unsere Demokratie haben können und wir Technologien aktiv gestalten können. Und ich teile die Ansicht von Frau Wachter, dass auch eine nicht perfekte Regulierung um vieles besser ist als gar keine Regulierung.
Die wirtschaftliche Macht, die Europa hat, kann umgesetzt werden in eine Regulierungsmacht, und die wiederum brauchen wir auf geopolitischer Ebene, wenn es darum geht, eine Global Governance of AI zu bewerkstelligen.
Microsoft ist einer der großen Anwender von künstlicher Intelligenz, und das ja nicht erst, seit die Diskussion darüber von einer breiten Öffentlichkeit geführt wird. Alle Einsatzgebiete aufzuzählen würde hier vermutlich den Rahmen sprengen, aber könnten Sie uns ein paar anschauliche Beispiele nennen, wo künstliche Intelligenz bei Ihnen zur Anwendung kommt?
Bernd Zimmermann: Verantwortung und Vertrauen stehen bei uns an erster Stelle. Entsprechende Rahmenbedingungen sind Voraussetzung, damit sich Vertrauen bilden kann. Was die Beispiele betrifft, so gibt es unter anderem in der Medizin fantastische Anwendungen. Ich bin selbst immer wieder überrascht, welche Möglichkeiten uns die KI jedes Mal aufs Neue bietet. So können Mediziner:innen über Teams-Meetings Diagnosen austauschen und Expertisen in Echtzeit einholen. Man kann Röntgenbilder in Modelle gießen und viel schneller und einfacher Diagnosen erstellen. Auch Tumoren können mit Hilfe von KI schneller und auch einfacher als gut- oder bösartig eingestuft werden. Ein weiteres Beispiel gibt es aus dem Bildungsbereich. Während das Bildungsministerium den Einsatz von KI noch langsam angehen möchte, arbeiten Schüler:innen und Studierende bereits in gewissem Umfang damit. Und als Vater zweier Kinder, mit einem Sohn, der Legasthenie hat, weiß ich, dass KI in der Bildung enorm viel beitragen kann. Bei Kindern, die alphabetisiert werden, kann KI viel schneller die Schwächen analysieren, wie beispielsweise die Aussprache beim Lesen, das Vertauschen von Silben etc. Mit diesem raschen Input können Lehrer:innen viel besser auf diese individuellen Schwächen eingehen und ihre Zeit noch gezielter einsetzen. KI kann das Thema Bildung – sowohl Aus- als auch Weiterbildung – auf völlig neue Beine stellen. Und last, but not least kann künstliche Intelligenz auch bei der Programmierung im IT-Bereich, wo es ja aktuell einen großen Fachkräftemangel gibt, eingesetzt werden. Und last, but not least kann künstliche Intelligenz auch bei der Programmierung im IT-Bereich, wo es ja aktuell einen großen Fachkräftemangel gibt, eingesetzt werden.
In der Automobilbranche gibt es zum Beispiel viele Schritte, die die KI übernehmen kann – die restlichen 20–30 % werden dann noch vom Menschen finalisiert. Vorausgesetzt, es gibt entsprechende gesetzliche Rahmenbedingungen und das Vertrauen in die Technologie.
Ist Schutz vor Missbrauch, Diskriminierung und Kriminalität überhaupt möglich?
Sandra Wachter: Wenn man ein System hat, das auf historischen Daten basiert, dann ist es technisch unmöglich, dass es keinen Bias hat. Ein Hund, der seit Jahren den Briefträger beißt, wird nicht damit aufhören, weil er selbst zur Einsicht kommt, dass das kein feiner Zug ist. Auch die KI kann nicht kritisch darüber nachdenken, ob es in der Vergangenheit vielleicht einen Fehler gab. Sie führt das aus, was man ihr beigebracht hat. Befindet man sich nun im Hochrisikobereich – Arbeitswelt, Ausbildung, Kreditvergabe, Strafrechtspflege etc. –, wo für Menschen existenziell wichtige Entscheidungen getroffen werden, dann ist es wichtig, diesen Bias als gegeben anzunehmen und etwas dagegen zu unternehmen, nämlich den Algorithmus so anzupassen, dass Diskriminierung nicht mehr passiert. Indem man das nicht negiert, kann man aus einem Fehler eine Chance machen und künftig viel bessere, fairere und transparentere Entscheidungen treffen, als das früher möglich war.
Bernd Zimmermann: Dass wir in Bezug auf künstliche Intelligenz sehr rasch rechtliche Rahmenbedingungen gefunden haben, war ein Meilenstein für uns. Bei Social Media gibt es noch Aufholbedarf und wir erkennen hier nun, welche Auswirkungen das auf die Gesellschaft hat. Man muss sich bewusst sein, dass derartige Technologien sehr schnell umsetzbar sind. Es ist daher auch wichtig, dass die Führungsebene in Unternehmen eine klare Strategie festlegt, wie mit KI umgegangen werden soll und welche Verantwortung man für die Gesellschaft hat. Außerdem gilt es zu definieren, wo KI sinnvoll eingesetzt werden kann und wo bewusst darauf verzichtet werden soll.
Welche Rolle spielt KI für Investoren?
Günther Schmitt: In der Investmentwelt hat sich KI zu einem der wichtigsten Themen entwickelt. Sieht man sich die Kursverläufe an den Börsen an, dann sind zuletzt die Unternehmen gut gelaufen, die im Bereich KI besonders viel machen und viel Geld investieren. Derzeit läuft die Berichtssaison der amerikanischen Unternehmen, und vor kurzem haben drei wichtige Unternehmen ihre Berichte vorgelegt: Meta, Amazon und Apple. Alle haben von extremen Wachstumsraten gesprochen und auch gesagt, dass sie sehr viel Geld in KI investieren. Diese Unternehmen kämpfen aber auch mit Datenmissbrauch. Daher ist es aus nachhaltiger Sicht auch problematisch, in diese Unternehmen zu investieren.
Wir haben hier Standards, die wir einhalten, und wollen daher in manche dieser Unternehmen nicht investieren. Aber wir sind mit den Unternehmen in Kontakt und versuchen gemeinsam mit anderen europäischen Investoren, sie dazu zu bewegen, diese Probleme zu lösen.
Und abseits der genannten Unternehmen?
Günther Schmitt: Wir sehen für den Einsatz von KI viele Chancen und stehen KI grundsätzlich sehr positiv gegenüber. Herr Zimmermann hat schon einiges angesprochen. Die Medizin ist so ein Beispiel. Wenn man sich die Pharmabranche ansieht, so kann KI bei der Medikamentenentwicklung, wo wir bislang Jahre und Jahrzehnte gebraucht haben, diese deutlich billiger und schneller machen. Ein Kritikpunkt an der KI – neben dem schon gehörten – ist der hohe Energiebedarf. Aber ich denke, dass wir das in Zukunft mit erneuerbaren Energien lösen können. Was das Thema Arbeitsplätze betrifft, sehe ich das nicht so negativ. Es fallen zwar Arbeitsplätze weg, aber es entstehen auch wieder Berufsfelder. Das größte Problem ist tatsächlich der Datenmissbrauch. Und da muss man noch viel intensiver mit den Unternehmen reden. Und je öfter man das tut und je mehr das machen, desto eher werden sie das Problem beseitigen.
Wie stellt sich das aus Ihrer Sicht dar, Herr Wiesmüller. Wird KI Arbeitsplätze kosten?
Michael Wiesmüller: Eine unglaublich spannende Frage, die uns schon seit zehn Jahren beschäftigt. Damals ging es noch um das Thema Automatisierung und Robotik. Ich glaube, man muss hier unterscheiden zwischen Jobs und Tasks. Da gibt es einen großen Unterschied. Bestimmte Aufgabenstellungen werden – getrieben durch AI – wegfallen. Viele Berufe bestehen aber aus einem Bündel unterschiedlicher Aufgaben. Einige werden durch KI ersetzt werden, andere möglicherweise stark umgestaltet werden, neue hinzukommen. Die Geschwindigkeit wird ein Faktor sein. Normalerweise haben es Arbeitsmärkte in der gesamten Geschichte des 20. Jahrhunderts geschafft, die Automatisierungen zu absorbieren. Berufsgruppen sind zwar geschrumpft, aber es sind immer wieder neue entstanden. Die Hauptargumentation der, nennen wir sie Techno-Pessimisten, gründet darauf, dass diesmal die Entwicklung so schnell vonstattengeht, dass es der Arbeitsmarkt nicht schaffen wird, das zu absorbieren. Aus meiner Sicht sollte man die Aufgaben, die man sinnvoll automatisieren kann, automatisieren. AI-Systeme für bestimmte Aufgabenstellungen zu verbieten, um Arbeitsplätze zu schützen, erscheint mir nicht sinnvoll. Da müsste es bessere Gründe geben. Ich glaube nicht, dass KI eine Maschine sein wird, die uns viele Jobs kosten wird. Sie wird den Arbeitsmarkt umkrempeln, sie wird ihn neu strukturieren und neue Profile erfordern. Aber sie wird keine Heere an Arbeitslosigkeit schaffen. (Siehe: Schöne neue Arbeitswelt)
Kann KI den Menschen überhaupt ersetzen. Es geht hier ja auch um Soft Skills wie Empathie etc.?
Bernd Zimmermann: Künstliche Intelligenz kann bei weitem nicht alle Fähig- und Fertigkeiten, die den Menschen ausmachen, ersetzen. Sie ist weder empathisch oder kreativ, noch kann sie Netzwerke knüpfen, und diese Skills werden zum Beispiel in Zukunft noch wichtiger werden. Doch es gibt viele Bereiche, wo Automatisierung einfach der bessere Weg ist und KI Kapazitäten freisetzt, die dann für kreative, konzeptionelle Arbeit oder Innovation verwendet werden können. Ich sehe das also sehr positiv. Aber auch Bildung wird im allgemeinen Arbeitsumfeld immer wichtig sein. Sie ist entscheidend für bessere Chancen am Arbeitsmarkt: anspruchsvollere Jobs, bessere Bezahlung und vieles mehr.
Sandra Wachter: Gerade beim Thema Arbeitsmarkt wird Regulierung sehr wichtig sein. Auch mir wäre es am liebsten, wenn Arbeiten, die ich nicht gerne mache, einfach automatisiert werden. Aber kriege ich dann das gleiche Gehalt? Sind mein Arbeitsplatz und mein Einkommen dann gesichert? Denn meist wird KI ja eingesetzt, um Kosten zu sparen. Unternehmen sind eher darauf spezialisiert, Arbeitsplätze abzubauen und nicht aufzubauen, und das hat man gerade im Tech-Sektor gesehen. IBM, Amazon, Meta und X bzw. Twitter haben massenhaft Arbeitsplätze abgebaut, um Kosten zu sparen. Und dann stellt sich eine andere Frage: Sind die neuen Arbeitsplätze, die künftig geschaffen werden, auch gut im Sinne von gut bezahlt und qualitativ gut? Oder muss ich dann den ganzen Tag einer KI über die Schulter schauen, ob der Algorithmus einen Fehler macht? Die Innovation ist hier tatsächlich schneller, als Arbeitsplätze nachwachsen können. Jede Technologie hat bestimmte Jobs obsolet gemacht. Aber aktuell werden gerade Arbeitsplätze in vielen Bereichen gleichzeitig ersetzt: Medizin, Justiz, Journalismus und Landwirtschaft. Das hatten wir bis jetzt noch nicht. Und die Jobs, die neu geschaffen wurden, wie Influencer, Prompt Ingenieur oder Platform Worker haben vermutlich eine kürzere Lebensdauer als traditionelle Jobs – zumindest haben sehr viele einen geringeren Arbeitsschutz als herkömmliche Angestellte. Man muss sich den Worst Case schon jetzt rechtspolitisch überlegen, damit wir Jobs haben, die erstrebenswert, sicher und gut bezahlt sind.
Seit Jahrzehnten versuchen große Investmentbanken auch bei aktiv gemanagten Fonds Quant-Modelle einzusetzen, um eine bessere Performance zu erzielen. Ist das gelungen?
Günther Schmitt: Nein, man sieht, dass das nicht funktioniert. Aktuell gibt es von einigen Gesellschaften wieder den Versuch, AI-Fonds aufzulegen. Doch auch diese sind bis jetzt nicht sehr erfolgreich, obwohl diese Modelle bzw. die Supercomputer im Hintergrund Daten millionenfach schneller verarbeiten, als wir Menschen das können. Aber offenbar ist der Mechanismus, wie Börsen funktionieren, noch nicht geknackt worden.
Geschwindigkeit ist ein großes Thema an den Börsen. Informationen – auch falsche – können innerhalb von Sekunden zu großen Verlusten führen …
Günther Schmitt: Dass es hier zu großen Verwerfungen kommen kann, das stimmt zu 100 Prozent. Wir erleben jetzt schon den einen oder anderen Flash Crash, wo durch KI Stop Losses ausgelöst werden, die zu Massenverkäufen führen und innerhalb von Sekunden Milliarden von Vermögenswerten vernichten. Die Unternehmen dahinter haben dann Kursverluste von 10, 20 %. Auch hier sind viele rechtliche Fragen ungeklärt. Es gibt Bestrebungen, das regulativ zu erfassen, aber bislang gibt es dazu keine zufriedenstellenden Antworten.
Heuer stehen wichtige Wahlen an, allen voran die in den USA. Bestimmt in Zukunft die KI, wer der Präsident der Vereinigten Staaten von Amerika wird?
Bernd Zimmermann: Ich glaube, wir sind alle sensibilisiert und noch vom letzten Wahlkampf gezeichnet. Ich kann mit Gewissheit sagen, dass große Technologieunternehmen und -firmen hier gut vorbereitet sein werden, um genau das zu verhindern. Kann man es gänzlich ausschließen? Nein, aber wir sind schon einen großen Schritt weiter.