Zum Inhalt springen
Abnahme

Impuls

Ein Gefühl wie damals beim ersten iPhone.

Buchzusammenfassungen auf Knopfdruck oder Reiseplanungen über ChatGPT – seit OpenAI sein Large Language Model ChatGPT vorgestellt hat, finden Nutzer jeden Tag neue Anwendungsmöglichkeiten, um künstliche Intelligenz zu nutzen. Gleichzeitig stehen viele Menschen der neuen Technologie sehr skeptisch gegenüber. Im Interview erläutert Prof. Dr. Wolfgang Maaß von der Universität des Saarlandes die Vor- und Nachteile von KI und wohin die Reise geht.

Mai 2023

Ein Interview mit Herrn Prof. Dr. Wolfgang Maaß, KI-Experte an der Universität des Saarlandes.


Herr Professor Maaß, ChatGPT und sogenannte Large Language Models (LLM) sind in aller Munde. Welche Entwicklungen beobachten Sie im Bereich künstliche Intelligenz aktuell? Was sind die neuesten Erkenntnisse und Trends?

Ein ganz großes Thema sind definitiv die sogenannten Foundation Models. Das sind große neuronale Netzwerke mit Milliarden von Parametern, die in der Lage sind, eine breite Palette an Fragen und Aufgaben zu bearbeiten und in Ergebnisse umzuwandeln. Dazu gehören auch LLMs wie ChatGPT. Spannend ist hier zum einen, dass man Modelle nach ihrem ursprünglichen Training auf neue Aufgaben adaptieren kann, indem sie mit einem spezifischen Datensatz weitertrainiert werden. Zum anderen sind diese Modelle multimodal, das heißt, sie können nicht nur Text verarbeiten und ausgeben, sondern auch Bilder, gesprochene Sprache oder Videos. Bereits jetzt lassen sich damit kleinere Videoclips fertigen und es ist denkbar, dass die Technologie mittelfristig auch dazu in der Lage sein wird, kleine und große Filme zu erstellen. Allerdings erfordern Foundation Models eine sehr große Infrastruktur. KI-Technologien sind, so wie wir sie gerade sehen, künftig Teil einer KI-Infrastruktur, die auf dem aufsetzt, was derzeit als Cloud-Infrastruktur bekannt ist. Es wird also gerade eine neue Infrastruktur entwickelt, die diesen Anforderungen gerecht wird.

Das klingt, als ob eine große Veränderung ansteht. Wie beurteilen Sie die derzeitige Begeisterung rund um ChatGPT und KI-Kunst-Anbieter wie Midjourney und was kann KI heute schon realistisch leisten?

Das muss man differenziert betrachten. Es gibt sicher viele Menschen, die sehr überschwänglich jede neue Technologie feiern und das Ende vieler Berufe beschwören. Bei LLMs, wie ChatGPT und Bard, werden große Datenmengen für das Training großer Modelle verwendet, wofür erhebliche finanzielle Ressourcen eingesetzt werden. Das große Interesse an ChatGPT und Midjourney zeigt, dass solche Systeme auch für den Normalbürger nützlich sind. Die-se Systeme leisten bereits heute erstaunliche Dinge. Insbesondere bei der Zusammenfassung von Inhalten oder auch im generativen Bereich, wie dem Verfassen von Reden oder Gedichten, sind die Ergebnisse sehr, sehr gut. Die neueste Version von ChatGPT, GPT-4, ist einfach beeindruckend. Als Werkzeug betrachtet, können solche Tools auch heute schon äußerst nützlich sein und viele Aufgabenstellungen deutlich vereinfachen. Unternehmen sollten mit KI-Technologien eigene Erfahrungen sammeln, um herauszufinden, wie sich durch KI ihr Geschäftsmodell und ihre Arbeitsprozesse verändern lassen.

Können Sie Beispiele für Anwendungsbereiche nennen, in denen KI fest integriert ist?

Tatsächlich wird KI schon recht lange genutzt. Auch im Alltag der Menschen spielt sie eine immer wichtigere Rolle – teils ohne dass es uns bewusst ist. So nutzen mittlerweile viele Produkte des täglichen Lebens im Hintergrund entsprechende Systeme, wie etwa Wetterprognosen oder die Sprachassistenten Alexa oder Siri. Zudem generieren Streamingdienste mit KI-Mechanismen beispielsweise ihre Empfehlungen für interessante Serien. Aber auch in der Industrie ist KI bereits mit sehr guten Spezialanwendungen zu finden. Wir haben beispielsweise bereits Projekte durchgeführt, bei denen KI in der Produktion eingesetzt wird, sei es in der Verschleißdetektion, dem Feinschneiden von Metall-spulen oder der Kunststoffproduktion. Wenn man über das Thema Anwendungen spricht, muss man allerdings auch erwähnen, dass insbesondere in deutschen Unternehmen in Bezug auf KI eine recht hohe Zurückhaltung herrscht. Entsprechend sind diese Technologien nur in wenigen Fällen in der Industrie angekommen. Kaum ein Unternehmen hat einen strategischen Blick auf das Thema und sieht es als Asset. Das liegt vor allem daran, dass Unternehmen und Managern das Thema fremd ist und daher wenig Bereitschaft besteht, zu investieren. Das ist tragisch, denn aus diesem Grund wandert viel Expertise in der Forschung und der Entwicklung ins Ausland ab. Ich befürchte, dass viele Firmen in einigen Jahren zurückschauend sagen werden: „Das Thema sind wir zu langsam angegangen.“

„Tatsächlich wird KI schon recht lange genutzt. Auch im Alltag der Menschen spielt sie eine immer wichtigere Rolle – teils ohne dass es uns bewusst ist. So nutzen mittlerweile viele Produkte des täglichen Lebens im Hintergrund entsprechende Systeme, wie etwa Wetterprognosen oder die Sprachassistenten Alexa oder Siri.“

Prof. Dr. Wolfgang Maaß

Inhaber des Lehrstuhls für Betriebswirtschaftslehre, insbesondere Wirtschaftsinformatik im Dienstleistungsbereich der Universität des Saarlandes, wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und außerordentlicher Professor für Biomedical Informatics an der Stony Brook University, NY.

Liegt diese Zurückhaltung eventuell auch an der Gesetzgebung? Gibt es im Bereich der künstlichen Intelligenz überhaupt schon relevante regulatorische Vorgaben und was wird sich entwickeln?

Einschränkungen durch den Gesetzgeber gibt es bislang nicht. Allerdings ist die EU mit Blick auf regulatorische Rahmenbedingungen bereits sehr weit: Die EU-Kommission hat schon im April 2021 einen Entwurf für eine KI-Verordnung vorgelegt, den sogenannten AI Act. Die Verordnung richtet sich sowohl an Anbieter von KI-Systemen als auch an die Nutzerinnen und Nutzer und regelt den Umgang mit der Technologie basierend auf einem Risikostufenmodell. Damit ist die EU durchaus einer der Vorreiter in diesem Bereich. In den USA hat die National Artificial Intelligence Research Resource Taskforce (NAIRRT) im Januar 2023 ihren Abschlussbericht veröffentlicht. Darin hat die Taskforce Eckpunkte und Rahmenbedingungen für eine nationale KI-Infrastruktur er-arbeitet, die den freien Zugang und die demokratische Nutzung von KI-Modellen gewährleisten soll. Und die Ergebnisse sind durchaus bemerkenswert, denn die NAIRRT macht klar, dass KI-Infrastruktur ähnlich betrachtet werden muss wie Autobahnen und Straßen – als Infrastruktur, zu der jeder freien Zugang haben muss, um die Demokratie zu schützen und die Kontrolle über KI-Modelle nicht in die Hand weniger großer Unternehmen abzugeben.

Das klingt nach einer großen Herausforderung. Welche weiteren Risiken gibt es im Zusammenhang mit der Implementierung von künstlicher Intelligenz? Und worauf sollten sich Unternehmen vorbereiten?

Ich denke, dass eine der größten gesellschaftspolitischen Herausforderungen tatsächlich in der Demokratisierung der Infrastruktur liegen wird. Wir müssen uns fragen, wie wir sicherstellen können, dass alle Zugang zu KI-Modellen haben und möglichst viele Menschen davon profitieren. Darüber hinaus bestehen der-zeit in der Anwendung noch einige berechtigte Sicherheitsbedenken. Was passiert mit den Daten, die Unternehmen in ein KI-System eingeben? Wie lässt sich das System gegen Prompt Injection, also das missbräuchliche Einbauen von Befehlen in Konversationen durch Hacker, schützen? Solange das nicht geklärt ist, wird der große Durchbruch noch etwas dauern. Auch sogenannte Halluzinationen sind ein Problem – in diesem Fall füllt die KI Lücken in ihrem Wissen aus, indem sie Inhalte erfindet. Wenn diese Fragen beantwortet sind, wird es aber vermutlich sehr schnell gehen. Dann kommt es stark darauf an, wie Unternehmen KI strategisch nutzen. Hier besteht derzeit noch ein starker Hang zu Silo-Ansätzen. Jede Abteilung baut eine eigene Lösung, die dann nur auf ihre speziellen Daten trainiert ist und nicht skaliert oder integriert werden kann. Das ist weder sinnvoll noch wird sich dies in Zukunft rechnen.

Wie bewerten Sie bei all diesen Herausforderungen den Einsatz von KI aus volkswirtschaftlicher Sicht? Wird das eher ein Nullsummenspiel – oder macht er uns alle reicher oder gar ärmer?

Ich bin zuversichtlich, dass der Einsatz von KI durch Produktivitäts-zuwächse erhebliche Wohlfahrtsgewinne generieren wird. Das kurz- und mittelfristige Ergebnis wird stark von den gesellschaftlichen und politischen Rahmenbedingungen abhängen. Falls es nicht gelingt, Unternehmen zu einem verantwortungsvollen Handeln zu bewegen, kann es zu Verlusten kommen, wenn exzessiv Mitarbeiterinnen und Mitarbeiter entlassen oder ersetzt werden, um Gewinne zu erhöhen. Grundsätzlich werden einige Menschen die Arbeit, der sie gerne nachgehen würden, nicht mehr ausüben können. Hier sind deutliche Parallelen zur industriellen Revolution oder zur Einführung des Computers zu erkennen, nur dass dies-mal eher Büroangestellte betroffen sein werden. Dies sollte hoffentlich jedoch nur mittelfristig ein Problem darstellen und könnte durch Weiterbildungsmaßnahmen und Umschulungen für Betroffene abgefangen werden.

Das wird sicher nicht einfach. Aber wie können Menschen am besten von KI profitieren?

Hier gibt es sicherlich verschiedenste Möglichkeiten. Beruflich können Tools, die auf künstlicher Intelligenz basieren, ein sehr mächtiges Werkzeug sein. So muss man sie auch verstehen. Wer sich mit diesem Thema jetzt beschäftigt, wird sicher sehr gute Chancen auf dem Arbeitsmarkt haben. Bereits jetzt gibt es beispielsweise viele Stellenausschreibungen für Prompt Engineering, also die Entwicklung optimaler Befehle für Sprachmodelle, die auf künstlicher Intelligenz basieren.

Sie haben beruflich sehr viel mit KI zu tun. Welche Anwendung begeistert Sie persönlich am meisten?

Das ist derzeit sicherlich ChatGPT. Als OpenAI ChatGPT zugänglich gemacht hat, war ich gerade in Taiwan, und als ich es das erste Mal geöffnet und benutzt habe, hat es mich wirklich sehr beeindruckt. Für mich war das vergleichbar mit dem Moment, als ich 1997 das erste Mal einen Browser geöffnet habe oder ein Gefühl wie 2007 mit dem ersten iPhone. Ich habe zwar auch Alexa und Siri oder Google Home – aber das sind für mich eher Spielereien. ChatGPT hingegen begeistert mich so sehr, weil es meine Arbeit beschleunigt. Das ist ein virtueller Assistent, der mir auf eine Frage hin sehr schnell häufig qualitativ gute Antworten liefert. Und darüber hinaus liefert er selbst bei fachlichen Fragestellungen sehr interessante Ergebnisse. OpenAI hat auch GitHub Copilot entwickelt – ein cloudbasiertes Tool zum Programmieren. Copilot bietet etwa während des Programmierens Vorschläge zur Vervollständigung des Codes an, das nutze ich regelmäßig.

Sie sind als Professor an der Uni ja auch in der Lehre tätig. Jubeln Ihnen dort inzwischen immer mehr Studierende Arbeiten unter, die in Wirklichkeit von ChatGPT geschrieben wurden?

Unterjubeln ist hier der falsche Begriff. In meinem Fachbereich und meinen Veranstaltungen sind die wenigsten Aufgaben rein textbasiert. Stattdessen geht es um Verständnis oder das Entwickeln eigener Ideen sowie ums Programmieren. Wenn Studierende bei der Umsetzung ChatGPT nutzen, halte ich das für sehr sinnvoll, da es auch zeigt, dass sie mit solchen Tools umgehen können. Wichtig ist, dass sie Ergebnisse erklären und begründen können. Das ist ein Skill, den sie später brauchen – umso besser, wenn sie es in der Universität lernen. In anderen Bereichen ist das sicher eine größere Herausforderung, etwa im Bereich der Literaturwissenschaften oder auch der Wirtschaftswissenschaften. Wenn es darum geht, Zusammenfassungen zu schreiben oder Businesspläne zu entwickeln, wird immer stärker auch auf ChatGPT zurückgegriffen. Entsprechend muss in mündlichen Prüfungen verstärkt abgefragt werden, ob die Studierenden ihr Thema auch wirklich verstanden haben. Etwas anderes ist der Umgang mit Informationen im Alltag. Durch die KI-basierte Generierung jeglicher Inhalte wird es zunehmend schwieriger, sich ein wahrhaftiges Bild zu machen. Wir werden zurückgeworfen in die Situation, dass wir Informationen nicht mehr einfach vertrauen können, sondern wir selber denken und basierend auf einem eigenen Wertesystem Entscheidungen treffen müssen. Es reicht nicht mehr, einfach zu replizieren, was ich um mich herum sehe. Das ist eine ganz neue Form des Umgangs mit vermeintlicher oder tatsächlicher Information. Und das betrifft dann nicht mehr nur meine Studierenden, sondern uns alle als Gesellschaft.

Quelle: fondsmagazin

weitere interessante Artikel