MFG - Ist das schon Intelligenz?
Ist das schon Intelligenz?


MFG - Das Magazin
St. Pöltens gute Seite

Ist das schon Intelligenz?

Text Sascha Harold
Ausgabe 05/2023

Torsten Priebe ist Leiter der Forschungsgruppe Data Intelligence an der FH St. Pölten und co-koordiniert dort außerdem das Forschungszentrum für künstliche Intelligenz (KI). Im Interview spricht er über die aktuellen Entwicklungen, Anwendungsfelder und Grenzen von KI.

Was ist eigentlich künstliche Intelligenz (KI)?
Die Definition, die mir am meisten gefällt, stammt aus dem KI-Standardwerk von Stuart Russel und Peter Norvig: Künstliche Intelligenz versucht Maschinen in die Lage zu versetzen etwas zu tun, was sonst nur Menschen tun könnten. Das trifft es aus meiner Sicht ganz gut. 

Besonders prominent ist ja derzeit ChatGPT.
Ja, das stimmt. Vor kurzem fand an der FH die Social Artificial Intelligence Night – kurz SAINT – statt, an der Studierende und Partner teilnehmen. Um der Befürchtung zu begegnen, dass es in jedem Vortrag um ChatGPT geht, haben wir kurzerhand eine Bar auf die Bühne gestellt und bei jeder Erwähnung ein Stamperl ausgeschenkt – die Teilnehmer haben aber kreative Wege gefunden, um das Tool zu umschreiben.

Welche Unterscheidungen gibt es bei KI-Systemen?
Normalerweise unterscheidet man zwei bis drei Stufen. Das, was wir heute meist vorfinden, ist die sogenannte Narrow AI, bei der eine KI für einen bestimmten Anwendungszweck geschaffen wird. Beispiel ist ein Industrieunternehmen, das erkennen will, wann eine Maschine Wartung braucht. Der nächste Schritt ist die Möglichkeit, ein Modell, das eigentlich für einen anderen Anwendungsfall geschaffen wurde, so zu erweitern, dass es auch für andere Zwecke eingesetzt werden kann. Die jetzt diskutierten Modelle wie ChatGPT gehen schon in die Richtung. Die letzte Stufe nennt man generelle KI oder Superintelligenz.

Sind die Sorgen, die damit einhergehen, berechtigt?
Ich selbst komme aus einer Generation, in der die Terminator Filme beliebt waren und verstehe die Sorgen (lacht). Aber von einer künstlichen Intelligenz, die wirklich selbstständig denken und Entscheidungen treffen könnte – also einer echten, generellen KI – sind wir technisch noch sehr, sehr weit entfernt. 

In welche Richtungen gehen die aktuellen Weiterentwicklungen im Bereich KI?
Die verbreitetste Form von KI ist das sogenannte Machine Learning – mit der Variante Deep Learning. Ganz allgemein geht es dabei darum, dass Maschinen auf Basis von Daten etwas lernen. Large Language Models (die Basis aktueller Tools wie ChatGPT, Anm.) sind gefüttert mit sehr vielen Textquellen aus dem Internet und haben daraus statistische Zusammenhänge erlernt, mit denen sie neue Texte erzeugen können. Die theoretischen Grundlagen von Deep Learning stammen teils aus den 60er-Jahren, aber erst mit der heutigen Rechenleistung ist es möglich, entsprechende Modelle zu erzeugen. Eine andere Form ist die sogenannte symbolische KI, also eine Form der KI, die nicht aus Daten erlernt ist, sondern bei der Experten Regeln aufgestellt haben und der Maschine damit Wissen in Form einer Sprache beigebracht haben. Eine interessante aktuelle Entwicklung ist die Kombination der beiden Ansätze, das heißt KI-Systeme, die sowohl aus Daten als auch von Menschen lernen.

Was sind im Moment die prädestinierten Anwendungsfelder für KI und wofür ist sie im Moment noch weniger geeignet?
Ich glaube, wir sind im Bereich der Narrow AI, wo es um konkrete Anwendungsfelder geht, schon sehr gut. Wir haben selbst viele Projekte mit Partnern aus der Region, beispielsweise ein Forschungsprojekt mit Hutchinson Drei und Geo­Sphere, in dem wir versucht haben, Unwetter vorherzusagen. Ein weiteres Beispiel ist etwa Frostbekämpfung im Weinbau. Je genereller die Aufgabe aber wird, desto schwieriger wird es.

Welche Kritik gibt es an den derzeitigen Systemen?
Gerade bei datenbasierten KI-Systemen geht es um die Frage der Nachvollziehbarkeit, die bei diesen Systemen, insbesondere beim Deep Learning, relativ schlecht ist. Das ist problematisch, weil nicht klar ist, wie die Systeme auf ihre Antworten kommen. Konkret auf ChatGPT bezogen sind die Aussagen, die da teilweise kommen, absoluter Humbug. Eben weil sie statistisch entstanden sind. Ein schönes Beispiel: Man kann ChatGPT darum bitten, ein Literaturverzeichnis für eine wissenschaftliche Arbeit zu erzeugen. Dabei kommen Quellen heraus, die zwar plausibel sind, aber nicht exis­tieren. Sie enthalten Autoren, die schon gemeinsam publiziert haben, die konkrete Angabe ist aber erfunden. Statistisch plausibel also, aber eben falsch. Man darf bei diesen auf Statistik basierenden Modellen nicht davon ausgehen, dass Antworten auch immer korrekt sind. Andere Probleme sind etwa Befangenheit oder Bias, politische Färbungen etc.

Was kann man dagegen tun?
Im ersten Schritt wäre schon viel geholfen, wenn mehr Transparenz da wäre – Stichwort Erklärbarkeit. Wenn beispielsweise ChatGPT in der Lage wäre anzugeben, auf Basis welcher Internetquellen Antworten entstanden sind. Dann könnte man einschätzen, wie sehr man dieser Antwort trauen kann. Es bräuchte mehr Einbindung des Menschen als überprüfende Instanz in den Prozess. Gelegentlich spricht man dabei auch von Human-Centered Artificial Intelligence. 

Seit kurzem gibt es an der FH das Forschungszentrum für künstliche Intelligenz. Was passiert dort?
Wir hatten das Problem, dass wir KI-Themen in unterschiedlichen Departments, etwa in der Informatik, im Medien- oder im Gesundheitsbereich bearbeiten und wollten mit dem Center for Artificial Intelligence eine gemeinsame Anlaufstelle schaffen. Einerseits für die Außenwirkung, aber auch als Bündelung der Kompetenzen an der FH.

Welche KI-Themen sind an der FH besonders präsent?
Wir legen großen Wert auf das Zusammenspiel von KI und Nachhaltigkeit. Sowohl was Anwendungsfälle angeht, etwa im angesprochenen Wein- und Obstbau oder bei erneuerbaren Energiegemeinschaften, aber auch Themen wie Green AI, wo es etwa um den Energieverbrauch von KI-Systemen geht. Ein zweiter Bereich, der bei uns eine wichtige Rolle spielt, ist das Thema Trustworthy AI, also die Vertrauenswürdigkeit künstlicher Intelligenz. Da spielen auch die Diskussionen um Regulierung mit, seit längerem ist ja auch eine entsprechende EU-Richtlinie in Arbeit, die in absehbarer Zeit kommen wird. 

Lässt sich abschätzen, inwieweit künstliche Intelligenz schon in der Breite angekommen ist?
Ein Vorteil, den wir an der FH gegenüber Universitäten haben, ist, dass wir näher an lokalen und kleineren Unternehmen sind. Dort führen wir im Zuge des Digitalisierungstrends auch viele Gespräche zum Thema KI, meist im Sinne der angesprochenen Narrow AI, bei der es um konkrete Anwendungsfälle geht. Natürlich ist es noch ein weiter Weg, aber die Entwicklung findet statt.