03/2024 News mittlere Spalte Forschung
© Shutterstock
© Shutterstock

Künstliche Intelligenz: Die großen Chancen österreichischer Forscher

Grundlagenforschung. Nicht mit den finanziellen Mitteln, aber mit wissenschaftlicher Kompetenz können heimische Forscher:innen im globalen Wettbewerb bei der Entwicklung von Künstlicher Intelligenz (KI) punkten.

von: Wolfgang Pozsogar

Rund eine Milliarde US-Dollar hat OpenAI seit seiner Gründung im Jahr 2015 bei verschiedenen Geldgebern eingesammelt. Diese Zahl nennt zumindest ChatGPT, das berühmteste KI-gestützte Kind des Hauses. Eine stolze Summe für ein Start-up. Und die Investitionen haben sich gelohnt. Laut Reuters er-reichte der Konzern im vergangenen Jahr bereits einen Umsatz von zwei Milliarden US-Dollar und ist damit eines der am schnellsten wachsenden Technologieunternehmen der Geschichte. Der Wert des in San Franciso ansässigen Unternehmens wird – so Reuters weiter – auf mehr als 80 Milliarden Dollar geschätzt. Und OpenAI ist zwar das bedeutendste, aber nur eines von vielen großen KI-Projekten in den USA.

Spät, aber doch hat auch Europa erkannt, dass KI die vermutlich wichtigste Schlüsseltechnologie der Zukunft ist. Im Herbst des Vorjahres etwa verkündete die deutsche Bundesforschungsministerin Bettina Stark-Watzinger einen KI-Aktionsplan, der in dem Zeitraum von knapp zweieinhalb Jahren bis 2025 Investition von immerhin mehr als 1,6 Milliarden Euro vorsieht. Aber trotz solcher Maßnahmen, so warnte vor kurzem der Europäische Rechnungshof, hinke Europa im globalen Wettrennen um KI immer noch deutlich hinter den USA und auch China hinterher. Staatliche Stellen und private Unternehmen nehmen für die KI-Entwicklung in den USA deutlich mehr Geld in die Hand, -zitiert der „Spiegel“ die Prüfer des EU-Rechnungshofs.

Zukunftsweisende xLSTM-Technologie aus Oberösterreich

Dabei wäre in Europa durchaus die wissenschaftliche Kompetenz vorhanden, um im globalen Wettbewerb mithalten zu können. An der Johannes Kepler Universität (JKU) in Linz etwa arbeitet mit Josef „Sepp“ Hochreiter ein KI-Forscher mit weltweiter Reputation. Der Oberösterreicher mit bayrischen Wurzeln hat bereits in den 90er-Jahren wichtige Beiträge für die Entwicklung von Deep Learning geschaffen, das eine Voraussetzung für sprachbasierte KI-Systeme wie ChatGPT ist. Mit dem Large Language Model xLSTM entwickelte der Wissenschaftler später mit bescheidenen finanziellen Mitteln die Grundlagen für eine Technologie, die ChatGPT in vielen Bereichen schlagen könnte. Das bestätigte auch eine im Herbst des Vorjahres veröffentliche wissenschaftliche Publikation. Sie zeigte beeindruckende Leistungsdaten und fand in Fachkreisen großes Echo.

Der Begriff xLSTM steht für long short term memory, „ein langes Kurzzeitgedächtnis für die KI“, wie Günter Klambauer, Universitätsprofessor am renommierten Institut für Machine Learning der JKU, erzählt. Er erläutert das Prinzip von xLSTM am Beispiel des Lesens eines Buches. Der Leser wisse, dass danach Fragen gestellt werden, und versuche folglich, möglichst viele Informationen dafür bereitzustellen. Die Transformer-Architektur, auf der Systeme wie ChatGPT beruhen, merkt sich alle Worte des Buches. Das habe den Nachteil, dass sehr viel Speicher notwendig sei. xLSTM habe dagegen eine wesentlich vorteilhaftere Speicherstruktur, „dieses System macht sich quasi Notizen, die in Tabellen abgespeichert werden, und muss daher nicht den vollständigen Text abspeichern“, erklärt Klambauer. Dadurch werde gegenüber den Transformer-Systemen enorm viel Speicherplatz gespart. „Außerdem ist die xLSTM-Technologie im Einsatz bereits jetzt deutlich schneller als Transformer-Modelle; wenn das Programm optimiert ist, wird das künftig auch beim Lernen der Fall sein“, so der JKU-Wissenschaftler. Ein weiteres Plus: Zusätzliche Informationen lassen sich in größerem Ausmaß integrieren.

An der Weiterentwicklung von xLSTM-Technologie wird – auch wenn die Mittel im Vergleich zu den USA knapp sind – mit Hochdruck gearbeitet, berichtet Klambauer. „Es wird sicher noch einige Zeit dauern, bis das System einsatzbereit ist“, sagt er. Aber bereits in einem Jahr will man erste Ergebnisse präsentieren. „Es schaut alles sehr gut aus, das Konzept hat auch international großes Echo gefunden.“ Um Mittel aufzubringen hat Hochreiter mit der Netural X und der Pierer Digital Holding des Unternehmers und KTM-CEO Stefan Pierer die NXAI GmbH gegründet. Vorerst investieren die privaten Kapitalgeber in Grundlagenforschung – ebenfalls nicht alltäglich in Österreich. Danach sollten auch kommerzielle Anwendungen für die xLSTM-Technologie am Programm stehen.

FWF Cluster of Excellence Bilaterale KI: Broad Artificial Intelligence

Unter Federführung der JKU arbeiten österreichische KI-Forscher an einem vermutlich noch revolutionäreren Forschungsprojekt: dem FWF Cluster of Excellence Bilaterale KI. Eingebunden in dieses Projekt sind Wissenschaftler der Technischen Universität Wien, der Wirtschaftsuniversität Wien, der Technischen Universität Graz, der Universität Klagenfurt sowie des Institute of Science and Technology Austria. Laut einer Presseinformation der JKU wird das auf fünf Jahre angelegte Projekt mit 33 Millionen Euro gefördert. Die Laufzeit kann auf zehn Jahre mit insgesamt 70 Millionen Euro Förderung verlängert werden.

Woran hier mit im globalen Vergleich ebenfalls bescheidenen Mitteln geforscht werden könnte nach Meinung internationaler Experten ein Meilenstein in der KI-Entwicklung sein. Die Wissenschaftler sind überzeugt, dass die Resultate in der Welt der Künstlichen Intelligenz einmal eine entscheidende Rolle spielen werden. „Wir versuchen, eine neue Art eines KI-Systems zu entwickeln, das die Vorteile von subsymbolischen und symbolischen KI-Techniken zu-sammenbringt, Broad Artificial Intelligence anstelle des jetzigen Narrow Artificial Intelligence“, beschreibt Günter Klambauer, Universitätsprofessor am renommierten Institut für Machine Learning der JKU, die Ziele des Vorhabens in Kurzform.

Symbolische KI-Systeme: Logik ist ihre Stärke

Österreich habe mit diesem Forschungsprojekt im globalen Wettbewerb der KI-Forschung durchaus gute Karten, meint Klambauer: „Wir haben ausgezeichnete Experten im Bereich der symbolischen KI und hervorragende Forscher im Bereich des maschinellen Lernens der sprachbasierten Systeme.“ Außerdem arbeiten hierzulande die Wissenschaftler beider Systeme auf unterschiedlichsten Ebenen bereits zusammen. In Deutschland beispielsweise pflegten die beiden Communities kaum Kontakte, in den USA wiederum habe das Thema symbolische KI heute keinen großen Stellenwert, erläutert Klambauer einen nicht unwesentlichen Startvorteil des österreichischen Vorhabens.

Die beiden wichtigsten KI-Modelle (siehe Box „Sprache oder Mathematik – zwei Systeme der künstlichen -Intelligenz“) haben jeweils spezifische Vor- und Nachteile, meint Klambauer. „Subsymbolische KI-Systeme wie ChatGPT können mit maschinellen Lernalgorithmen aus Daten lernen, Faktenwissen zusammenfassen und auf einfache Zusammenhänge sprachlich richtig formulierte Antworten geben, sie können aber beispielsweise ziemlich schlecht rechnen“, erklärt der Wissenschaftler. Das wiederum sei Stärke der symbolischen KI-Systeme, sie basieren auf Logik und sind in der Lage, mit gesammeltem Faktenwissen, Relationen und Schlussfolgerungen sehr gut umzugehen.

Höhere Problemlösungs­fähigkeiten

Das künftige Broad AI, das die österreichischen Wissenschaftler entwickeln wollen, sollte wesentlich vielseitiger und flexibler reagieren als heutige Lösungen und damit menschlicher Intelligenz näherkommen. „Es soll ein sprachbasiertes Modell sein, das auf gesichertes Wissen zurückgreift“, sagt Klambauer. Halluzinationen sollen bei diesem System quasi ausgeschlossen sein. Es wird höhere Problemlösungsfähigkeiten aufweisen und sogar mit Abstraktionen umgehen können. Selbst die Möglichkeit, eigene Wörter zu erfinden, sowie Kreativität im engen Sinn wird für die Broad AI versprochen.

Solche künstliche Intelligenz wäre ideal, um komplexe Systeme zu steuern. „Ein Beispiel, wofür diese Lösung benötigt wird, sind smart grids – intelligente Stromnetze“, erklärt Klambauer. Unzählige Informationen von den Leistungen unterschiedlichster Stromerzeuger über die realen und die zu erwartenden Verbräuche von Industrie, Gewerbe und Haushalten bis hin zur detaillierten Entwicklung des Wetters müssen hier im Sekundentakt überwacht und gesteuert werden. „Mit ChatGPT wäre das in keiner Weise möglich“, sagt Klambauer.

Aber auch viele andere systemrelevante Bereiche wie Energie, Verkehr oder Gesundheitswesen könnte die Broad AI ökologisch nachhaltiger, effizienter und ressourcenschonender gestalten. Die Grundlagenforschung für das vielversprechende Projekt startet im Oktober des heurigen Jahres. Etwa 35 KI-Forscher werden an der Entwicklung der neuen Broad AI mitarbeiten. Erste Ergebnisse erwartet Klambauer in drei bis fünf Jahren.

Digitaler Humanismus und KI-Ethik

Sehr erfreut“ über das Forschungsprojekt „Bilaterale KI“ ist auch Stefan Woltran, der an der TU Wien auf Gebieten wie Propositional Logic, Nonmonotonic Reasoning, Argumentation, Knowledge Representation oder Logic Programming forscht und in das Vorhaben eingebunden ist: „Sprachmodelle wie ChatGPT bringen sehr gute Aussagen, aber es ist nicht so einfach, zum Beispiel Compliance-Regeln einzuarbeiten. Man kann nie sicher sein, ob die Vorschläge wirklich korrekt sind. Symbolische KI ist so etwas wie ein hochwertiger Taschenrechner“, erläutert der Universitätsprofessor. Die geplante Verbindung der beiden Schulen sieht er als große Herausforderung, weil seiner Meinung nach die Methoden sehr unterschiedlich sind und die Systeme unabhängig voneinander entwickelt wurden.

In das Forschungsprojekt Broad AI will die TU Wien vor allem auch ihre Stärken im Bereich des digitalen Humanismus und der KI-Ethik einbringen. „Wir als Informatiker:innen führen dazu – und da sind wir, glaube ich, die einzigen in Österreich – auch interdisziplinäre Diskussionen mit anderen Wissenschaften“, berichtet Woltran. Regulierungen sind dabei ein wichtiges Thema, wobei der Experte betont, dass solche Rahmenbedingungen keineswegs die internationale Wettbewerbsfähigkeit der europäischen KI-Forschung behindern müsse.

Weniger übertriebene Regulierungsbestrebungen als vielmehr die Kleinteiligkeit und damit verbundene nationale Eitelkeiten seien in der EU ein Hemmschuh," meint er. Grundsätzlich gäbe es sowohl in Europa als auch in den USA im Bereich KI vergleichbare Spitzen-Wissenschaft. Gleiches gelte für Unter-nehmen, die Forschungsergebnisse verwerten. „Was hier in Europa mitunter fehlt, sind allerdings fokussierte Strategien im Zusammenhang mit großen Zielen,“ meint Woltran. Aber es gibt durchaus Beispiele, dass auch in Europa solche Vorhaben erfolgreich realisiert werden: „Cern in Genf oder Airbus sind Beispiele für Projekte, bei denen Europa eine globale Vormachtstellung einnimmt,“ sagt der Wissenschaftler. Auch im Bereich der KI seien durchaus Chancen gegeben, dass die EU im globalen Spitzenfeld vorne mit dabei sei. Österreichs Forschungsprojekte könnten dazu ein wichtiger Beitrag sein.

Sprache oder Mathematik

Die zwei Systeme der Künstlichen Intelligenz

Als im November 2022 ChatGPT der Öffentlichkeit vorgestellt wurde, staunten Menschen rund um den Globus über diese für sie neue Technologie. Erstmals war es möglich, mit einem Chatbot in ganzen Sätzen zu kommunizieren. Mehr noch, das unheimliche Ding lieferte auf komplexe Fragen kluge Antworten, es konnte Schulaufsätze, Reden und Zeitungsartikel schreiben, die von menschlicher Arbeit kaum noch zu unterscheiden waren. Der viel diskutierte Begriff „Künstliche Intelligenz“ – eine Wortschöpfung, die Computerwissenschaftler bereits im Sommer 1956 auf der legendären Dartmouth Conference im amerikanischen Hanover geprägt hatten – wurde begreifbar.

Für Experten war die vom US-amerikanischen Softwareunternehmen OpenAI Inc. entwickelte Lösung alles andere als eine Überraschung. Weltweit arbeiten Wissenschaftler seit Jahrzehnten an der Entwicklung von KI. Die Aufsehen erregende Version ChatGPT basiert im Prinzip auf einem Large Language Model (LLM) in Verbindung mit Deep Learning. „Gelernt“ wird das Wissen aus dem Internet. Vereinfacht ausgedrückt forstet ChatGPT das World Wide Web beispielsweise nach zusammenhängenden Begriffen wie Katze, fressen und Mäuse durch und kann mit dem dabei erlernten Wissen die Frage „Fressen Katzen Mäuse?“ exakt beantworten.

Deep Learning ist eine Methode des maschinellen Lernens, die mit künstlichen neuronalen Netzen arbeitet, die schichtartig miteinander verwoben sind. Damit können riesige und komplex miteinander verbundene Daten verarbeitet, analysiert und in Zusammenhang gebracht werden. Von Katzen gelangt das System im Falle von ChatGPT zu fressen und von dort wiederum zu Mäusen bzw. zu weiteren damit zusammenhängenden Informationen.

Das System lernt permanent dazu. Mit Nonsens-Fragen kann man ChatGPT aber noch immer verwirren. Auf die Frage „Fressen MÄUSE Wiener Schnitzel?“ kam vor kurzem noch die Antwort: „Es ist zwar ungewöhnlich, aber ich kann verstehen, warum du dich das fragst! Tatsächlich fressen KATZEN normalerweise kein Wiener Schnitzel. KATZEN sind Fleischfresser …“. Experten sprechen dann davon, dass die KI halluziniert. Die Technologie kann natürlich nicht nur das Web zum Lernen nützen, sondern wird auch für viele andere professionelle Anwendungen eingesetzt.

Symbolische Künstliche Intelligenz

Die Entwicklung von Deep Learning und den sprachbasierten KI-Systemen begann in den 90er-Jahren, es handelt sich um subsymbolische KI. Wesentlich länger, schon seit den 50er-Jahren, beschäftigten sich Computer-Experten rund um die Welt mit einer anderen Form der KI, der symbolischen Künstlichen Intelligenz. Sie löst genau definierte Aufgaben mit Symbolen und Regeln, also mit Hilfe von mathematischen Formeln. Die dahinterstehenden Lösungen benötigen wesentlich weniger Speicher als die LLM-AI, sie lernen auch nicht permanent, sind aber durchaus komplex programmiert und bei vielen Anwendungen den sprachbasierten Systemen deutlich überlegen. Eingesetzt werden symbolische KI-Systeme etwa für die Optimierung von Industrieprozessen.

Für den Laien sind symbolische KI-Systeme wesentlich weniger faszinierend als sprachbasierte Lösungen, da es hier kaum Dialoge gibt. Beeindruckende Anwendungen finden sich hier allerdings ebenfalls – etwa der Schachcomputer Deep Blue. Die von IBM-Forschern entwickelte Maschine konnte 1996 und 1997 den damals besten Schachspieler – Weltmeister Garri Kasparow – schlagen.

Hinweis: In diesem Artikel sind Informationen aus Wikipedia und Antworten von ChatGPT verarbeitet.


Green Energy Lab visualisiert die Energiezukunft

Der Umstieg auf nachhaltige und zukunftssichere Energielösungen ist zentraler Faktor im Kampf gegen den Klimawandel. Das Innovationslabor Green Energy…

Weiterlesen

Grüne Synergien in Mobilität, Industrie und Energieversorgung

Die nachhaltige Transformation - Das primäre Ziel der Wasserstoffinitiative Vorzeigeregion Austria Power and Gas, kurz WIVA P&G, ist, die…

Weiterlesen

8. Wiener Innovationskonferenz

„In Zeiten des Umbruchs bestehen - Transformation mit Innovation“ - Die 8. Wiener Innovationskonferenz widmet sich den aktuellen Umbrüchen am…

Weiterlesen

FlexModul – Saisonale Speicherung von Solarenergie

© Barbara Krobath

Die Volatilität (Schwankungen) von erneuerbaren Energien bringt einen hohen Bedarf an Energiespeichern mit sich. Nur so kann auch zu Zeiten geringer…

Weiterlesen

Zum dekarbonisierten, leistbaren Wohnraum

© Canva/Illionaire

Die Weiterentwicklung von privaten Zinshäusern zu vertraglich abgesicherten Gemeinschaftsprojekten samt baubehördlicher Genehmigung für die umfassende…

Weiterlesen

Patricia Neumann: Neue Vorstandsvorsitzende der Siemens AG Österreich

© Siemens

Mag. Patricia Neumann (51) ist seit Anfang Mai 2023 Vorstandsvorsitzende der Siemens AG Österreich. Die neue CEO ist für die Dauer von fünf Jahren…

Weiterlesen

Abonnement und Mediadaten

Sie wollen die führende österreichische Fachzeitschrift kennen lernen?
Sie wollen sich über Erscheinungstermine, Schwerpunkte und Werbemöglichkeiten informieren?

Hier sind Sie richtig.  

Abonnement

Mediadaten