Die technologischen Fortschritte im Bereich des maschinellen Lernens und der künstlichen Intelligenz (KI) vollziehen sich mit atemberaubender Geschwindigkeit. Da kam eine Veranstaltung und ihr Ziel gerade recht, einen umfassenden Überblick über Stand der Anwendung zu geben.
Schnell gerät der eigene Kenntnisstand zu KI ins Hintertreffen und guter Rat wird teuer, wenn es um die Frage geht, in welche Felder sinnvoll investiert werden soll. Um so wichtiger sind daher Veranstaltungen wie „Insight.KI in der Produktion // Status – Herausforderungen – Chancen – Use-Cases“ der Oberösterreichischen Wirtschaftsagentur Business Upper Austria auf dem Keba-Betriebsgelände. Die halbtägige Veranstaltung gab einen breiten Überblick über den aktuellen Stand der Anwendung in Österreich anhand konkreter Praxisbeispiele und aktuell laufender Projekte im zuständigen Mechatronik-Cluster. Besonders eindrucksvoll war die Führung im Keba Innospace zum Abschluss der Veranstaltung.
Nach den einleitenden Worten stellte Elmar Paireder die Schwerpunktthemen des Mechatronik-Clusters vor und übergab den Staffelstab an Malte Scheuvens von Fraunhofer Austria. Malte Scheuvens machte sich das starke Bild einer brechenden Welle samt Surfer zu eigen, um auf die Herausforderungen durch KI hinzuweisen. Dieses Herannahen neuartiger Technologien werde begleitet, so der Sprecher, von einer zunehmenden Verwirrung durch immer neue Buzzwords. Wer weiß schon Begriffe wie Knowledge Graph, xLSTM, Edge Computing, EU AI Act, DSGVO treffsicher im Kontext von KI richtig einzuordnen?
Bildergalerie
Der Sprecher empfahl daher, sich in Communities wie der AI Austria GenAI zu engagieren, um auf dem Laufenden zu bleiben.
Nach dieser Einleitung kam Malte Scheuvens auf derzeit laufende Forschungsprojekte zu sprechen, etwa „TeSLA Lernassistenzsystem“ gemeinsam mit Infineon Technologies Austria oder „Transparenz über den Anlagenbestand mittels KI und semantischer Systeme“ in Zusammenarbeit mit Wien Energie. TeSLA dient der Unterstützung von Instandhaltern von Ionenimplantationsanlagen. Deren Arbeit soll durch die beschleunigt erstellte Dokumentation mittels Verknüpfung einer Wissensbasis mit einer KI-basierter Datenbank erleichtert werden. In dem Projekt wird mittels semantischer Modellierung ein Netzwerk (Knowledge Graph) aus realen Einheiten wie Anlagenkomponenten, Arbeitsaufträgen und Ersatzteilen zur Umsetzung von standortübergreifenden Wartungsstrategien erstellt.
Und beim Projekt gemeinsam mit Wien Energie konnten mit dem Ansatz von Fraunhofer Austria mehrere Zehntausend Anlagenteile analysiert und auf Basis ihrer baulichen Ähnlichkeit verknüpft werden. Auch dieses Projekt hat zum Ziel, Wartungsstrategien über die vielen historisch getrennten Anlagenstandorte hinweg zu harmonisieren.
Keba bringt KI in die Industrie
Bereits seit einigen Jahren beschäftigt man sich bei Keba mit dem Thema künstliche Intelligenz, denn das Potenzial für den Einsatz in der Industrie ist groß. So bietet KI die Möglichkeit, komplexe Probleme zu lösen, Prozesse zu optimieren oder innovative Produkte zu entwickeln.
Deshalb brachte Keba Ende 2023 ein eigenes KI-Produkt auf den Markt: das KI Extension Modul, das die Industriesteuerung um die Fähigkeit erweitert, KI-Modelle vor Ort in Echtzeit auszuführen. Stefan Fischereder, Produktmanager Industrial AI bei Keba, beschreibt es als „Beschleuniger-Hardware“ wie in einem Consumer Computer. Es ist reduziert auf die wesentliche Performance, die es braucht, um neuronale Netze zu berechnen.
Ein zusätzlicher Software-Stack soll es Kunden ermöglichen, aus den SPS-Programmiersprachen auf diese Fähigkeiten zugreifen zu können. Sowohl das KI-Erweiterungsmodul also auch der Software- Stack sind unabhängig von der Cloud und können in Kombination mit jeder Industriesteuerung von Keba verwendet werden.
Energiefresser: ChatGPT und andere LLM benötigen hohe Rechenleistung
Es folgte Bernhard A. Moser, der seit 2020 ehrenamtlicher Präsident der Austrian Society for Artificial Intelligence ist. Diese Organisation will insbesondere die österreichische KI-Forschung stärken, etwa indem Empfehlungen an die Bundesregierung ausgesprochen werden.
Der Forschungsdirektor sprach ein prinzipielles Problem von KI-Anwendungen an: Heutzutage basieren entsprechende Algorithmen insbesondere auf den Rechenoperationen Multiplikation und Addition. So nutzt ChatGPT 4 etwa 1.700 Milliarden Gewichtungsoperationen und damit ungefähr genau so viele Multiplikationen sowie eine vergleichbare Anzahl an Additionen. Allerdings ist eine Multiplikation durchschnittlich 16 Mal so aufwendig wie eine Addition, was sich im Energieverbrauch niederschlägt: ChatGPT benötigt etwa 1 Kilowattstunde für 350 Anfragen, während unser Gehirn für die gleiche Aufgabe lediglich 20 Watt benötigt, also ein 1/50-stel.
Der Bedarf an Rechenleistung, hervorgerufen durch Large Language Models (LLM), wächst deutlich schneller als die durch die Skalierung nach dem Mooreschen Gesetz erwarteten Verbesserungen. Auch die Leistungssteigerungen von Nvidia-Grafikprozessoren (GPU) sind da nur so etwas wie ein Tropfen auf dem heißen Stein. Immerhin hat sich im Zeitraum zwischen 2012 und 2021 die Rechenleistung um den Faktor 317 verbessert und damit die Erwartungen gemäß dem Moorschen Gesetz übertroffen. Dennoch reichen diese schönen Erfolge nicht aus. Daher haben sich Experten wie Bernhard A. Moser und andere aus Materialwissenschaften, Geräte- und Schaltungstechnik, Systemdesign sowie Algorithmen- und Softwareentwicklung zusammengetan, um gemeinsam auf dem Feld des sogenannten Neuromorphic Engineering beziehungsweise Computing nach neuen Ansätzen zu suchen.
Neue Ansätze könnten Datenverarbeitung verbessern
Derartige kollaborative Ansätze sind unerlässlich, um durch Innovationen die Lücke zwischen biologischen Systemen und konventioneller KI zu schließen. Der bereits in den 1980er-Jahren geprägte Begriff „neuromorph“ bezeichnet in heutiger Lesart ein System mit von unserem Gehirn inspirierten Eigenschaften wie In-Memory Computing, Hardware-Lernen, Spike-basierter Datenverarbeitung, feinkörniger Parallelität und Computing mit reduzierter Präzision.
Die neuromorphe Forschung lässt sich in drei Bereiche unterteilen. Erstens nutzt „Neuromorphic Engineering“ entweder komplementäre Metall-Oxid-Halbleiter- (CMOS) oder modernste Post-CMOS-Technologien, um die Analysemechanismen des Gehirns zu reproduzieren. Zweitens erforscht das „Neuromorphic Computing“ neue Datenverarbeitungsmethoden und schließlich markiert die Entwicklung neuartiger innovative Nanogeräte ein weiteres Innovationsfeld.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
Künstliche Intelligenz im Dienste der Ressourcenschonung
Das Geschäft mit Windkrafträdern boomt. Daher wird das Siemens-Energy-Werk im Bezirk Weiz in der Steiermark seine Produktionsfläche für Windkraft-Transformatoren verdreifachen. Die Optimierung des Materialverbrauchs bei der Herstellung von Leistungstransformatoren ist also ein lohnendes Feld.
Michael Zwick vom Software Competence Center Hagenberg (SCCH, eine Initiative der Johannes Kepler Universität Linz) stellte hierzu ein Projekt mit bemerkenswerten Ergebnissen vor. Bei Transformatorkerne werden aus verschiedenen Schichten von Stahlblechen zusammengesetzt, um die Verlustleistung zu minimieren. Eine wichtige Aufgabe in der Produktionsplanung ist die Frage, auf welche Weise man die Bleche aus den Coils schneidet, sodass der Transformatorkern die geforderten Eigenschaften erfüllt, gleichzeitig aber das Rohmaterial optimal ausgenutzt wird. Michael Zwick betonte, dass dies eine facettenreiche kombinatorische Optimierungsaufgabe sei: Nicht nur das Restmaterial sollte ja minimiert, sondern zum Beispiel auch der Grenzwert der Geräuschentwicklung nicht überschritten werden.
Eigenschaften des Endprodukts vorhersagen
In dem Projekt kam eine KI-Komponente zum Einsatz, die auf Basis von Eigenschaften der Ausgangsmaterialien und des Schittplans Aussagen über die Eigenschaften des Endprodukts liefert. Es braucht dazu eine sogenannte behavoristische Heransgehensweise (Statistical Local Search). Diese beinhaltet stochastische Elemente, um zu verhindern, dass man in einem „lokalen Minima stecken“ bleibt, wie sich Michael Zwick ausdrückte. Zusätzlich wurde im Projekt die Methode „Local Search“ verwendet: Ist bereits eine erste Lösung gefunden, wird in weiteren kleinen Schritten versucht, eventuell zu einer noch besseren zu gelangen.
Bei diesem evolutionärer Ansatz müssen Nebenbedingungen eingehalten werden, die eben nicht wie die Optimierungsziele verhandelbar sind. Etwa, dass der abgeleitete Produktionsplan für die Maschinen anwendbar ist. Aber: Ziele und Nebenbedingungen können durchaus vertauscht werden, sagte Michael Zwick, weil die strengen Nebenbedingungen teilweise nur sehr schwer zu erfüllen sind und daher in Form von Optimierungsziele als Näherung betrachtet werden.
SCCH entwickelte ein Optimierungs-Framework, das auf formalisierte Eigenschaftsbeschreibungen von Siemens-Experten zurückgriff. In die Analyse gingen zudem Werte aus den Messungen elektrischer Felder der Coils ein.
Auch die finalen Transformatoren werden vermessen und mit den Vorhersagen verglichen. Das SCCH-Modell wird also durch Feedback Loops verfeinert. In jedem Fall kann sich der Aufwand sehen lassen: Insgesamt konnte eine 7-prozentige Kostenersparnis erzielt werden, bei großen Transformatoren kann dies sogar zu einer 15-prozentigen Materialeinsparung führen (bis zu 47,5 t bei einem Transformatorkerngewicht von 270 t)
Fortschritte in der Bilderkennung zur Qualitätskontrolle
Danube Dynamics zieht bei der KI-basierten Embedded-Systementwicklung alle Register. Das Startup wurde vor sechs Jahren von Nico Teringl und zwei weiteren Kollegen gegründet. Das Motto lautet: „Hardware, Software und KI aus einer Hand – alles Made in Austria.“ Seit rund zwei Jahren beschäftigt sich Danube Dynamics intensiv mit Qualitätskontrolle in Verbindung mit Bilderkennung. Der Grund dafür liegt auf der Hand: Infolge des Wettbewerbsdrucks aus Asien werden die Ansprüche an die Präzision gefertigter Teile immer höher.
Nico Teringl machte gleich zu Anfang seines Vortrags deutlich, dass der Einsatz von KI kein Erfolgsgarant sei: „Es gibt eine Daumenregel – was der Mensch nicht sieht, kann auch die KI nicht sehen.“ Mit anderen Worten, wenn der Werker auf Bildern ein Qualitätsmerkmal nicht eindeutig erkennt, ist auch die Bilderkennung blind.
Das Startup verwendet zwei KI-Varianten: Die einfache Klassifikation anhand von „schlechten“ Bilder über sogenannte Convolution Neuronal Networks. Mit dem Training an wenigen Bildern lassen sich so hohe Fehlererkennungsraten erzielen. Der Nachteil ist allerdings, dass alle Fehlerklassen im Vorfeld trainiert werden müssen. Das neuere Verfahren indes ist die sogenannte Anomalie-Detektion, bei der die KI anhand von „guten“ Bilder lernt. Hierbei kommen in Analogie zu LLM die Visual Language Models (VLM) und andere Techniken zum Einsatz. Letztgenannte Methode ist zwar aufwändig, aber „robust“ und lässt sich leicht um weitere Szenarien erweitern. Robust bedeutet hier, dass sich inzwischen das Phänomen der Halluzination – bekannt von LLMs – auch in der Bilderkennung in Griff bekommen lässt.
Fehlererkennungsrate bei über 98 Prozent
Im Anschluss wurden verschiedene Use Cases vorgestellt, zum Beispiel die Qualitätssicherung in der Produktion von Erdnussflips, Spritzgebäck oder Pommes Frites. Die Fehlerklassen wurde über ein VLM in Verbindung eines Adapters interpretiert. Das Trainieren mittels 25.000 Bilder zog sich über ein ganzes Jahr hin. Aber jetzt funktioniert das System sehr gut, wie Nico Teringl versicherte. Die Fehlererkennungsrate liegt bei beachtlichen 98 und mehr Prozent. Die Prüfeinrichtung bei diesem Use Case umfasst eine Kamera und ein Edge Computing Device für die KI-Analyse.
Das große Finale der Veranstaltung war eine Führung mit Thomas Linde, Chief Innovation Officer bei Keba, im Keba Innospace. Auf diesem „Laufsteg der Innovationen“ werden KI-basierte Lösungen inszeniert, die Keba gemeinsam mit Partnern wie Universitäten (darunter auch die Kunstakademie Linz), Forschungseinrichtungen oder Firmenkonsortien in unterschiedlichen Formen der Vernetzung konzipiert und umgesetzt hat.
Bei Keba in der Dunkelkammer der Innovation
Nach Betreten des abgedunkelten Raums wird man von einer Art Bartresen mit Glasquadern mit 3D-Fotos in Empfang genommen. Über diese Bausteine lässt sich der Erlebnisspace auf verschiedene Weise konfigurieren: So kann dem Baustein „Unskilled People“ der Baustein „Robotic“ hinzugefügt werden. Im Hintergrund macht sich sofort eine Knowledge Engine (Wissensgraph) ans Werk, die in Abhängigkeit der gewählten Kontexte die vorkonfigurierten Use Cases anreichert.
Eine Herausforderung war, das Sprachmodell für den Assistenten Kiki lokal an der Computing Edge vorzuhalten, sagte Thomas Linde – für die Experten unter uns: Als Hardware kommt lediglich ein 1-Chip-System (SoC) und eine ARM-CPU Rasperry PI für 90 Euro zum Einsatz – kein Rechenzentrum! Im Gegensatz zu konventionellen LLM, bei dem der Lösungsraum viel größer und damit der Rechenbedarf um ein Vielfaches anspruchsvoller wäre, sind die Möglichkeiten von Kiki auf sinnstiftende kontextrelevante Antworten beschränkt. Das erhöht die Antwortgeschwindigkeit erheblich. Übrigens versteht Kiki mehrere Sprachen, etwa auch Italienisch oder Kroatisch.
Es war ein inhaltsreicher Event, der die Teilnehmer dazu inspirierte, sich intensiver mit Anwendungen rund um künstliche Intelligenz auseinanderzusetzen. Dies hilft dem Wirtschaftsstandort Österreich, weiterhin die Nase vorne zu haben.