Was künstliche Intelligenz mit Automatisierung zu tun hat?

Ganz einfach: in beiden Welten gibt es vor allem die Grundrechenarten, auf der KI-Seite eine Potenzfunktion für die Aktivierung, auf der Automatisierungsseite ein paar boolsche Operatoren und Zähler. Aufwendige Iterationen, Stoffwertberechnungen, Bibliotheken und was unser Ingenieurherz sonst noch so höher schlagen lässt gibt es alles nicht. Wie bei diesem Wärmetauscher-Modell, das wir mit unserem Prozessdaten-Tool PI process intelligence via Reinforced Learning an einem physikalischen Modell trainiert haben:

Und was nützt das? Auch sehr einfach: künstliche Intelligenz macht es möglich, komplexe technische Zusammenhänge in einer Automatisierung abzubilden. Regler-Kaskaden für unzählige Störgrössen braucht es nicht mehr, Sollzustände werden schneller erreicht, der Prozess läuft einfach besser.

Wie man das am einfachsten implementieren kann? In einer Messdatenerfassung als einfache Gleichung, im Feld zum Beispiel damit:

… einem IPC aus dem Hause Beckhoff, den wir so konfigurieren, einbauen und einbinden. Am besten basierend auf einer Potenzialanalyse, die wir für Ihren Prozess gerne erstellen.

Mehr Informationen zu unseren Lösungen? Kontaktieren Sie uns einfach oder treffen Sie uns auf diesen Konferenzen

Martin Horeni

Summertime is nice and cosy, isn't it`? But not when it comes to data science. All that timezone-summer resp. daylight-saving-time issues are just a pain. But why is that? Because advanced data analytics – everything beyond doing rather simple things in enormous spreadsheets – require unique UTC timestamps.

Getting UTC timestamps from data files can be tricky, especially when it's summertime and a certain timezone but the file does not tell us. This leads to well-known situations where data science means 80% data cleaning and 20% science.

Summertime and timezone issues caused us several nightshifts while fine-tuning the data import procedure in our PI process intelligence in order to manage any kind of incoming data. And that's the reason why we hate summertime. But not the summer of course. Because summer is nice and cosy ;o)

Martin Horeni

Since going commercial at the beginning of this year our engineering tool PI process intelligence constantly grows. From almost zero at the end of 2018 to 700 MB in April 2019 we now hit the 1.2 GB line:

Our vision is to provide engineers and technicians with the fanciest process data tool they ever worked with and - if requested - the technical know-how to solve all related problems. Thus making time-consuming, repetitive tasks obsolete and innovative process engineering easier.

Easier to produce charts from millions of data – in PI done with only a few mouse clicks:

Easier to apply complex formulas on given datasets – we use our own algorithms for that:

Easier to keep track of all your datasources – supported by PI's data acquisition conventions, providing the basis for sound plant monitoring and process optimization:

Our three main targets for the next year? Cutting down more costly working hours, better process engineering quality and thereby turning engineers into data heroes. And of course: hitting the 10 GB *

Martin Horeni

"Projekt abschliessen, Referenz-Informationen vom Projektleiter einholen, Projektstammblatt erstellen, Fachbereiche zuordnen, alle Listen, CVs und Präsentationen aktualisieren, alle Geschäftssprachen berücksichtigen, pdf-Dateien erstellen und neu ablegen, betroffene Mitarbeiter informieren..."

So sieht häufig der Geschäftsprozess für die Pflege der Referenzunterlagen in einzelnen Dokumenten aus.

Referenz-Projekte in einer Datenbank zu organisieren hat demgegenüber viele Vorteile:

  • Informationen an einer Stelle aktualisieren,
  • docx, pdf, pptx und xlsx-Dokumente in verschiedenen Sprachen auf Knopfdruck generieren,
  • einfache Zusammenstellung von Angeboten mit Projekten und CVs der Mitarbeiter,
  • alle Projekte werden in den Mitarbeiter CVs automatisch aktualisiert,
  • Angebote nachbearbeiten, ohne die Ursprungsdaten zu ändern,
  • jederzeit von überall aus zugreifen,
  • einheitliches Layout mit individuellen Dokumentvorlagen realisieren.

Mit unserer Referenz-Datenbank bieten wir neu dafür eine Lösung an:

Beispiel Factsheet
Beispiel CV

... in der Cloud oder on-premises, via Intranet oder Internet, Daten lokal oder verteilt.

Martin Horeni

Quite often people ask me what our BI like software PI process intelligence is special for. Good question! There are tons of BI tools around like Tableau, Power BI and Co. On capterra you'll find 400 and more... So where is the point to develop another one?

As an engineer, I often deal with process data. Millions of values, thousands of measurements, dozens of units. I analyse them, model with them and base decisions on them – many times with pure Excel, like almost everyone. When being on site (mostly power stations or WtE plants), of course I use their data acquisition system.

So wouldn't it be cool to have something in between? Flexible and cheap like Excel but also convenient and fast like a DCS? Minimum requirements are:

  • flexible import (because import files always are different),
  • add new data as easy as possible,
  • charts: zoom, scroll, add/remove trends per mouse click,
  • interval calculations: raw values into regular once, changing periods and so on,
  • upload additional docs (R&Is, drawings, calculations),
  • fluid property functions available: water-steam, air, flue gas, …,
  • artificial intelligence available (to figure out what engineers can do with it),

but also:

  • full data control: where (country) and how long stored,
  • possibility to improve/innovate continuously.

Are there any BI tools around fulfilling these just basic requirements? To be honest I don't know. But as engineering is not only data and nice charts I don't think so...

That's what PI is special for and that's why we created it:

Martin Horeni

Microsoft's Excel is one of the most used common business application tools. As is very powerful but easy to learn many people rely on Excel not only for designing spreadsheets but also for process data storage and analysis. That is not a problem for less than a million values, but it becomes tricky beyond this number. The main threats are:


Time often gets underestimated while doing something challenging. Of course, skilled staff can do almost everything with Excel when having the time. But where is the point to repeat ordinary working procedures again and again to produce always the same charts showing relevant information? Especially when you are monitoring some external processes or devices that deliver data on a monthly or weekly basis or you do analysis on millions of values this ends up in hours of work. Always bearing the risk to make failures within these "many-step-routines".


Excels biggest advantages is the biggest disadvantage at the same time: it is incredible flexible giving the illusion one can do everything. That is not the case. Sticking to Excel means missing some chances other data tools provide. Some options to consider are

  • Data interval conversion: Did you ever try to make regular intervals from raw data for example to make calculations with them?
  • Process engineering balancing: How to get away from this horrible column orientated working style into a "readable" flow chart layout to allow deeper calculations
  • Complex algorithms like artificial neuronal networks: No chance to do that in Excel itself
  • Providing data for other applications (for external access, visualisation somewhere else, further analysis, …)


Maybe you have the time and there are no missed odds. What about fun? Are you allowed to have some at work? Spending hours of loading, putting together, calculating and formatting values kills not only fun but also creativity. And this is always the case when struggling with "big data". Avoiding monkey work is a big chance to get back into a reasonable engineering mode while process analysis and monitoring.

Avoid the threats

To avoid these threats we recommend common BI tools like Tableau or Microsofts Power BI for realtime data crunching. If you need something to add data on a regularly basis, do engineering analysis rather to draw charts, require some additional process know-how we recommend our PI process data platform.

Martin Horeni

Microsoft's Excel is nowadays one of the mostly used common business tools. It is very powerful but also rather easy to learn. That's why many people rely on Excel not only for designing spreadsheets but also for data storage and analysis. Whereas this is not a problem for a million values, it becomes tricky far beyond this number. Some options to overcome this situation are:

1. Reduce value "length"

As you may know, Excel stores its content in text files, organized in folders, structured as xml and wrapped up in zip files. Therefore, it makes sense to reduce the "length" of the string representing a value. This does not mean value formatting in the worksheet because this effects only what you see on screen. For a "real" rounding, you need a script like this:

Rounding "from something" to only three or even two decimal places can reduce file size and read-write operation time by factor 2 and more!

2. Reduce chart size

For some reason Excel does not reduce the number of values used to draw charts although it is not possible to see more points than your screen resolution provides. This increases file size and again read-write operation time:

Series of measurements (ca. 500.000 values per series) xlsx file size
1 series 10 MB
1 series + 1 series chart 18 MB
10 series 47 MB
10 series + 1 series chart 55 MB
10 series + 2 series charts 62 MB

One way to circumvent this behaviour is to store your charts somewhere else. Another one is to show only a certain value period at once. For the latter one can use the inbuilt Offset() Function together with a scrollbar from the development toolbox:

3. Work with user defined functions rather than ordinary sheet calculations

Especially for huge files with millions of rows, it makes sense to apply user-defined functions running as xll libraries or VBA code. This will enhance output quality by decreasing the failure risk because calculations get changed only at one point, not in millions of cells. Moreover, one can reuse them within different sheets and workbooks.

4. Use the binary file format

Saving an Excel file as binary (xlsb) instead of the ordinary formats (xlsx or xlsm) means the file content is not stored anymore in those xlm/zip logic and therefore not readable by other 3rd party tools. As application behaviour after file opening is the same compared to the ordinary formats this will not cut working troubles. However, the binary format reduces significantly file size depending on what kind of data and layout information you store.

Martin Horeni

Zu diesem Thema durften wir in der aktuellen Brennstoff-Wärme-Kraft des VDI-Verlages zur E-world energy & water einen Artikel lancieren.

Fazit des Beitrages: Mit künstlicher Intelligenz bzw. neuronalen Netzen können überall dort neue Lösungen entwickelt werden, wo andere Analysemethoden (Energiebilanzen, Wärmeübertragungsmodelle usw.) nicht weiterführen oder nicht zur Verfügung stehen. Und das ist in der Praxis noch häufig der Fall…

Vielen Dank an die EtaMEDIA für die speditive Unterstützung!

Martin Horeni

Because they normally output continuous values between 0 and 1 (or -1 and 1) and not discrete values as known from many other artificial neuronal network (ANN) applications. Whereas a discrete value = 1 (or close to 1) means "pattern found" in continuous output ANNs each value between 0 and 1 belongs to a pattern. This means pattern recognition in engineering is not the same as for images, voices, handwriting, soundtracks etc.

Although this difference is crucial for AI engineering applications it is hardly mentioned in the public. The most import advantage of continuous output ANNs is the capability to interpolate and extrapolate. It is not necessary to learn all patterns but as many as needed to get smooth result trends.

discrete output values
continuous output values
one continuous output value

The picture shows a common neuronal network scheme with discrete output values (left side) and two engineering neuronal networks with discrete output values. The model on the right side is the very first approach to create AI engineering models.

These and other findings we got from our Process data and Re-Engineering tool PI we are proud to present at the next Berliner Abfallwirtschafts- und Energiekonferenz in January 2019.

Martin Horeni

Boiler heat exchanger design is one of the most demanding engineering tasks one can think of. Not only the formulas are quite complicated and their correct application is often confusing. Also much experience is required to take all the design restrictions, safety standards and findings from already done projects into account.

When we speak about modelling (or re-engineering) of already existing boilers, the standard procedure is:

  1. Gather boiler geometry (bundle and tube dimensions, pitches, tube wall thickness and so on)
  2. Develop a design model based on fundamental heat transfer equations
  3. Collect measured data for different load points (if we deal with solid fuels also for different fouling conditions)
  4. Validate and adjust the model to hit the measured values
  5. Use the model to check how new designed equipment fits into the whole system

As simple it looks as complicate is it. Especially step 4 requires lots of efforts caused by the high number of possible adjustments (used heat transfer formulas, fouling assumptions, construction specifics like hoppers and cleaning equipment and so on).

An interesting alternative or supporting method is an AI (artifical intelligence) driven procedure:

  1. Collect measured data for different load points
  2. Develop an AI model based on these measured values
  3. Use the model to check how new designed equipment fits into the whole system

Compared to the first method the AI model does not provide "inner" heat transfer values but is much faster to develop, no validation and adjustment is necessary and – depending on the boundary conditions – it is also more accurate.

In the example the outlet HP steam temperature was calculated a) with a design model with all the heat transfer equations and parameters required and b) with an AI model as an artifical neuronal network (ANN):

The ANN was fed only with flue gas and steam flow, the fluid inlet temperatures and the dry oxygen content (= values that are normally measured). No other geometry or fluid parameters were used. The chart shows that both outlet steam temperatures are equal within a wide range of 60 to 100% load.

Of course ANNs are NOT FOR DESIGN new plants. But for creating models of running systems they are amazing!

Martin Horeni

Verfahrenstechnische Ersatzmodelle beschreiben wie Prozessgrössen voneinander abhängen, ohne dabei naturwissenschaftliche Randbedingungen zu berücksichtigen. Bei Verwendung von neuronalen Netzen wird diese Abhängigkeit aus historischen Daten erlernt. Ein interessantes Beispiel dafür ist die Verstromung von Dampf in einer Dampfturbine. Wieviel Strom dabei produziert werden kann ist von vielen Faktoren abhängig: Frischdampfparameter, Entnahmedampf, Abdampfdruck usw. Ausserdem müssen die lastabhängigen isentropen Wirkungsgrade der einzelnen Turbinenstufen bekannt sein, die in der Praxis aber nur näherungsweise ermittelt werden können.

Viel einfacher ist es, mit den Messwerten und einem neuronalen Netz ein Ersatzmodell zu entwickeln. Wie gut dieses Modell ist lässt sich sehr einfach durch einen Vergleich der gemessenen mit der für den selben Zeitraum berechneten Strommenge bestimmen. Folgendes Beispiel zeigt dies für eine Entnahme-Kondensations-Turbine mit stark schwankenden Dampfmengen und -drücken:

Aus der Abbildung wird deutlich, dass die "AI calculated" Stromproduktion über den gesamten Bereich von 5 bis 15 MW quasi identisch mit der gemessenen Stromproduktion ist. Und da die isentropen Wirkungsgrade für das Ersatzmodell nicht bekannt sein müssen, kann das Modell nicht nur viel schneller erstellt werden sondern ist zudem noch genauer!

Mit PI process intelligence können Ingenieure verfahrenstechnische Ersatzmodelle sehr einfach selbst entwickeln oder von uns entwickeln lassen. Wir freuen uns auf Ihre Projekte!

Martin Horeni

Unter diesem Titel werden wir Ende Oktober am 50. Kraftwerkstechnischen Kolloquium 2018 in Dresden in einem Vortrag unsere Erfahrungen aus den letzten Jahren und Ideen für zukünftige Entwicklungen erläutern. Dabei hilft uns eine Prozesslandschaft für den Anfall und die Weiterverarbeitung von Daten in Kraftwerken:

Praxistaugliche Innovationen sind aus unserer Sicht in den nächsten Jahren vor allem im Bereich der Data tools und der autonomen Steuerungen zu erwarten, weniger in der grundlegenden Abarbeitung der zentralen verfahrenstechnischen Prozesse im DCS. Dies, weil Kraftwerke im Regelbetrieb gut und vor allem sicher laufen und – wegen der hohen Risiken bei unbekanntem Nutzen – das Interesse der Lieferanten "am offenen Herzen zu operieren" eher klein ist. Ein grosses Potenzial besteht aber in der Analyse von Betriebszuständen und darauf aufbauend in der Verbesserung der Regelungen von Teilsystemen. Dafür können neuerdings Zusammenhänge zwischen Messwerten gefunden werden, die bisher mit den klassischen Ingenieurmethoden gar nicht oder nur mit hohem Aufwand entdeckt werden konnten. Beispiele sind Korrelationsanalysen mit verschobenen Zeitstempeln (um Verweilzeiten Rechnung zu tragen) oder Regressionsanalysen mit deutlich mehr als zwei voneinander abhängigen Variablen (mittels neuronalen Netzen bzw. "künstlicher Intelligenz").

Martin Horeni

Unsere Prozessdaten-Plattform PI verfügt jetzt neben den Import-, Export- und Analysefunktionen auch über ein System für die Nutzer- und Rechteverwaltung. Damit ist PI einsatzbereit...

Gegenüber anderen Prozessdaten-Tools hat PI verschiedene Vorteile:

  • Einfacher Datenaustausch zwischen Anlagenbetreibern, Lieferanten, Ingenieurbüros und Hochschulen
  • Intuitives Rechte-/Freigabesystem ("Adminstrator", "Operator", "User", "Viewer")
  • Schneller up- & download grosser Datenmengen
  • 1-click-Visualisierung aller Trends
  • Reine Web-/Mobile-Anwendung (keine lokale Installation)
  • Plug&play-fähig für nutzereigene Datenbanken

Martin Horeni

Der Einsatz von künstlicher Intelligenz macht dann Sinn, wenn für ein Modell viele Parameter gebraucht werden, deren Zusammenhang aber mathematisch nicht exakt beschrieben werden kann. Der Klassiker in Kraftwerken sind Lastprognosen: Wie viel Strom wird in Abhängigkeit von Jahreszeit, produzierter Dampfmenge, Aussentemperatur, Wärmeabgabe an Externe etc. produziert? Um solche Zusammenhänge besser untersuchen zu können habe ich unser Prozessdaten-Tool PI um ein Modul für neuronale Netze erweitert. Die Anwendung ist denkbar einfach und die erzielbaren Ergebnisse beeindruckend. Die ermittelte Stromproduktion berechnet mit zwei unterschiedlichen Modell-Einstellungen im Vergleich zur Messung sieht z.B. so aus:

Mit einer optimierten Datenauswahl für das Training und Anpassung von Lernrate, Anzahl der Trainings-Epochen, Neuronen in der verborgenen Schicht usw. lassen sich die Modelle für den jeweiligen Anwendungsfall verbessern, solange bis die gewünschte Qualität stimmt. Und das Beste: zum Schluss kann das trainierte Modell mit allen ermittelten Gewichten als Excel-Datei exportiert und für weitere Berechnungen verwendet werden!

Martin Horeni

"Das haben wir patentiert." hört man häufig, wenn es um Innovationen und neue Ideen geht. Was aber in welchem Umfang genau patentiert ist zeigt erst der Blick in die einschlägigen Patentregister und -datenbanken. Die für die Einordnung wichtigen Informationen einer Patentschrift stehen auf der ersten Seite:

Patents de

Was mir ausserdem noch wichtig erscheint:

  • Patente sind immer nur in jenen Ländern gültig, in denen sie nationalisiert wurden. Patente mit hoher wirtschaftlicher Relevanz werden in vielen Ländern nationalisiert (z.B. für Pharmaprodukte). Andere Patente sind oft nur in einem oder zwei Ländern gültig.
  • Zum Teil wird auch dort von Patenten gesprochen wo eigentlich Patentanmeldungen gemeint sind. Das ist häufig der Fall bei Firmenübernahmen (Stichwort Due-Diligence-Prüfung), Wettbewerber-Überwachungen oder im Marketing ;o)
  • Eine "Patentfamilie" besteht aus mehreren Patenten, die inhaltlich gleichen Ursprungs sind, aber in verschiedenen Ländern oder Regionen angemeldet wurden. Auch international angemeldete Patente zerfallen in einzelne Patente, die dann auch eine Familie bilden.
  • Patentiert werden kann alles, was der Prüfer einerseits als "neu" und andererseits als "erfinderisch" einstuft. Ein wichtiger Teil des Erteilungsverfahrens ist das Ping-Pong zwischen Prüfer und Anmelder (bzw. dessen Patentanwalt) inwieweit beide Punkte erfüllt sind.
  • Gut Voraussetzungen für eine Erteilung sind deshalb A) ein sorgfältig recherchierter Schutzumfang, der im Patent gleichzeitig als "Stand der Technik" dient und B) darauf aufbauend ein gut geschriebener Anmeldetext. Dazu muss der beanspruchte Schutzumfang klar definiert und einheitlich sein und es muss genügend Rückzugsoptionen als "Verhandlungsmasse" geben.

Martin Horeni

"Big data" ist in aller Munde, aber wie macht man das eigentlich genau? Sagen wir für ein bestimmtes Optimierungsproblem in einem Kraftwerk… Etwas Recherche zeigt, dass "Big data"-Anwendungen heute vor allem dort zum Einsatz kommen, wo

  • wirklich SEHR VIELE Daten anfallen und
  • aus irgendeinem Nutzerverhalten Marketing-Massnahmen abgeleitet werden sollen.

Beides trifft auf Kraftwerke nicht zu – die anfallende Datenmenge ist überschaubar und gut strukturiert, die Anzahl an "Eingangsvariablen" in Auswertungen ist begrenzt. Für die Datenaufzeichnungen werden keine NoSQL-Datenbanken benötigt, es gibt mittlerweile sehr anwenderfreundliche Messdatenerfassungen und wenn etwas gerechnet werden muss kommt in gefühlten 99% der Fälle Excel zum Einsatz.

Excel hat viele Vorteile (vor allem, dass quasi jeder damit umgehen kann!), aber auch verschiedene Nachteile. Insbesondere sind aufwendigere Auswertungen, vielleicht sogar im laufenden Betrieb inkl. einer brauchbaren Visualisierung mit Excel nicht sinnvoll realisierbar.

Vor diesem Hintergrund entwickle ich ein eigenes Tool unter dem Arbeitstitel PI process intelligence, das gleichzeitig maximal sicher und maximal anwenderfreundlich ist. Maximal sicher ist das Tool, weil die Verbindung zwischen Prozess und PI readonly ist. Maximal anwenderfreundlich ist PI, weil alle Prozessdaten automatisch bereinigt und dynamisch visualisiert werden, weil Auswertemodelle einfach integriert werden können und weil Rohdaten für "Nicht-PI"-Auswertungen einfach abgegriffen werden können. PI eröffnet damit völlig neue Wege für die Unterstützung von Lastprognosen, Messstellenvalidierungen, Betriebsoptimierungen, Predictive Maintenance usw.

PI de

Damit das alles möglich ist und trotzdem geringe Kosten zur Folge hat ist PI als "Software as a Service"-Tool konzipiert: alle Prozessdaten werden auf einer zentralen Plattform zwischengespeichert, dort analysiert und visualisiert. Die softwaretechnische Umsetzung erfolgt mit HMTL, PHP, Javascript und MariaDB/MySQL. Für lineare Auswerten kommt Microsoft Excel zum Einsatz, für komplexere Aufgaben innerhalb von PI und Phyton...

Martin Horeni