Von der Idee bis zum fertigen Produkt

Weiterentwickelte Version Stand 13.03.2017

An dieser Stelle möchte ich auf die Besonderheit der Herangehensweise zur Lösung technischer Probleme eingehen. Ingenieure, die sich schon seit jeher mit der Qualität von Messungen in der Bau- und Geomesstechnik beschäftigt haben, sind schon öfter mit fragwürdigen Ergebnissen konfrontiert gewesen und mussten über die Verhältnismäßigkeit und Aussagekraft ihrer Messung nachdenken und sinnieren.

Als Erfinder und Entwickler hochwertiger Messwerttechnologien musste ich, dass ein Leben lang tun, und zwar schon bei der Umsetzung einer Idee bis zum fertigen Produkt und später bei der Beweissicherung und Erläuterung anstehender Ergebnisse mit Messsystemen aus meinem Haus, die bei einem praktischen Einsatz vor Ort so nicht offensichtlich waren.

Dazu wurden in der Vergangenheit vehement an althergebrachten Grundsätzen festgehalten, die einer Firma das Leben und die darauffolgende Argumentation zur Markteinführung neuer Systeme sehr zuträglich sind.

Jürgen Glötzl (geb. 1967) dritte Familiengeneration von Erfindern und Innovationsgebern für die Messtechnik im Bauwesen und mehr als 28 Jahren Berufserfahrung in der Branche.

Diese sind hauptsächlich Argumentationen wie „Stand der Technik“, „State of the art“ geprüfte technische Daten und Angaben zu technischen Parametern wie: Genauigkeit, Auflösung, Reproduzierbarkeit, Temperatur- und Langzeit-Drift, Hysteresis etc. Dies alles sind technische Grundlagen, die dem Anwender Sicherheit vermitteln sollen, die nachweisbar und mit Belegen wie Kalibrierblättern und Unterlagen von der Unvollkommenheit der technischen Gesamtlösung mit Erfolg ablenken.

Sie kaufen sich eine Kraftmessdose mit einem Messbereich von 60 Mega-Newton, schließlich wollen sie zuverlässig Kräfte bei einer Pfahlprobebelastung erfassen. Haben sie schon jemals darüber nachgedacht, wie so ein Gerät kalibriert wird? Jemals eine Kalibriervorschrift zum Nachweis der Funktionstüchtigkeit angefordert, oder sich über die Messeinrichtung informiert? Nein, das haben sie nicht. Ich weiß das, denn sie haben ja ein Kalibrierblatt, das von 0-600 bar kalibriert wird und über den unkomplizierten Einsatz eines Faktors die gewünschte Kraftanzeige ermittelt. – Bitte nachdenken…

Grundsätzlich ja, und das will ich nicht in Frage stellen, müssen Sie den technischen Angaben eines Produktes vertrauen können. Das Wissen über die Herkunft dieser Belege ist aber genauso wichtig, wie die finale Aussage „Das kann so nicht sein“, denn alle Ingenieursentscheidungen berufen sich auf Erfahrung (Referenzen), wissenschaftliche Veröffentlichungen und Erkenntnissen, die in teils komplizierten Rechenverfahren und statistischen Auflösungen hergeleitet und belegt werden. Sie haben schon genug Konstanten und Variable zu verrechnen, das der Messwert an sich keinen Spielraum für Variable zulässt.

Ein typisches Beispiel hierzu ist:

Der Umgang mit FE-Rechenmodellen. Für meine bescheidenen Begriffsempfindung: Eine etablierte und zeitgemäße Anwendungsmethode, die eine Unzulänglichkeit, nämlich beschränkte Informationen zu einem flächendeckenden Ergebnis zu führen, dass wiederum für eine qualitative Aussage über „gut oder schlecht“ herangezogen wird. Und genau da liegt die Gefahr und immer wieder beobachtete Praxis, so dass ich diese Methode, wenn sie das Ziel hat, den Messaufwand zu reduzieren, nicht zielführend heißen kann.

Warum? – darum: Zur Bewertung einer Fläche benötigt man drei Messpunkte in derselben, die mit Ergebnissen den Zustand eines Bauwerks in einer Ebene beschreiben. Daraus lassen sich wunderschöne Diagramme mit farblicher Abstufung und mit Millionen Schattierungen erzeugen auf unbestimmte Bereiche interpolieren. Was aber sagen uns diese schönen Grafiken?

Wenn wir Glück haben, befindet sich der Messwertaufnehmer in der Nähe einer Störung, so nah, dass ein Großteil der Deformation aufgenommen und verrechnet wird. Wenn wir Pech haben, liegt dieser „nahe“ Sensor sehr weit weg und zeigt nur einen Anteil der eigentlichen Verformung an, was uns sehr entgegen kommt, weil wir ja keine ernst zu nehmenden Konsequenzen und Grenzwertüberschreitungen zu fürchten haben. Wenn es ganz gut läuft, wissen wir weniger als zuvor, oder treffen schwerwiegende Entscheidungen auf Grund fehlerhaft visualisierter Tatsachen oder Umstände.

Niemand fragt sich aber aus der gegenwärtigen Situation heraus, ob es nicht besser wäre, die Anzahl der Messpunkte zu erhöhen. Niemand ist bereit den einen Messwert und die Wirksamkeit einer Messung in Qualität und Ortsbezug in Frage zu stellen, da ja sonst Mehraufwendungen zu befürchten sind, die so niemand eingeplant hat. Aber wir messen… und das ist gut so. Denn nur so können wir die Erfahrungen sammeln, die uns heute bestätigen, wie man es richtig machen sollte.

Ein zweites nicht weniger interessantes Beispiel:

Mein absolutes Lieblings-Hass Wort in der Messtechnik ist „insitu“ und es gibt kein Wort in unserer Branche, dass in mir mehr Ablehnung und Missgunst erzeugt. Ich kann nicht wirklich erklären warum, aber ich musste erst mal bei Wikipedia vorbeischauen, um zu erfahren was „insitu“ überhaupt bedeutet und habe es als unwichtiges Wort definiert sogleich wieder vergessen: Das Ergebnis meiner Recherchen war: INSITU: „am Ort“ oder „vor Ort“.

Ist Ihnen schon mal aufgefallen, wieviel „insitu“ der Markt zu bieten hat und wie wichtig dieses Wort genommen wird, dass es immer und immer wieder verwendet wird? Dabei hat „insitu“ nicht mehr oder weniger Buchstaben wie die deutsche Beschreibung „vor Ort“ – Na ja, okay. – abgehackt.

Warum mich dieses Wort wirklich ärgert, ist aber die Begriffsvergewaltigung in der eigentlichen Bedeutung „vor Ort“ oder „am Ort“ – In meiner messtechnischen Weltanschauung bedeutet „insitu“ nämlich viel mehr, nämlich Messen „am Ort des Geschehens“. Wir messen „insitu“ muss bedeuten: „Wir messen genau da, wo eine Veränderung eintritt und nirgendwo anders oder gar daneben“. So und jetzt gehen wir mal im Internet unsere Pappenheimer besuchen und schauen mal wieviel „insitu“ auf Grundlage dieser Erkenntnis in unserer Brache übriggeblieben ist, Sie werden staunen.

„Von der Sinnmäßigkeit mathematischer Herleitung in der Messtechnik.“

Ja klar, wir können rechnen, wir sind Ingenieure. Klar wir verstehen auch was wir gerechnet haben und auch klar wir können Unzulänglichkeiten verrechnen und mathematisch in die Bedeutungslosigkeit verschwinden lassen, aber nur, zu Lasten der Aktualität oder Amplitude einer Bewegungskennlinie. (Wie am Beispiel Kompensation) Tun wir nicht? – Na ja… dann meine Bewunderung dafür! Aber meine Frage müssen sie sich schon gefallen lassen: Wie bewerten Sie dann diese Unzulänglichkeiten etwa mit einer Fehlerbetrachtung? – Sehr gut, aber wer klassifiziert Ihnen diese Fehler?

Ein Datenblatt des Herstellers? Oder sind sie sogar mutig genug Fehler zu erkennen und in ihrer Wertigkeit zu bestimmen? Wo kommt dieser Fehler her? Aus der Produktion, den Einbau, der Umwelt, dem Bauwerk? Oder aus wissenschaftlichen Annahmen über die Zusammenhänge eines Ergebnisses oder unbestätigten Konstanten?

Bevor ich sie jetzt komplett verunsichere und sie das Gefühl bekommen ihre Arbeit komplett in Frage zu stellen (das würde ich nie tun) kommen wir zurück zur Philosophie messtechnischen Denkens. Hierzu habe ich ein paar „Wahrheiten“ nicht von irgendwo her, die uns alle bekannt sind, aber nicht schaden kann uns nochmal vor Augen geführt zu werden. Sie stellen die Basis einer philosophischen Betrachtung und werden auch als These wahrgenommen. Wir denken also weiter:

„Ein Messwert ist kein Messwert“

Das bedeutet, dass man den Glauben an ein Messergebnis nicht verlieren soll, aber stets in Frage stellen muss, solange dieses Ergebnis für sich alleinsteht. Redundanz ist eines der Zauberworte, die Sicherheit schaffen kann.

„Die Wahrheit liegt irgendwo dazwischen“

Viele Ergebnisse repräsentieren nur das Umfeld einer Situation und in jeder Aussage steckt eine eigene Wahrheit. Die Wahrscheinlichkeit zur Richtigkeit einer Aussage ist das statistische Mittel aller Wahrheiten. Nur so kommen wir dem Ergebnis so nahe wie möglich.

„Die Intelligenz vieler, steht im Ergebnis über der Erkenntnis des Einzelnen.“

So funktioniert unsere Gesellschafts und gegenwärtige Kultur. Die Regierungsform der Demokratie ist genau aus diesem Geschichtspunkt heraus entstanden. Am immer aktuellen Beispiel China – die jetzt nicht gerade demokratisch, aber in vielerlei Hinsicht mächtiger Partner in allen weltpolitischen und wirtschaftlichen Belangen sein kann.

Wer schon mal in China das Arbeitsfeld einer Baustelle betreten hat, stellt sehr schnell fest: Hier arbeiten viele Menschen – und verdammt nochmal – jeder hat hier was zu sagen und keiner weiß wirklich, worum es geht. Jeder hat aber eine Meinung, aber wer trägt hier die Verantwortung? Tatsächlich, letztendlich entscheidet nur einer. Der, von dem ich die Visitenkarte erhalten habe, er weiß zwar auch nicht, worum es geht, aber er trifft letztendlich die für alle akzeptable Entscheidung. Ich nenne ihn Schwarmintelligenz-Koordinator. Er entspricht dem Wesen eines Ingenieurs. Er nimmt sich analytisch und statistisch einer Problemstellung an, sammelt die Fakten, mittelt sie aus und vertritt das Ergebnis mit seiner Person oder reicht diese im Besten Fall zur Promotion ein.

Erstaunlich, aber wahr- so funktioniert das. Die Ergebnisse sprechen für sich, das Chaos hat eine Ordnung, das Ergebnis ein Ziel. – Da sagte ich mir eines Tages: „Das können wir auch aus technischer Sicht verwirklichen, und wer hätte das gedacht?
Es funktioniert tatsächlich, in Form von dynamischen Messmethoden und mit verteilter Sensortechnik.!“

„Die Erkenntnis kommt nicht von Irgendwo her…“

Wenn ein kleines Messgerät mit hoher Zuverlässigkeit und Genauigkeit entwickeln werden will, dass Aussagen über den Zustand eines großen Bauwerkes vermitteln kann, muss dies nach unseren Erfahrungen nachfolgenden Grundsätzen entsprechen:

  • INSITU – (so leid mir die Verwendung dieses Wortes an dieser Stelle tut) „Es muss nämlich unmittelbar da, wo eine Veränderung auftritt, messen. Wichtigster Bestandteil zur Funktionstüchtigkeit: Standortwahl und Anbindung.
  • DIREKT – Der Messwert muss durch den erfassten Einfluss direkt erzeugt werden und darf nur zweitrangig aus anderen physikalischen Größen hergeleitet werden, da jede Umrechnung eigene Fehler und Einflussgrößen erzeugt.
  • UMFASSEND – Die Erfassung muss durchgängig repräsentativ in möglichst hoher Anzahl oder Geschwindigkeit erfolgen.
  • INTELLIGENT – Der einzelne Messwert ist in der Gesamtheit einer Installation zu vergleichen und in einem Ergebnis zusammenzufassen Fehlmessungen müssen weitgehendst ausgeschlossen oder erkannt sein.
  • REDUNDANT – Das Messsystem muss unabhängig erfassen können. Ein unabhängiger Vergleich ist unerlässlich.
  • ERNEUERBAR – Das Messsystem muss erneuerbar sein, um die Entwicklungen der Zukunft in Revisionen berücksichtigen zu können, ohne das Messwert erzeugende Element auszutauschen.
  • PRÜFBAR – Ein Messsystem muss jederzeit und extern prüfbar sein. Hierfür steht die Qualitätssicherheitsnorm.
  • UNABHÄNGIG – Es muss von Einflussgrößen der Umwelt, des Bauwerkes oder mechanischen und elektrischen Fehlern definiert oder unabhängig sein.
  • LANGLEBIG – Es muss fehlerreduziert und der Ausfallwahrscheinlichkeit entsprechend optimiert sein. (Langlebigkeit)
  • SICHER – An unzugänglichen Orten im Idealfall passiv (ohne aktive Bauelemente) und risikolos anwendbar sein. Ein Messgerät ohne Bedienungs- und Einbauanleitung ist wertlos oder erfordert in der Anwendung auf Grund der Unvorhersehbarkeit einen unbezahlbar hohen Erfahrungsschatz und Knowhow. Der Hersteller haftet nicht nur für die Funktion, sondern auch für die unsachgemäße Handhabung, wenn diese in wesentlichen Gesichtspunkten inhaltlich beschrieben wurde.

Genau diese Eigenschaften sind es, die ein zuverlässiges und aussagekräftiges Messsystem ausmachen. Die Vollständigkeit und Nähe des Produktes zu diesen Vorgaben, sind das wesentlichste Qualitätsmerkmal, das sich aus meiner Sicht klassifizieren lässt.

Die logische Konsequenz hieraus ist die Suche nach einer passiv ausgestatteten Messlösung mit örtlich verteilten und dynamisch messenden Eigenschaften, die nach erfolgreicher informationstechnischer Auswertung eine Wertstellung des Ergebnisses in einen offensichtlich visuell erfassbaren Zustand wandelt und sich selbst überwacht.

Das gibt es nicht glauben Sie? Falsch…

Wir haben an dieser Lösung in den vergangenen Jahrzehnten konsequent gearbeitet und bieten diese mit unseren Partnerunternehmen auf dem Markt an. Hierzu aktuell zwei Fallbeispiele:

Erstes Beispiel für einen Lösungsansatz „Dynamische Messmethoden“

Im Gegensatz zu konventionellen Neigungsmesssystemen mit hochauflösenden und teuren Sensorelementen, die bislang in einzelnen Messungen (Meterschritten) Neigungswerte erfassen und in einem Polygonzug aufzeichnen, messen wir mit einer geregelten Drahtseiltrommel den Bohrlochverlauf tiefer Bohrungen mit 400 Messungen pro Sekunde und einer Befahrungsgeschwindigkeit von 20 m pro Minute mit konventioneller MEMS-Sensorelektronik genauer und schneller ein Bohrloch als jemals ein anderer Hersteller und Platzhengst in der Neigungsmessung zuvor. Es beweist einmal mehr das nicht mechanische Genauigkeit und Hochleistungs Sensorik für die Qualität ausschlaggebend ist, sondern Innovationsgeist und Kenntnis messtechnischer Zusammenhänge und deren philosophischer Betrachtung die Voraussetzung ist.

Zweites Beispiel für einen Lösungsansatz „Verteilte faseroptische Messtechnik“

Durch einfache und lückenlose Verlegung passiver Messelemente entwickelter Glasfaserkabel mit integrierten Kraftschluss zur Ummantelung, messen wir mit hoher Ortsauflösung durchgängig das Dehnungsverhalten und Temperaturen am und im Bauwerk. Die Ortsauflösung bezeichnet die Grenzen der punktuellen Definition unzähliger Messdaten, die im Zusammenhang der im unmittelbaren Umfeld gemessenen Daten auf einen Punkt im Koordinatensystem zusammengefasst und verrechnet werden. Sie gibt Aufschluss über den Ort der Deformation im Rahmen der derzeit technischen Möglichkeiten und wird auch in Zukunft weiterentwickelt.

Drittes Beispiel für einen Lösungsansatz „Intelligente Erfassung und Meldung“

Das Ergebnis einer Messung bedarf einer langen Herleitung verschiedenster Zusammenhänge und Erkenntnisse über das Bauwerk selbst. Niemand kann erwarten, dass ein Messwert nach Installation und Inbetriebnahme einen Zustand des Bauwerks darstellt. Vielmehr führen eine Reihe von klimatischen und mechanischen Einflussgrößen dazu, das Kompensationsverfahren angewendet werden müssen.

Ein typisches Messszenario ist die Anwendung von Schlauchwaagen-Messsystemen zur Gebäudeüberwachung und Erfassungen von Setzungen. Die Herleitungsverfahren sind so umfangreich, dass eine direkte Betrachtung der Messwerte zu ungleich mehr Unsicherheit führt, dass eine einfache Installation wenig zweckmäßig ist. Auch die Kompetenz eines Gutachters muss in die Auswertung einfließen um Zustände definieren und melden zu können.

Aus diesem Grund setzen wir auf Auswertungsverfahren, die vor Ort eine differenzierte Meldung und Alarmierung möglich machen. Hierzu sind eigene Entwicklungen durchgeführt worden, die diesen Anspruch erst möglich machen.