Heidelberg Graduate School HGS MathComp

7. Modellierungstag: 10. Juli 2014

Thema: Industrie 4.0
Ort: Print Media Academy, Kurfürstenanlage 52-60, 69115 Heidelberg

Konzept des Modellierungstags

Der Modellierungstag Rhein-Neckar eröffnet Praktikern und Wissenschaftlern die Gelegenheit, Innovationen zur Diskussion zu stellen, Gemeinsamkeiten und Unterschiede der verwendeten Modellierungsansätze herauszuarbeiten und den gegenseitigen Erfahrungsaustausch zu pflegen.

Der Modellierungstag Rhein-Neckar kann durch Sie aktiv mitgestaltet werden: Durch aktuelle Beiträge aus Ihrer Arbeit. Forschungs- und Praxisbeiträge sind gleichermaßen willkommen. Die Veranstaltung wird von HGS MathComp, der InnovationLab GmbH und der BASF SE Ludwigshafen organisiert sowie von der IHK Rhein-Neckar und der Industrie unterstützt. Die Teilnahme ist kostenlos.

Thema des 7.Modellierungstags: "Industrie"

Im Zentrum der modernen Industrieorganisation steht die digitale Datenverarbeitung. Auf unterschiedlichen Prozess- und Managementebenen entstehen so Datenströme, die aufgrund ihrer Verbindung zum Unternehmensprozess komplementäre Ereignisbeschreibungen liefern:

  • Auf der Ebene der Einzelprozesse stellen Stoff- und Warenströme, Energiebilanzen und der Einsatz von Mitarbeitern die Produktionsdetails dar.
  • Im Warenhandel können die Produktionsprozesse auf einem aggregierten Level abgelesen werden. Dabei sind nicht nur die externen, sondern vor allem auch die internen Produktnetzwerke wesentlich für eine effiziente Produktion.
  • Controlling sieht die eingesetzten Ressourcen aus der betriebswirtschaftlichen Sicht und lenkt Entscheidungen zur mittelfristigen Unternehmenssteuerung.
  • Langfristige Entscheidungen beispielsweise zur Eröffnung neuer Standorte oder zur Erschließung von Märkten basieren schließlich auf aggregierten bzw. integrierten Informationsströmen des Gesamtkonzerns.

Der Modellierungstag will einen Beitrag dazu liefern, die Kommunikation zwischen Industrie und Universität zu diesem komplexen Thema zu erweitern. Modellkopplungen und die Berechnung von Sensitivitäten zur Bestimmung von Abhängigkeiten zwischen horizontalen und vertikalen Modellstrukturen sind ein Beispiel, wo Wissenschaftliches Rechnen und Industrie 4.0 Synergien nutzen können.

Weiterführende Quellen:

  Artikel "Zukunftsfabrik Industrie 4.0" (Die Zeit, Ausgabe 05/2014)

Programm

14:00

Prof. Dr. Hans Georg Bock, IWR, Universität Heidelberg

Begrüßung und Einführung

14:15

Ulrich Reincke, SAS Institute GmbH, Heidelberg

Stochastische Auktionspreisoptimierung von Regelenergie-Kraftwerksleistungen - Ein spieltheoretischen Ansatz

14:45

Prof. Dr. Artur Andrzejak, Institut für Informatik, Uni Heidelberg

Programmsynthese für Industrie 4.0: Kann Softwareanpassung beschleunigt werden?

15:15

Dr.-Ing. Guido Sand, Gruppenleiter ABB-Forschungszentrum, Ladenburg

Industrie 4.0: Chance für einen Paradigmenwechsel in der Prozessmodellierung?

15:45

Kaffeepause

16:15

Dan Choon, Geschäftsführer Ganzfeld Limited, Heidelberg

Optimierung von Investitionsentscheidungen durch Finanzstromanalyse und mikroökonomischen Modellierungen 

16:45

Dr. Martin Raditsch, Geschäftsführer InnovationLab GmbH, Heidelberg

Disposable Electronics - Datenquellen von morgen

17:15

Abschlussdiskussion

ab 17:45

Networking & Imbiss

Vorträge

Ulrich Reincke (SAS Institute GmbH, Heidelberg)

Stochastische Auktionspreisoptimierung von Regelenergie-Kraftwerksleistungen - Ein spieltheoretischen Ansatz

Regelenergiereserven sind Erzeugungskapazitäten, die es Netzbetreibern ermöglichen, sekundenschnell unvorhergesehene Stromschwankungen im deutschen Stromnetz auszugleichen. Der deutsche Markt für Regelenergie ist seit 2009 gut etabliert und entwickelte sich durch das Wachstum der steigenden Einspeisung der erneuerbaren Energien (EEG) kontinuierlich: Jedes Jahr kommen neue Anbieter hinzu. Im Segment der sofort- und schnell abschaltbaren Lasten teilweise sogar aus der verarbeitenden Industrie. Derzeit bieten 52 Firmen zusammen täglich 8 GW an Leistung über die Auktionsplattform www.regelleistung an. Auktionszuschläge werden über eine sogenannte Merit-Order- Rankingliste auf Basis von Leistungspreis und Arbeitspreis der abgegebenen Angebote vergeben. So befindet sich jeder Kraftwerksbetreiber (Anbieter von Regelenergie) in dem Dilemma vorab zu entscheiden, zu welchem Preis er seine Erzeugungsleistungen in der nächsten Auktion anbieten möchte. Dabei gilt es Profite durch hinreichend hohe Angebotspreise zu erwirtschaften gleichzeitig jedoch das Risiko zu begrenzen überhaupt keinen Zuschlag in der Auktion zu erhalten. Hinzu kommt die Unsicherheit der von allen Auktionsteilnehmern antizipierten Auswirkungen des prognostizierten Wetters auf die EEG-Einspeisung im Auslieferzeitraum der betreffenden Auktion. Die Sequenz der täglich und wöchentlich sich wiederholten Regelenergieauktion stellt im spieltheoretischen Sinne ein unendlich wiederholte Spiel für die Kraftwerksbetreiber dar.
 
Dieser Beitrag stellt das Anwendungsszenario der Regelenergieauktionen vor, und präsentiert einen Lösungsansatz mittels Stochastischer Optimierung in einer vollautomatischen Batch-Anwendung, die die folgenden 5 Schritte abdeckt:
1.    Realtime Download von Wettervorhersagen und historischer Auktionsergebnisse der Webseiten www.Regelleistung.net, mittels der Download- Roboter,
2.    Automatisierte Datenverwaltung und Datenaufbereitung, für die analytische Datenmodellierung
3.    Preis Quantil Vorhersage durch massiv parallelisierten Data Mining-Algorithmen,
4.    Auktions-Szenario-Simulation und stochastische Preisoptimierung
5.    Berichtserstellung und gesicherte Übermittlung verschlüsselter Angebotspreisempfehlungen an die Energy Trading Abteilung.

 

Prof. Dr. Artur Andrzejak (Institut für Informatik, Universität Heidelberg)

Programmsynthese für Industrie 4.0: Kann Softwareanpassung beschleunigt werden?

Die Analyse von Daten ist zu einem festen Bestandteil der Arbeitsvorgänge in der Wissenschaft und in der Wirtschaft geworden. Einer der Teilschritte der Datenanalyse erfordert jedoch (besonders in der Forschung) eine zeitaufwändige Anpassung an jeden neuen Einzelfall, und häufig eine Modifikation der Software. Es handelt sich dabei um den Schritt der Datenvorverarbeitung, d.h. Bereinigung der Daten, Transformation der Formate oder Datenintegration. Unsere Forschung widmet sich dem Problem, solche Vorgänge zu erleichtern und zu automatisieren, u.a. durch Synthese von Programmen aus einfachen Beispielen. Solche Ansätze funktionieren bereits gut in spezifischen Domänen (Manipulation von Strings, Auffinden von Datenduplikaten, einfache Bereinigung der Daten) und reduzieren die Notwendigkeit, ad hoc Skripte für jeden einzelnen Analysefall neu schreiben zu müssen.

In diesem Vortrag werden wir die Möglichkeiten als auch die Grenzen solcher Techniken in einem Überblick vorstellen. Dies soll zu einem Gespräch mit den anwesenden Experten der Industrie 4.0 anregen, um festzustellen, ob und gegebenenfalls wo solche Methoden die Wandlungsfähigkeit der Software in der modernen Produktionstechnik verbessern können.

 

Dr.-Ing. Guido Sand (ABB Forschungszentrum, Ladenburg)

Industrie 4.0: Chance für einen Paradigmenwechsel in der Prozessmodellierung?

Mathematische Prozessmodelle bilden die Basis vieler gehobener Regelungs- und Planungsverfahren in der Prozessindustrie. Die Erstellung und Wartung der Modelle, d.h. die initiale und laufende Anpassung an den realen Prozess, erfolgt heutzutage oft händisch durch Fachexperten.
Ein zentrales Konzept von Industrie 4.0 sind sogenannte "Cyber-Physikalische Systeme" bestehend aus miteinander wechselwirkenden "Zwillingen" von physikalischen Objekten und Datenobjekten, wie z.B. Daten, Modellen und Dokumentationen. Der Vortrag motiviert die Fragen, ob und wie der Prozess der Modellerstellung und -wartung stärker automatisiert werden kann.

 

Dan Choon (Ganzfeld Limited, Heidelberg)

Optimierung von Investitionsentscheidungen durch Finanzstromanalyse und mikroökonomischen Modellierungen

Investitionsentscheidungen von Kapitalgebern basieren meist auf verdichteten und verzögerten Informationen. In diesem Vortag werden innovative Finanzanalysemethoden vorgestellt, welche über die kontinuierliche Analyse von Finanzströmen (Cash-Flows) ein ergänzendes Controllinginstrument (zu klassischen Bilanzanalysen und Finanzreporting) stellen. Über die mikroökonomische Modellierung von Geschäftsvorfällen werden automatisiert Zusammenhänge aufgedeckt und durch die neu gewonnene Auflösung neue Handlungsmöglichkeiten und Investitionsstrategien eröffnet.

 

Dr. Martin Raditsch (InnovationLab GmbH, Heidelberg)

Disposable Electronics - Datenquellen von morgen

Der Forschungsstandort Innovationlab in Heidelberg ermöglicht Akademia und Industrie gemeinsame F&E Aktivitäten auf dem Feld der gedruckten Elektronik. Drucken als effektives und günstiges Produktionsverfahren ermöglicht den Entwicklern neue Anwendungsfelder elektronischer Sensoren zu erschließen. So werden in Zukunft mit Hilfe gedruckter Elektronik Materialien und Produkte vom Herstellungsprozess über den Handel bis auf die Verbraucherebene Daten über Haltbarkeit, Verbrauch, Lagerung, Standort, Verfügbarkeit übermitteln und somit erheblichen Einfluss auf die Produktion, Logistik aber auch auf das Verbraucher verhalten haben.

Organisation

Wenn Sie mit einem Vortrag aus Ihrer Arbeit berichten wollen oder wenn Sie sonstige Themenvorschläge haben, dann wenden Sie sich bitte an einen Vertreter des Programmkomitees.

Allgemeine Organisation:

Prof. Dr. D.W. Heermann (IWR), Dr. M. Winckler (IWR)

Themenbetreuung Industrie 4.0:

Dr. D. Beigel (IWR), Dr. C. Kirches (IWR), Dr. A. Potschka (IWR)

Industriekontakte:

Dr. A. Schreieck (BASF SE), Dr. G. Gumbel (IHK Rhein-Neckar)