Heidelberg Graduate School HGS MathComp

10. Modellierungstag: Open Data

3. Dezember 2015
14 Uhr

Print Media Academy, Kurfürstenanlage 52-60, 69115 Heidelberg

 

Konzept des Modellierungstags

Der Modellierungstag Rhein-Neckar eröffnet Praktikern und Wissenschaftlern die Gelegenheit, Innovationen zur Diskussion zu stellen, Gemeinsamkeiten und Unterschiede der verwendeten Modellierungsansätze herauszuarbeiten und den gegenseitigen Erfahrungsaustausch zu pflegen.

Der Modellierungstag Rhein-Neckar kann durch Sie aktiv mitgestaltet werden: Durch aktuelle Beiträge aus Ihrer Arbeit. Forschungs- und Praxisbeiträge sind gleichermaßen willkommen.

Die Veranstaltung wird von HGS MathComp, der InnovationLab GmbH und der BASF SE Ludwigshafen organisiert sowie von KoMSO, der IHK Rhein-Neckar und der Industrie unterstützt. Die Teilnahme ist kostenlos.

Thema des 10. Modellierungstags: "Open Data"

Wir haben die Daten - nutzen wir sie!


Nach Public Domain und Open Source ist Open Data ein weiteres Buzzword, das den Zugang zu digitalen Ressourcen thematisiert.

  • Public Domain ist die Idee, Programme kostenfrei zu vertreiben. Sie stammt aus der Urzeit der Programmierung. Viele hochwertige Anwendungen sind daraus entstanden.
  • Open Source ist der nächste wichtige Meilenstein, denn erst die Freilegung des Quellcodes garantiert, dass Programme transparent werden und viele Entwickler freie Software stetig verbessern können. Mit Linux hat sich das heute erfolgreichste Server-Betriebssystem dieser Idee verschrieben.
  • Open Data ist die logische Weiterentwicklung. Vor allem in Verwaltungsorganen, aber auch in öffentlich geförderten Forschungsprojekten oder in Krankenhäusern werden ständig große Datenmengen erzeugt. Diese Daten frei und umfassend zugänglich zu machen, ist die Idee hinter Open Data.


Dieses Konzept ist bestechend: Wenn die Allgemeinheit auf diese mit öffentlichem Geld geförderten Daten vollen Zugriff hat, kann auf vielfältige Weise ein gänzlich neuer Mehrwert entstehen. Aus diesem Ansatz ergeben sich Chancen und Risiken, die wir am Modellierungstag offen diskutieren wollen.

  • Grundsätze bei der Publikation von Open Data
  • Vorteile und Nachteile von Open Data für Unternehmen
  • Qualitätssicherung in Open Data Projekten
  • Geschäftsmodelle auf Basis offener Daten

Zu diesen und weiteren Themen erwarten wir interessante Vorträge aus Wissenschaft und Wirtschaft. Auch die öffentliche Verwaltung ist zum Dialog rund um dieses Thema herzlich eingeladen, hängt doch Open Data eng mit Open Government, dem Konzept der offenen Beteiligung der Zivilgesellschaft an der Verwaltung, zusammen.

 

Programm

14:00

Dr. Michael Winckler (IWR, Universität Heidelberg)

Begrüßung & Einführung

14:15

Prof. Dr. Alexander Zipf (Geographisches Institut, Universität Heidelberg)

Herausforderungen und Potenziale offener Geodaten für räumliche Modellierungen

14:45

Benjamin Ruland (Computacenter AG & Co oHG, Ratingen)

Analyse von Tweets und Bundestagsprotokollen mit dem In-Memory Big Data Framework Apache Spark

15:15

Ulrich Reincke (SAS Institute GmbH, Heidelberg)

Was bietet Open Data von Quandl? - Beispiel "Google Flu Trends"

15:45

Kaffeepause

16:15

Dr. Maria Effinger (Universitätsbibliothek Heidelberg)

Forschung sichtbar machen - Elektronisches Publizieren im Open Access an der Universität Heidelberg

16:45

Benjamin Herfort (disastermappers heidelberg)

Maps Can Save Lives - Really?!

17:15

Hartmut Gündra (geomer GmbH, Heidelberg)

GeoNet.MRN e.V. - Das Netzwerk Geoinformation der Metropolregion Rhein-Neckar

Abschlussdiskussion

17:45

Networking & Imbiss

Vorträge

Prof. Dr. Alexander Zipf (Geographisches Institut, Universität Heidelberg)

Herausforderungen und Potenziale offener Geodaten für räumliche Modellierungen in Wirtschaft und Wissenschaft

Geodaten sind für unterschiedlichste Analysen und Simulationen in Wirtschaft, Verwaltung und Wissenschaft unerlässlich. Hohe Kosten behinderten lange ihre Nutzbarkeit für viele Fälle. In jüngerer Zeit verändert sich dies durch zwei einander gegenseitig beeinflussende Bewegungen: Einerseits werden zunehmend Daten der öffentlichen Hand geöffnet (Open Data-Politik) oder zumindest der Zugang zu ihnen erleichtert. Andererseits entstehen im Mitmach-Web 2.0 Wiki-artige Projekte wie OpenStreetMap oder WikiMapia, die die Erzeugung von Geoinformationen an freiwillige Bürger crowdsourcen. Zudem entstehen in den sozialen Netzwerken und ähnlichen Medienportalen große Datenmengen, die ebenfalls direkt oder indirekt Geoinformation beinhalten (Big Spatial Data). Im Vortrag werden die Herausforderungen bei der Analyse und Verarbeitung dieser neuen Datenquellen für die Nutzung in verschiedenen Anwendungen beleuchtet und an Beispielen vorgestellt.

 

Benjamin Ruland (Computacenter AG & Co oHG, Ratingen)

Analyse von Tweets und Bundestagsprotokollen mit dem In-Memory Big Data Framework Apache Spark

Große, schnell entstehende und unstrukturierte Datenmengen aus verschiedensten Quellen (Big Data) erzeugen ganz neue Herausforderungen bezüglich Ihrer Speicherung und Auswertung. Solche Datenquellen können jedoch auch wertvolle Erkenntnisse für Forschung und Wirtschaft liefern.


In diesem Vortrag wird gezeigt, wie mithilfe Apache Spark – dem aktuell aktivsten Open-Source Big Data Projekt – öffentlich zugängliche Bundestagsprotokolle und Twitter Daten ausgewertet werden können, um einen Einblick in die politische und öffentliche Diskussion zu gewinnen: Wer redet wann über ein Thema und gibt es Zusammenhänge zwischen den Datenquellen?

 

Ulrich Reincke (SAS Institute GmbH, Heidelberg)

SAS Open: Standardisierte Möglichkeiten für Zugriff auf Data-Datenbanken und Analyse ihrer Inhalte - Ein Beispiel mit der Quandl Datenbank und den Google Flu Trends

Für Analysen mit Open Data stellt sich immer wieder die Frage des Datenzugriffs: Viele Open Data-Quellen liegen im Internet verstreut und manche von ihnen haben eine eigene API zum Download, die individuell angesprochen werden muss. Andere Quellen wiederum bieten Download-Links mit komprimierten Files z.B. im .tar oder .zip format, die erst dekomprimiert werden müssen. Die Datenbeschaffung von Open Data ist also zunächst immer ein manueller, interaktiver und oft sehr frustrierender Schritt. So muss der Data Scientist für jede neue Fragestellung bezüglich Open Data sich selbst auf die Recherche im Internet begeben und vorab evaluieren, wie er denn an die betreffende Tabellen kommt.
 
Quandl ist eine standardisierte „Daten Tankstelle“, die salopp gesagt die Funktionalität von Wikipedia, E-Bay und Amazon, inklusive Paket-Zustellung auf Daten, erweitert. Wikipedia, weil man aus freiem Willen sein eigenes Wissen in Form von Datentabellen anderen Anwendern verfügbar machen kann. E-Bay, weil man mühsam gesammelte und „gebrauchte Daten“ einer durchgeführten Studie anderen Forschern für andere Zwecke nutzbar machen kann. Amazon, weil Quandl auch zum bezahlten Informationsaustausch nutzbar ist. So gibt es bei Quandl einen großen Bereich in dem Open Data der wichtigsten weltweit verfügbaren Datenquellen mit einer einzigen standardisierten Schnittstelle angesprochen werden und kostenlos heruntergeladen werden können. Daneben gibt es auch die Möglichkeit, zu kommerziellen Zwecken Daten einzustellen oder in einem kostenpflichtigen Download-Abo zu beziehen. Der Vortrag beleuchtet Datenquellen und Möglichkeiten der automatischen Einbindung in Analyse-Programme wie z.B. dem kostenfreien SAS On Demand Academics Cloud Angebot.

 

Dr. Maria Effinger (Universitätsbibliothek Heidelberg)

Forschung sichtbar machen  -  Elektronisches Publizieren im Open Access an der Universität Heidelberg

Open Access = Offener  Zugang zu wissenschaftlicher Information, kostenlos und möglichst frei von technischen und rechtlichen Barrieren! ?

Die Umsetzung dieser Forderung der Berliner Erklärung von 2003, einer der Meilensteine der Open-Access-Bewegung, hat im Strategieplan der Universitätsbibliothek Heidelberg schon seit vielen Jahren höchste Priorität. Sie stellt Heidelberger Wissenschaftler und Wissenschaftlerinnen vielfältige Dienstleistungsangebote im Bereich des elektronischen Publizierens bereit, erhöht so die Sichtbarkeit und dauerhafte Zitierfähigkeit der Publikationen und sorgt damit für eine bessere Verbreitung von Forschungsergebnissen in nationalen bzw. internationalen Kontexten. Stichworte sind dabei u.a. die Bereitstellung des Hochschulservers heiDOK, das Hosting von E-Journals und E-Books mit der Open-Source-Software „Open Journal Systems (OJS)“ bzw. „Open Monograph Press (OMP)“, Digitale Editionen auf der Basis von TEI-P5, die Archivierung von Forschungsdaten über die Plattform heiDATA und nicht zuletzt der neugegründete Universitätsverlag Heidelberg University Publishing (heiUP).

 

Benjamin Herfort (disastermappers heidelberg)

Maps Can Save Lives - Really?!

In dem Vortrag wird dargestellt, wie freie Geodaten einen Beitrag dazu leisten können im Katastrophenfall Menschenleben zu retten. Anhand einiger aktueller Beispiele wie dem Erdbeben in Nepal 2015 wird darauf eingegangen, welche Bedeutung Projekte wie OpenStreetMap für die Hilfe vor Ort besitzen. Weiterhin soll ein Augenmerk darauf gerichtet werden, wie Open Data bereits vor dem Eintreten einer Katastrophe genutzt werden kann. Der Vortrag gibt darüber hinaus einen Überblick über unsere praktischen Erfahrungen im Umgang mit freien Geodaten, die wir im Rahmen der disastermappers heidelberg Initiative gesammelt haben. Abschließend sollen die zukünftigen Potenziale von Open Data im Katastrophenmanagement und Projekte erörtert werden.

 

Hartmut Gündra (geomer GmbH, Heidelberg)

GeoNet.MRN e.V. - Das Netzwerk Geoinformation der Metropolregion Rhein-Neckar

Immer wieder wird darauf hingewiesen, dass die wirtschaftlichen Potenziale von Open Government Data (OGD) sehr hoch sind. Die Europäische Union erwartet einen Wachstumsschub von jährlich 40 Milliarden Euro für die EU-Wirtschaft (siehe   Pressemitteilung). Der Deutscher Dachverband für Geoinformation e.V. gab dazu Empfehlungen ab, die Gesetzesänderungen, Entgeldfreiheit, einheitliche Nutzungsbedingungen und weitere Empfehlungen zur Verbesserung der Zugänglichkeit von Behördendaten beinhalten. Gleichzeitig verpflichtet die INSPIRE-Direktive der EU unsere Behörden, bis 2019 ein großes Spektrum raumbezogener Daten in Geodateninfrastrukturen bereit zu stellen. Das Netzwerk Geoinformation der Metropolregion Rhein-Neckar GeoNet.MRN e.V. unterstützt diese Initiativen und betreibt selbst Open Data-Portale, um dem Vereinsziel, der besseren Zugänglichkeit von Geoinformation, gerecht zu werden. 

 

Organisation

Wenn Sie mit einem Vortrag aus Ihrer Arbeit berichten wollen oder wenn Sie sonstige Themenvorschläge haben, dann wenden Sie sich bitte an einen Vertreter des Programmkomitees.

Allgemeine Organisation:

Prof. Dr. D.W. Heermann (IWR, HGS MathComp), Dr. A. Milde (IWR), Dr. M. Winckler (IWR, HGS MathComp)

Themenbetreuung Open Data:

Prof. Dr. M. Gertz (IWR), Dr. M. Winckler (IWR, HGS MathComp)

Industriekontakte:

Dr. A. Schreieck (BASF SE), Dr. G. Gumbel (IHK Rhein-Neckar)

 

Hinweis

Wir weisen darauf hin, dass auf unseren Veranstaltungen fotografiert wird und diese Fotos auf unserer Webseite veröffentlicht werden.