Ring­vor­le­sung

Som­mersemester 2011: Ver­teilte Systeme - Soziale Net­ze

In der Informatik stellt der Übergang vom Client/Server-Prinzip zu verteilten und Peer-to-Peer-basierten Architekturen einen Paradigmenwechsel dar, der neue Anforderungen an Entwickler stellt. In verteilten Systemen wirkt eine Vielzahl von Einzelrechnern zusammen und es ergeben sich Wechselwirkungen zeitgleich ablaufender, unabhängiger Prozesse. Dabei bilden sich in großen Datenmengen und deren Verarbeitung Muster und Strukturen heraus, die nicht auf intentionale Strategien verantwortlich handelnder Subjekte zurückzuführen sind. Die Netzwerkforschung in den Sozialwissenschaften untersucht, wie in den Relationen von Individuen soziale Strukturen entstehen und sich stabilisieren. Auch hier greift man auf mathematische Modelle zurück, um lokale Prozesse in ihrem Zusammenwirken zu fassen; dabei werden mögliche Verbindungen operationalisierbar gemacht, ohne vorab festzulegen, welche Art von Beziehungen in diesen Verbindungen realisiert wird. An die Netzwerkforschung knüpfen sich vielfältige Hoffnungen, bottom-up-Prozesse zu beschreiben und zu steuern. Zwischen Rechnernetzen und sozialen Netzen bestehen also vielfältige Verbindungen, Wechselwirkungen, Überschneidungen und Analogien. Beide Phänomene zeichnen sich dadurch aus, dass es keine zentrale Instanz gibt. Die Verbindungen zwischen den einzelnen Elementen sind variabel. Innerhalb dieser 'Infrastruktur' können unterschiedliche Formen von Kooperation oder 'Verkehr' entstehen. Struktur lässt sich als innere Ordnung fassen, die sich im Verkehr ausformt und eine gewisse zeitliche Stabilität gewinnt.

Raum: E5.333

Zeit immer: 18.15h

Plakat (PDF) | Flyer (PDF)

______

 

Dienstag 19.4. |

Felix Stalder (Zürich)
Verteilen und Zentralisieren. Soziale und Technische Dynamiken in Netzen



Es ist unbestreitbar, dass es einen Zusammenhang zwischen technischer und sozialer Entwicklung gibt. Aber welchen? Die Frage stellt sich mit besonderer Dringlichkeit bei den neuen sozialen Medien (Facebook, Twitter, Piratebay, Wikileaks) in Bezug auf ihre zentralisierenden, beziehungsweise de-zentralisierenden Effekte. Anstatt zu versuchen, diese Frage generell zu beantworten und damit in wohl bekannte Muster der Euphorie oder Depression zu verfallen, soll die Frage in Bezug auf verschiedene Layers, Architekturen und Anwendungsbereiche untersucht und die Gleichzeitigkeit beider Tendenzen in den Blick genommen werden.



Dienstag 17.5. |

Hannes Hartenstein (Karlsruhe)
Was wissen andere über mich? Über den Informationsfluss von Identitätsinformation



Ob Integriertes Informationsmanagement oder Web 2.0, identitätsbezogene IT-Dienste durchziehen unser Leben. Wir analysieren zunächst Fallbeispiele aus den Bereichen der öffentlichen Körperschaften, der Peer-to-Peer-Netze und der sozialen Netze in Bezug auf den Informationsfluss von Identitätsinformation. Als zentrale Themen betrachten wir dann die Sicherstellung von Konsistenz sowie die Möglichkeit der Korrelation von Identitätsdaten und stellen aktuelle Ansätze zur Modellierung sowie zur Steuerung des Informationsflusses dar. Zum Abschluss gehen wir der Frage nach, inwieweit Konsistenz- bzw. Korrelations-Automatismen Dienstbetreibern und -nutzern helfen können, das Recht auf informationelle Selbstbestimmung tatsächlich umzusetzen.



Montag 30.5. | 14-20 Uhr 


Interdisziplinärer Workshop 'Verteilte Systeme - Soziale Netze'



Mit: Gabriele Gramelsberger, Odej Kao, Jörg Müller-Lietzkow und Torben Weis

InformatikerInnen und KulturwissenschaftlerInnen diskutieren über verteilte, technische Systeme, soziale Netze und deren Verhältnis. An konkreten Beispielen stellen sie ihre Zugänge und Ergebnisse vor. Es geht um neue Konzepte der komplexen Datenverarbeitung in der Klimaforschung (Kao) und um die Rückwirkung massiv paralleler Datenverarbeitung auf die Forschungspraxis (Gramelsberger). Untersucht wird, ob und wie der Erfolg von Online-Spielen voraussehbar ist (Müller-Lietzkow). Techniken der Selbstorganisation und Kontrolle rücken in den Fokus, wenn Online-Spiele nicht durch einen zentralen Server verwaltet werden (Weis).

 

14 Uhr Beginn des Workshops

Odej Kao (Informatik, Berlin)
Stratosphere - Informationsmanagement mit Cloud Computing



Forschung, Wirtschaft und Nutzer im Web produzieren immer größere Datenmengen. Diese enthalten wertvolle Informationen, welche aufgrund ihrer schieren Größe jedoch nicht mehr von einzelnen Rechnern verarbeitet werden können. In der DFG-Forschergruppe 'Stratosphäre'  untersuchen Forscher aus Berlin und Potsdam neue Methoden, um die Rechenkraft großer Computer-Cluster einfacher nutzbar machen. Die dort entwickelten Technologien zur Virtualisierung und Parallelisierung in der Cloud ermöglichen auch Anwendern, die keine eigenen Rechenzentren besitzen, kostengünstige und ressourceneffiziente komplexe Datenanalysen. Dabei stehen die Entwicklung eines Programmiermodells sowie einer massiv-parallelen, adaptiven, robusten Ausführungsumgebung und deren Anwendung in drei Szenarien (Analyse von Klimasimulationen, Datenreinigung von Linked Open Data und Analyse von großen Textmengen für die Lebenswissenschaften) im Vordergrund der Forschung. Die Technologien, die im Projekt entstehen, werden der Forschungsgemeinde als Open Source zur Verfügung gestellt.


Gabriele Gramelsberger (Wissenschaftsphilosophie, Berlin/Köln)
Die Vernetzung der Klimaforschung - Grid Computing, Community-Plattformen und -Modelle



Die Meteorologie bzw. Klimaforschung ist seit jeher eine hochgradig vernetzte Wissenschaft. International koordinierte Messkampagnen werden seit den 19. Jahrhundert durchgeführt. Diese Kampagnen erzeugen mittlerweile Datenfluten im Exabyte Bereich, die zudem mit ebenso umfänglichen Datenvolumen der Wetter- und Klimamodelle ergänzt werden.  Daher gehört die Klimaforschung zu den Daten-intensivsten Wissenschaften überhaupt und die Nutzung verteilter Computerressourcen (Grid Computing, Gateways, Community Plattformen) verändert seit rund einem Jahrzehnt nicht nur die Forschungsinfrastruktur, sondern das Forschen selbst. Der Beitrag wird die Auswirkungen dieser Entwicklung skizzieren und die Frage nach einem neuen Typus von Forschung aufwerfen.


16 Uhr Pause

Torben Weis (Informatik, Duisburg)
Selbst-Organisation in Peers@Play



Aktuelle Online-Spiele wie beispielsweise "World of Warcraft" basieren auf dem Client/Server Paradigma. Das bedeutet, dass der Zustand der virtuellen Welt auf einem Server vorgehalten wird, der zu jedem Zeitpunkt weiß wo sich alle Spieler befinden und was sie dort tun. Das ist eine technisch naheliegende Lösung. Sie hat aber den Nachteil, dass hohe Kosten anfallen, weil der Spieleanbieter immer genügend Serverkapazität vorrätig halten muss.

Ziel des Peers@Play Projekts ist es, solche Online-Spiele ohne zentralen Server zu realisieren. Hierfür müssen sich die PCs der Spieler (die Peers) selbst organisieren, um eine konsistente virtuelle Welt zu realisieren.

Der Vortrag wird Techniken der Selbst-Organisation vorstellen, die es erlauben, den Weltzustand gleichmäßig auf alle Peers zu verteilen, so dass jeder Peer nur einen Teil der Welt verwalten muss. Da Spieler oft geneigt sind zu betrügen, besteht eine der größten Herausforderungen auf diesem Gebiet darin Betrug zu verhindern oder zumindest a posteriori nachweisen zu können. Auch hierfür werden einige Techniken vorgestellt.


Jörg Müller-Lietzkow (Medienwissenschaften, Paderborn)
Do you know the next big thing – or what your neighbor is going to play? Why markets for Social Gaming are nearly unpredictable



Konnte man vor gut 12 Monaten ahnen, dass z. B. ein einzelnes Spiel innerhalb von knapp 4 Monaten über 100 Mio. Spieler findet? Hat die Forschung die Möglichkeit vorauszusehen, was in den sozialen Netzen das nächste große Spiel sein wird? Sind die bisher gemessenen Indikatoren national wie international hilfreich bei der Prognose zukünftiger Entwicklungen? Viele Fragen in diesem Feld sind nicht allein durch statistische Modelle zu klären. Die klassischen Hilfsmittel der traditionellen Spieleindustrie – Marktdaten und Entwicklungen – ließen sich anwenden, solange das Konsumentenprofil einigermaßen vorhersagbar war. Sie erklären aber den Umbruch nicht, der in sozialen Netzwerken und den entsprechenden Spieleplattformen stattfindet. Einerseits gehen viele von einem Random Walk im Kontext der Hitbildung aus, andererseits - und da setzt der Vortrag an - gibt es dennoch Ansatzpunkte bestimmte Entwicklungen zumindest im Kern zu prognostizieren. Der Vortrag gliedert sich dabei in 4 Teile:
  • A (very) brief history of social gaming - Die sehr kurze Geschichte des Spielens in sozialen Netzwerken
  • Facts and figures about social gaming markets and production - Einiges zu den industriellen Grundlagen
  • There is one winner, but how many losers? - Wie stark ausdifferenziert ist der Markt?
  • An outlook based on facts as on fiction. - Ein Ausblick auf Erwartbares und nicht Erwartbares auf Basis von Fakten und Fiktion.

Kurze Pause

18.30 Uhr Abschluss-Diskussion (Moderation: Irina Kaldrack und Theo Röhle)


Dienstag 14.6. |

Elena Esposito (Modena)
Die Rätsel der web-intelligence



Smart environments, e-learning, predictive machines, intelligent devices: viele der Themen und Projekte, die in letzter Zeit diskutiert werden, weisen auf eine Veränderung des Konzepts der künstlichen Intelligenz hin, die jetzt auf das Netzwerk als Ganzes und nicht mehr auf ein Bewusstsein oder auf seine Surrogate zurückzuführen ist. Es handelt sich aber um eine andersartige Intelligenz, die mit Strukturen und Verfahren arbeitet, welche die Prozesse des Bewusstseins nicht reproduzieren. Die Techniken der KDD und DM beabsichtigen, aus den verfügbaren Informationen weitere Informationen zu gewinnen, die von niemandem gedacht oder kommuniziert wurden, sondern von autonomen Prozeduren des Netzwerks produziert werden, ohne jeden Hinweis auf Bedeutungen oder auf Absichten.

Wie muss sich das Konzept von Intelligenz ändern, um diese Art von Verfahren einzuschließen? Welche Folgen können daraus gezogen werden, um die Auswirkungen der Technologie auf die Gesellschaft und auf ihre Begriffe zu verstehen (vor allem diejenigen, die sich auf reflexive Beziehungen wie Zeitkategorien oder die Behandlung der Privatsphäre beziehen)?



Dienstag 28.6. | Volker Grassmuck


Paradigmenwechsel peer-to-peer


In der Informatik stellt der Übergang vom Client/Server-Prinzip zu verteilten und Peer-to-Peer-basierten Architekturen einen Paradigmenwechsel dar, formuliert das Forschungskonzept des Graduiertenduiertenkollegs Automatismen. Darauf bildeten sich soziale Netze, in deren Datenmengen Muster erkennbar seien, die nicht auf intentionale Strategien verantwortlich handelnder Subjekte zurückzuführen sind.

Der Vortrag gibt einen Überblick über den Peer-to-Peer-Paradigmenwechsel, behandelt P2P-Produktion und P2P-Finanzierung und fokussiert dann auf P2P-Distribution und seine empirische Erforschung. Was wissen wir über Filesharing? Ist es angemessen, massive technische, juristische, soziale Instrumente für dessen Unterdrückung einzusetzen? Wie viel von dem, was wir dabei an Mustern erkennen können, ist auf intentional handelnde Subjekte zurückzuführen und wie viel auf ungeplante Strukturbildung, also Automatismen?

Achtung: Der Vortrag von Birger P. Priddat mit dem Titel "Idealistische Finanzmärkte: Erwartungsmeinungshandel im Netzbetrieb" muss leider ausfallen.


______

 

Graduiertenkolleg „Automatismen. Strukturentstehung außerhalb geplanter Prozesse in Informationstechnik, Medien und Kultur“

 

Sprecher: Hannelore Bublitz, Hartmut Winkler
Verantwortlich für die Ringvorlesung: Holger Karl, Hartmut Winkler
Konzeption: Stefan Hörmann, Irina Kaldrack, Theo Röhle, Jörn Künsemöller