Archiv | Awareness RSS feed for this section

GETup – Getting to know your fellow PhDs

19 Mai

The Joint European Summer School on Technology Enhanced Learning is an annual get-together of PhD students and experts in the field of social, educational and computer science. This years Summer School takes place in Limassol, Cyprus in it’s 9th edition. More information on the topics and the programme can be found on the official website.

Due to the different backgrounds of the participants, the densely packed programme and the variety of disciplines problems arise, that counteract the establishing of new contacts and collaborations. Anecdotal evidence shows that at the end of the Summer School, PhDs only know about 3 to 5 new PhDs and their research topics. Often, they also forget about the new connections pretty soon, as they are not made in realistic collaboration settings but during dinner or the like. Moreover, after the Summer School participants often loose the connection to their freshly made contacts. The GETup system tries to reduce these problems by helping the participants to find relevant people and to get in touch with them in a more meaningful way.

The overall goal is to connect the participating Summer School PhDs in order to make them aware of each other, their respective PhD projects and potential overlaps in their work. The aim is to provide a technological framework in which the participants can track with whom they interacted, in which they can give feedback on others‘ ideas and ask for input on their initial paper, slides or PhD project. Moreover, it aims to recommend ’similar‘ PhDs to each other. This is achieved by implementing different aspects known from Social Networks and the emerging research field of Gamification.

SOCIAL NETWORKING On the one hand, the system provides the user with the key features of a social network that supports the work and participation in typical  Summer School activities. Based on the self-provided user profiles, and detailed information on their research projects, registered users can browse the information of other participants and, through a Twitter-like principle, add them to their contacts. Using the website and the mobile client, participants can log meetings with other users and access this information again during or after the Summer School. Building up on these user-provided and other data, the underlying software reflects the social graph of the Summer School participants and calculates user-to-user recommendations. Furthermore the software enables users to organize their own events and make them available to all other participants. This feature is particularly interesting for workshop organizers, as it supports automatic grouping that takes into account the results of the recommender system.

GAMIFICATION On the other hand the incorporation of typical game elements addresses the motivation of the participants to continuously use the system. This includes among others the integration of Mozilla Open Badges, an XP based point system and, as the main element, the so-called Investment Game. This element is based on the idea behind well-known crowd funding websites and allows the participants of the Summer School to invest in the research projects of other PhD students. Every day registered users receive a certain amount of money which they can donate to their preferred projects. With each investment, a personal feedback, in form of a comment and a rating, can be issued.

These briefly described measures should help to create a closely knit network of PhDs that know about the strengths, research domains and PhD projects of each other and try to make the connections last over the end of the Summer School.

IKNOW-ANALYSE

23 Nov

In diesem Beitrag stelle ich kurz das Thema der Masterarbeit vor und gehe auf den Abschnitt der Datenbereinigung ein.

  • Was ist das Thema der Masterarbeit?

Analyse des IKNOW Forschungsnetzwerkes und Visualisierung von Forschungstrends – Datenbereinigung, Analyse mit Trenderkennung und Visualisierung

In meiner Masterarbeit beschäftige ich mich mit der Analyse der eingereichten Paper der Konferenz IKNOW.
Weiterhin sollen die Ergebnisse grafisch dargestellt werden.

Datenbereinigung

  • Warum ist das nötig?

Um aussagekräftige Analysen mit korrekten Daten zu erhalten, müssen die Quelldaten eine möglichst hohe Qualität aufweisen.
Durch die automatische Erkennung des KnowAAN-Tools ist diese Qualität nicht gewährleistet.
Eine manuelle Datenbereinigung erhöht die Qualität der Daten und ermöglicht erst Auswertungen zum Inhalt der vorhandenen Konferenzpaper.

  • Welche Daten sind vorhanden?

Die IKNOW-Konferenz hat bisher jährlich von 2001-2012 stattgefunden.
Die vorhandenen, eingereichten Paper wurden in das KnowAAN-Tool, das durch die PG KnowAAN erstellt wurde, geladen.
Bisher sind insgesamt 622 Paper im System.
Diese können mit dem KnowAAN-Documentbrowser exploriert, und mit einer Editionsmaske bearbeitet werden.
Weitere Paper sind auf den Konferenzseiten aufgeführt, konnten aber noch nicht in das System geladen werden.
Die Konferenzseite zählt zusammen 663 Paper auf.

  • Aufwandsschätzung im Vorfeld:

Um den Aufwand für die manuelle Datenbereinigung abzuschätzen, wurde die folgende Rechnung erstellt.
Bei einem Paper werden die Kopfdaten und die Referenzen bearbeitet.
Als Schätzung wurden 10 Minuten für die Kopfdaten und 20 Minuten für die Referenzen pro Paper angenommen.
Dabei werden 20 Referenzen pro Paper vermutet und jeweils 1 Minute pro Referenz gerechnet.
Bearbeitung gesamt: 30 Min. / Paper

Bei einer maximal geplanten Bearbeitungszeit zur Datenbereinigung von 2-2.5 Monaten steht folgende Zeit zur Verfügung.
Arbeitszeit: 6 Stunden / Tag ; 5 Tage / Woche (Mehr Zeit kann hier für diese Aufgabe nicht eingesetzt werden, da die Konzentration nachlässt und Fehler entstehen.)
12 Paper / Tag
60 Paper / Woche
in 10 Wochen sind somit 600 Paper bearbeitbar

Vorgehen:
Aufteilen der Korrekturen in 2 Phasen / Durchläufe.
Phase 1: Kopfdaten bereinigen
Phase 2: Referenzen bereinigen

Nachteil: Jedes Paper wird doppelt bearbeitet.
Vorteil: Man erhält schneller einen Überblick über alle Paper, da die kürzere Aufgabe zunächst für alle Paper durchgeführt wird.
Als Folge können mögliche Probleme eher erkannt werden und der weitere Aufwand kann besser abgeschätzt werden.

 

  • PHASE 1: Kopfdaten bereinigen umfasst: Titel, Name Autor(en), Arbeitsstelle Autor(en), Ort der Arbeitsstelle, Schlüsselwörter, Jahr der Konferenz.

Die Arbeit mit 2 Bildschirmen (Editiermaske, Paper als PDF) ist sinnvoll.
Die Paper sollten der Reihenfolge nach bearbeitet werden.
Die Sortierung nach Jahr und eine alphabetische Sortierung innerhalb eines Jahres hat sich als sinnvoll erwiesen.
Man sollte hierbei mit den früheren Jahren beginnen, da man bei Papern aus späteren Jahren auf bereits korrigierte Paper aus früheren Jahren zurückgreifen kann.
Die bearbeiteten Paper sollte man sich merken/notieren.

Bei den Kopfdaten soll der Ort der Arbeitsstelle für jeden Autor erfasst werden.
Die Ortsangaben werden für Kartenansichten benötigt, die die Herkunft der Autoren darstellen.
Als Genauigkeitsmaßstab werden im Allgemeinen die Stadt und das Land angegeben.
In einigen Papern ist die Stadt jedoch nicht angegeben.
Hier ist eine zusätzliche Recherche erforderlich (mit Autor und Firma).
Die Angaben zu Abkürzungen von Kategorien werden als Schlüsselwörter mit aufgenommen.

Die Korrektureingabemaske ermöglicht die Speicherung erst dann, wenn alle Pflichtfelder gefüllt sind.
Durch fehlerhafte Erkennung in der automatischen Vorverarbeitung der Paper ist es möglich, dass die Referenzen nicht in einem „korrekten“ Zustand sind.
Daher werden die vorhandenen, erkannten Referenzen soweit korrigiert, dass diese Änderungen gespeichert werden können.

 

 

Ergebnisse studentischer Projekte auf der mLearn 2012 vorgestellt

16 Okt

In der heutigen Eröffnungskeynote der mLearn Konferenz 2012 in Helsinki (Finnland) wurden Ergebnisse aus zwei studentischen Projekten der Arbeitsgruppe präsentiert. Ich habe die Analysesoftware der Projektgruppe knowAAN und die Visualisierungen aus der Bachelorarbeit von Jörg Amelunxen verwendet, um die Publikationen der letzten 11 Jahre der mLearn Konferenzserie zu analysieren. Das Cleaning der Metadaten (bisher wurden noch keine Referenzdaten gesäubert) wurde durch Marina Pongraz vom CELSTEC durchgeführt (Vielen Dank noch mal).

Hier sind die Folien zu meiner Analyse, die teilweise in der Keynote verwendet wurden (es kam übrigens sehr gut an…):

GEXF Vizz – Warum Diagramme nicht langweilig sein sollten

1 Aug

Mittlerweile habe ich den „Circos Teil“ meiner Webanwendung beinahe vollständig erledigt und möchte deswegen zum Abschluss der Blogposts über Circos ein wenig abschweifen und über die Auswirkungen von Circos und den dazugehörigen Visualisierung reden, die meiner Meinung nach eine große Rolle spielen.

Hin und wieder findet man ja mal sehr gut aussehende Infografiken die den Betrachter irgendwie direkt in ihren Bann ziehen (weil sie in ihrem Design aus der Menge heraus stechen uns etwas neues bieten; einen Anreiz, dass man diese Grafik sehen möchte) und man einfach unbedingt wissen möchte was man in dieser Grafik an Information findet. Spontan würde mir dabei zum Beispiel diese beiden Grafiken einfallen:
Weiterlesen

Zeitserienvisualisierung mit Cube

7 Dez

Heute bin ich über ein sehr interessantes Projekt zur Visualsierung von Zeitserien gestoßen, dass dazu noch technologisch sehr interessant ist. Cube baut auf Node.js, MongoDB und D3.js auf und erlaubt die schnelle Erzeugung recht ansprechender Visualisierungen, die in verschiedenen Kontexten eingesetzt werden können. Die Entwickler selbst beschreiben Cube als:

an open-source system for visualizing time series data, built on MongoDB, Node and D3. If you send Cube timestamped events (with optional structured data), you can easily build realtime visualizations of aggregate metrics for internal dashboards. Cube speaks WebSockets for low-latency, asynchronous input and output: new events are streamed in, and requested metrics are streamed out as they are computed. (You can also POST events to Cube, if that’s your thing, and collectd integration is included!) Metrics are cached in capped collections, and simple reductions such as sum and max use pyramidal aggregation to improve performance. Visualizations are generated client-side and assembled into dashboards with a few mouse clicks.

Es gibt auch ein typisches „Was kann man cooles in 60 Sekunden mit unserem Tool machen?“ Video, welches tatsächlich nur 31 Sekunden lang ist. Macht schon echt nen coolen Eindruck, oder?