Ronny Bergmann – StudentenPACK. https://www.studentenpack.de Das Magazin der Studenten in Lübeck Wed, 23 May 2018 19:53:37 +0000 de-DE hourly 1 Die alte Seefahrtschule https://www.studentenpack.de/index.php/2012/01/die-alte-seefahrtschule/ https://www.studentenpack.de/index.php/2012/01/die-alte-seefahrtschule/#comments Mon, 16 Jan 2012 10:55:59 +0000 http://www.studentenpack.uni-luebeck.de/?p=2188 unbekannter Fotograf

„Wie kommt man denn zur alten Seefahrtschule?“, war häufig die Frage der Erstsemester, wenn in den Mathematik-Vorlesungen die Übungsgruppen bekannt gegeben wurden, denn die meisten Übungen und vertiefenden mathematischen Veranstaltungen fanden bis zum Wintersemester 2010/2011 dort statt. Bereits seit dem Sommersemester finden die meisten Übungen nun allerdings in den Seminarräumen auf dem Campus statt und in diesem Semester wurde nur noch eine Vorlesung in den Hörsälen der Seefahrtschule gehalten. Die größeren Vorlesungen, also Analysis und Lineare Algebra, finden schon lange auf dem Campus statt, denn in der Seefahrtschule sind lediglich drei kleine Hörsäle untergebracht. Sie liegt in den südlichen Wallanlagen der Altstadtinsel zwischen dem Mühlenteich und dem Elbe-Lübeck-Kanal. Die Auffahrt zur Seefahrtschule versteckt sich zwischen der Mühlenbrücke und der Wallstraße und führt hinauf auf die Wallanlagen.

Geht man am Kanal zu Fuß entlang, so erblickt man erst das Kaisertor, auf dem die alte Seefahrtschule erbaut worden ist. Dieses stammt aus dem 13. Jahrhundert und ist eines der kleineren Tore zur Stadt gewesen, welches wahrscheinlich nach seinem Erbauer benannt ist. Es wurde jedoch im 16. Jahrhundert zugeschüttet und darauf Wallanlagen errichtet. Wesentlicher Zugang zur Stadt ist zu der Zeit das nahegelegene Mühlentor gewesen, das ebenso wie das Holstentor aus 3 Toren bestand und dessen inneres Tor etwa auf der Höhe des alten Zolln stand. Auf den Grundmauern des zum Teil abgetragenen Kaiserturms wurde 1826 das „Gebäude zur Lehranstalt für die Schifffahrtskunde“ errichtet und die 1808 gegründete Navigationsschule zog dort ein. Der heutige Bau stammt etwa aus dem Jahr 1900. Während der Bauarbeiten am Elbe-Lübeck-Kanal, in den 3 Jahren davor, wurde das Kaisertor wieder freigelegt. Als Durchgang zur Wallstraße wurde das Kaisertor auch für die Festlichkeiten zur Eröffnung des Kanals genutzt. In der Seefahrtschule wurden Seeleute und Steuermänner, Kapitäne und Piloten sowie Seefunker und Maschinisten ausgebildet, wobei während des zweiten Weltkriegs die letzten beiden Studiengänge eingestellt waren. 1969 erfolgte eine Teilung der Seefahrtschule, da der Fachbereich Seefahrt an der im selben Jahr gegründeten Fachhochschule einen Teil der Studiengänge übernahm. Schließlich wurde die Seefahrtschule Lübeck 1993 nach Flensburg verlegt.

Ebenfalls im Jahr 1993 wurde an der Universität zu Lübeck (damals noch Medizinische Universität zu Lübeck) der Diplomstudiengang Informatik eingerichtet. Die drei ersten Institute, die nach dem Gründungsinstitut (medizinische Informatik von Prof. Dr. em. Pöppl) entstehen, ziehen in die nun leerstehende Seefahrtschule ein. So teilen sich das Institut für theoretische Informatik (Prof. Dr. Reischuk), das Institut für praktische Informatik (Prof. Dr. Linnemann) und das Institut für Mathematik (Prof. Dr. Lasser) ab 1994 die Räume der alten Seefahrtschule. In das alte Direktorenzimmer mit der Veranda zieht die Bibliothek ein und aus den drei alten Klassenzimmmern werden kleine Hörsäle. Damit ist die alte Seefahrtschule neben dem Institut für Medizingeschichte und Wissenschaftsforschung (IMGWF) in der Königstraße der zweite Standort der Universität zu Lübeck in der Altstadt. Die Einrichtung der Seefahrtschule steht schon damals unter Denkmalschutz, so dass die alten Schränke mit Instrumenten nicht nur erhalten bleiben müssen, sondern an ihren ursprünglichen Plätzen bestehen bleiben. Dadurch ist etwa auf dem Flur im neueren (östlichen) Teil der Seefahrtschule ein alter Schrank mit physikalischen und chemischen Apparaturen. Auch in einigen Büros – etwa dem von PD Dr. Teichert – stehen nautische Instrumente und ein alter Schreibtisch, der trotz seines Alters weiterhin genutzt werden darf. Im kleinsten der Hörsäle, dem ebenfalls im östlichen Teil gelegenen Hörsaal 3, ist sogar noch die alte Einrichtung mit Schulbänken und einem großen Transformator vorhanden. In den Abseiten stehen außerdem alte Funkgeräte und Globen, sowie Karten, -ständer und Navigationsgeräte. Neben den drei Instituten bleibt ein Bereich der Seefahrtschule dem norddeutschen Rundfunk vorbehalten, der auf den Wallanlagen direkt neben der Seefahrtschule einen Sendemast betreibt.

Mit der Zeit entstehen weitere Institute der Informatik, die zunächst in der Seelandstraße in Kücknitz untergebracht werden. Eine Ausnahme bildet das Institut für technische Informatik, das in der alten Küche des Universitätsklinikums, dem Haus 33, unterkommt. Mit der Fertigstellung des zunächst nur 2-stöckigen Informatik-Gebäudes (Gebäude 64) auf dem Campus ziehen im Jahr 2004 sämtliche Institute der Informatik auf den Campus. In der Seefahrtschule bleibt lediglich das Institut für Mathematik. Die Grundlagenvorlesungen finden zu der Zeit schon auf dem Campus statt, denn für die etwa 200 Erstsemester der Studiengänge Informatik, CLS (heute MML) und MLS reichen selbst die dortigen Hörsäle V1 und V2 nur knapp. Nach dem Bau des Audimax von 2004 bis 2008 beginnt im Jahr 2009 die Erweiterung des Informatik-Gebäudes. Rundherum wird eine gesamte Etage auf das Gebäude gesetzt: Der Rundbogen erhält eine zweite Etage, die beiden Flügel eine Dritte. Vorgesehen war diese Etage schon 2004, doch fehlten damals die Gelder. So begleitet Baulärm bis Ende 2010 den Wissenschafts- und Lehrbetrieb im Informatikgebäude.

In der Seefahrtschule bleibt es ruhig. Zwar sind zwischenzeitig brandschutzbedingt 2008 einige Türen in den Fluren nachgerüstet worden, davon abgesehen gibt es allerdings seit einigen Jahren störende Mängel am Gebäude, wie etwa Schimmel in den Kellerwänden des östlichen Teils, wo die Toiletten untergebracht sind. Nicht nur deswegen, sondern auch, um die Wege zu verkürzen, ist einer der neuen Flügel für das Institut verplant. Im Januar 2010 wird aus der Arbeitsgruppe SAFIR um Prof. Dr. Bernd Fischer das Institute of Mathematical Image Computing (MIC). Mit den Plänen, ein Frauenhofer-Institut zu werden, und somit einigen neuen Mitarbeitern wird es zunächst eng in der Seefahrtschule. Der Plan, die gesamten Mitarbeiter in der Mathematik in einem der neuen Flügel unterzubringen, ist damit nicht mehr realisierbar. Nach einigen Verhandlungen zieht das MIC im Mai 2011 in das Multifunktions-Center (MFC) 2 am Carlebachpark nahe des Universitätscampus.

Der Umzug des Instituts für Mathematik, der eigentlich für März 2011 angedacht war, verschiebt sich, da mit der Anschaffung und Planung der neuen Möbel einige Probleme auftreten. Abgesehen von ein paar Verwirrungen bezüglich der Räume für die Übungen im Sommersemester und der häufigen Frage, wann denn nun der Umzug sei, bleibt alles wie vorher: Zu Vorlesungen und Übungen auf dem Campus muss man zwar ein wenig Zeit einplanen, dafür bleiben den Mathematikern der schöne Ausblick und die Nähe zur Altstadt.

Zum ersten Dezember 2011 ist nun das Institut für Mathematik im dritten Stock des Gebäudes 64 eingezogen und die alte Seefahrtschule steht leer. Zwischenzeitig stand der Plan im Raum, die lübsche Polizei eine Weile dort unterzubringen, um das 1. Revier in der Mengstraße zu renovieren. Auch der Verein für Denkmalschutz überlegte, die alte Seefahrtschule zu übernehmen und ein Seminargebäude daraus zu machen, in dem dann Lehrgänge zu Denkmalpflege – eventuell auch am praktischen Beispiel des Gebäudes selbst – hätten stattfinden sollen. Aktuell sucht das Land Schleswig-Holstein nach einem Interessenten und bleibt derweil Eigentümer der alten Seefahrtschule. Besitzer der Seefahrtschule ist weiterhin die Universität zu Lübeck, behält also etwa vorerst die Schlüssel und die Pflichten, die ein Gebäude so mit sich bringt.

Als ich Anfang 2009 meinen ersten Schreibtisch in der Seefahrtschule bekam, um meine Diplomarbeit dort zu schreiben, stand schon fest, dass das Institut in absehbarer Zeit aus der Seefahrtschule ausziehen wird. Damals sagte ich scherzhaft, ich würde dann eine WG dort aufmachen, denn die Lage und der Ausblick sind wirklich schön, dann noch in einem über 110 Jahre altes Gebäude – meiner Meinung nach traumhaft. Natürlich ist eine WG in der Seefahrtschule kaum realisierbar, denn mit dem Denkmalschutz wären die notwendigen Umbauten kaum vereinbar. Bleibt zu hoffen, dass sich ein Weg findet, auf dem die alte Seefahrtschule renoviert wird und weiterhin als das erhalten bleibt, was sie – beziehungsweise der vorherige Bau – über 180 Jahre nun war: ein Ort der Lehre mit altem Charme, einer schönen Wallanlage drumherum am südlichen Ende der Altstadt.

]]>
https://www.studentenpack.de/index.php/2012/01/die-alte-seefahrtschule/feed/ 1
Nacht des Wissens https://www.studentenpack.de/index.php/2011/11/nacht-des-wissens/ https://www.studentenpack.de/index.php/2011/11/nacht-des-wissens/#respond Mon, 14 Nov 2011 11:10:28 +0000 http://www.studentenpack.uni-luebeck.de/?p=2093 Dieses Jahr veranstaltet die MetaMeute zum ersten Mal einen Abend zum Austausch von Wissen, die Night of Open Knowledge – kurz Nook. Am Freitag, dem 25. November 2011, finden ab 19 Uhr im Audimax (Gebäude 65) Vorträge zu verschiedenen Themen statt, die im Studium normalerweise eher selten betrachtet werden. Für die Informatik, eure Abschlussarbeiten oder beim allgemeinen Arbeiten mit dem Computer, sind das jedoch so spannende Themen, dass wir euch darüber informieren wollen. Ein Vorwissen ist meist nicht notwendig, denn die vorgestellten Themen sollen Interessierte zum Mitmachen animieren. Deswegen gibt es zu einigen Themen Workshops, die nach der Vorstellung allen die Chance bieten, sich selbst aktiv mit dem Thema auseinanderzusetzen, Fragen zu stellen und Dinge auszuprobieren. Zu den Vortragsthemen gehören: Arduino, Behaviour Driven Development, Freifunk, Funktionale Programmierung, Konsole + Shells, LaTeX, Qt und TikZ.

 

Janosch Rux

Wir danken P++ für die Versorgung mit Getränken (unter anderem Bier und Club-Mate) zu studentenfreundlichen Preisen. In der Lounge vor den Seminarräumen gibt es genügend Platz und Sitzmöglichkeiten, damit ihr euch mit uns zwischen den Vorträgen austauschen könnt. Dazu läuft gemütliche Musik und zum Abschluss eine PowerPoint-Karaoke. Wir freuen uns, euch zu einem interessanten Abend mit spannenden Themen begrüßen zu dürfen.

Weitere Informationen gibt es auf der Internetseite zur Veranstaltung: http://metameute.de/nook2011

]]>
https://www.studentenpack.de/index.php/2011/11/nacht-des-wissens/feed/ 0
Bilder nachbauen mit Bauklötzen https://www.studentenpack.de/index.php/2011/06/bilder-nachbauen-mit-bauklotzen/ https://www.studentenpack.de/index.php/2011/06/bilder-nachbauen-mit-bauklotzen/#respond Mon, 13 Jun 2011 07:00:02 +0000 http://www.studentenpack.uni-luebeck.de/?p=1264 Überträgt man ein Bild im Internet, etwa eines, das man per E-Mail verschickt, kann man sich das vorstellen, wie das Erzählen einer Geschichte. Der Computer überträgt Stück für Stück die Details des Bildes, so wie ein Autor eine Geschichte erzählt. Dabei darf natürlich nichts verloren gehen. Was der Computer sich dabei jedoch wünscht, ist, dass er wenig erzählt. Denn je weniger er erzählt, desto kleiner ist die E-Mail, desto kürzer muss er selbst das Bild versenden bzw. der Empfänger zuhören. Ein Bild auf einem Computer besteht aus vielen Pixeln, also einzelnen Bildpunkten. Eine übliche Kamera produziert heute Bilder mit 12 Megapixeln, also 12 Millionen mal die 3 Werte für den Blau-, Rot- und Grünanteil. Ohne das zusammenzufassen – auch komprimieren genannt – zu einer kürzeren Form, würde das niemand per E-Mail bekommen wollen.

Eine Möglichkeit, die „Geschichte des Bildes“ zusammenzufassen, sind Wavelets, namentlich eine französisch-englische Mischung, die „kleine Welle“ bedeutet. Um deren Idee zu verstehen, betrachten wir unser Bild zunächst aus einer anderen Perspektive. Zunächst beschränken wir uns auf ein Schwarz-weiß-Bild, die Idee lässt sich später auf die 3 Farbkanäle einzeln anwenden. Legt man dieses Bild nun auf den Boden und baut darauf ein Gebirge, in dem ein Punkt umso höher liegt, je heller er ist, dann wird eine Kante im Bild – wie etwa an den Rändern der Buchstaben auf dieser Seite – in diesem Gebirge zu einer Klippe, der Teppich im Wohnzimmer zu einem Plateau. Beschreibt man das Bild nun über die Höhen der einzelnen Pixel im Gebirge, hat man die alte Beschreibung wieder.

Die Idee der Wavelets ist nun, das Gebirge mit Bauklötzen nachzubauen, die in allen unterschiedlichen Größen vorliegen. Der Einfachheit halber nehmen wir hier auch erstmal nur rechteckige Klötze, also etwa Lego-Steine, nur dass wir auch die Duplo-Größe dabei haben und eine feinere Variante von Lego und noch viele andere Größen. Zum Nachbauen gibt es zwei Regeln: Einen Stein, den man setzte, wählt man so groß wie möglich, dass er noch nicht über das eigentliche Bildgebirge hinausragt. Außerdem darf die Kante des Klotzes nicht nur halb auf einem Pixel liegen oder zu einem Viertel, sondern nur ganz oder gar nicht. Das schränkt sowohl die Größen der Klötze als auch die Positionen ein, an die diese gelegt werden können. Die Größe des Klotzes lässt sich also in Länge und Breite in Pixeln und in der Höhe in Anzahl Farbstufen angeben. Die Verschiebung kann immer in ganzen Pixelschritten angegeben werden.

Ein weißer Strich in einem Bild lässt sich also durch einen schmalen, sehr hohen (weiß waren die Bergspitzen im Gebirge) Klotz beschreiben. Weite Flächen können dann durch wenige große Steine beschrieben werden, nur an ihren Rändern benötigt man für die Details wieder mehr Steine. Den Plan schreibt man dann – beginnend bei den großen Steinen – auf. Kennen beide Computer die Menge aller möglichen Bausteine, muss nur noch der Plan ausgetauscht werden.

Durch die Anordnung im Plan ergibt sich, dass bereits dann, wenn der Empfänger einen kleinen Teil empfangen hat, er die ersten Teile des Bildes anzeigen kann. Je mehr er empfängt, desto mehr Details kann er anzeigen. Das ist auch praktisch für Handys, die mit ihrer knappen Empfangsrate einfach bei genügend Details für ihr Display aufhören können. Vielleicht laden sie dann bei Bedarf nach, wenn jemand ins Bild hineinzoomt.

Die Menge der Bausteine muss gut gewählt werden, denn sind es zu viele, benötigt man zum Erzählen, welchen Baustein man denn meint, wieder zu viel Zeit. Daher beschränkt man sich auf ganz wenige Bausteine und gibt ihnen zusätzlich eine Skalierung (um wie viel vergrößert, üblicherweise beschränkt auf die Werte 2, 4, 8, …) und eine Rotation mit. Bei den obigen also, ob sie horizontal oder vertikal liegen, denn mehr lässt die zweite Regel nicht zu.

Großer Nachteil dieser Art Bauklötze ist, dass sie sehr auf horizontale und vertikale Linien im Bild „abfahren“, diese also zwar schnell erfassen können, aber auch erzeugen, wenn man nur den Anfang des Plans hat. Dadurch nähern sie ein Bild erst dann gut an, wenn der Empfänger viele Detailstufen des Plans kennt. Dem kann man abhelfen, indem man den Stein rundherum ein wenig größer macht – dann verletzt er an sich die zweite Regel – und dann geschickt die Kanten anschrägt, vielleicht sogar nette Kurvenformen an den Kanten fräst. So entstehen glatte Bausteine. Allerdings hakt dann an dieser Stelle das Bild der Bauklötze, denn man kann sie nun nicht mehr so schön stapeln wie bisher, sondern muss sich vorstellen, dass die Bausteine wie kleine Nägel gebaut sind. Auf einer Ebene haben sie ihre Bauklotzform (mit den kurvigen Rändern), stellt man sie aufeinander, sacken die Nägel hinunter auf die Oberfläche der Bausteine unter sich und bilden so das Gebirge.

Möchte man diese Idee für ein gegebenes Bild und eine Menge von Bauklötzen auf dem Computer umsetzen, so gelangt man mathematisch in tiefe Raumtheorie, spätestens dann, wenn es darum geht, sowohl das Zerlegen eines Bildes als auch das Anzeigen schnell zu berechnen.

Das Erste ist die Analyse des Bildes und beschäftigt sich also zum Einen damit, wie gut die Bauklötze bestimmte Formen annähern können, die sogenannte Approximationsgüte. Zum Anderen aber damit, den Plan zu erzeugen, also Form und Position einzelner Bauklötze im Bild zu finden. Um das zu berechnen, müssen die Grundformen weitere – mathematische – Eigenschaften erfüllen. Ähnliche Probleme ergeben sich mathematisch auch beim – an sich gar nicht so kompliziert klingenden – Zusammenbau, der Synthese, des Bildes, vor allem, wenn diese schnell berechenbar sein soll.

Seinen Ursprung hat die Wavelet-Theorie zu Beginn der 1990er Jahre in der Verarbeitung von Audio-Signalen. Die Bauklötze waren zu Beginn Formen, die nur einen kleinen Bereich beschrieben und aus trickreich gewählten Sinus- und Kosinus-Summen gebildet wurden. Kleine – lokale – Wellen. Für Bilder ergibt sich die zusätzliche Herausforderung, den Bauklötzen Richtungspräferenzen mitzugeben. Wenn man beispielsweise ein Meer von oben fotografiert, wird es Wellen in eine bestimmte Richtung geben. Wählt man seine Grundformen so, dass sie diese berücksichtigen und kann diese kurz beschreiben, so wird der Plan zum Nachbauen sehr kurz. Denkt man weiter an 3D-Daten wie Videos, 4D-Daten wie Raumtemperaturvideos, so lässt sich das Prinzip auch da anwenden. Oder auf noch höheren Daten – das stelle man sich aber lieber nicht mehr vor. Auch hier liegt die Herausforderung darin, schnelle Algorithmen zu entwickeln, die kleine Beschreibungen der Daten erzeugen.

 

]]>
https://www.studentenpack.de/index.php/2011/06/bilder-nachbauen-mit-bauklotzen/feed/ 0
Wie groß ist eigentlich Unendlich? https://www.studentenpack.de/index.php/2011/05/wie-gros-ist-eigentlich-unendlich/ https://www.studentenpack.de/index.php/2011/05/wie-gros-ist-eigentlich-unendlich/#respond Sat, 14 May 2011 08:00:32 +0000 http://www.studentenpack.uni-luebeck.de/wordpress/?p=264
Albert Piek | StudentenPACK.

Georg Cantor blickt in die Rätsel der Unendlichkeit.

Die Mathematik behandelt üblicherweise Zahlen, von ganz kleinen Zahlen bis hin zu unvorstellbar großen Zahlen. Georg Cantor (1845–1918) befasste sich zunächst mit Zusammenfassungen von beliebigen Objekten, also mit Mengen, und gilt als Begründer der Mengenlehre. Dabei stellte er sich eine Frage: „Wie groß ist eigentlich Unendlich – und gibt es unterschiedliche Arten von Unendlich?“

David Foster Wallace nähert sich diesem Thema anschaulich, indem er zunächst an praktischen Beispielen erläutert, dass es zwei Arten von Unendlichkeit gibt, mit denen Mathematiker seit der Antike konfrontiert werden: zum einen die des unendlich Kleinen am Beispiel der Zahl $\sqrt{2}$, die unendlich viele Nachkommastellen besitzt. Dazu betrachtet er, wie bereits Pythagoras, ein rechtwinkliges Dreieck, bei dem die beiden Seiten am rechten Winkel jeweils die Länge 1 haben, die dritte Seite ergibt sich in diesem Dreieck eben zu $\sqrt{2}$. Diese Zahl kann man weder mit Stift und Papier mit ihren Nachkommastellen aufschreiben noch durch einen Bruch darstellen. Diese unendlich kleinen Dinge führten dann bei Gottfried W. Leibniz und Isaac Newton im 17. Jahrhundert zur Grenzwertbildung und somit zum Begriff des Integrals. Zum anderen die Unendlichkeit in der Größe, bei der in der heutigen Anschauung wahrscheinlich das Universum zuerst im Kopf auftaucht. Dieses ist jedoch nur sehr sehr groß und nicht unendlich.

Über viele solche Beispiele, etwa auch eines von Galilei, führt das Buch durch die Geschichte der Mathematik, die an Probleme der Unendlichkeit stößt. Dies ist etwa bei der Betrachtung von Wärmegleichungen der Fall, also wie sich Wärme verteilt und zeitlich verändert. Cantor beschreibt diese Probleme in einer sehr abstrakten Theorie und löst damit einige Probleme schließlich durch seine Charakterisierung. In dieser unterscheidet er zwischen dem „abzählbar Unendlichen“ und dem „überabzählbar Unendlichen“. Davon ausgehend unterscheidet er viele Arten von Unendlichkeiten. Die Auswirkungen dieser Entdeckung reichen bis in die heutige Zeit, denn die daraus resultierende Kontinuumshypothese führt zu Kurt Gödel – dessen Unvollständigkeitssatz eher ein eigenes Buch verdient.

Neben der Beschreibung der Konzepte der Mathematik erzählt Wallace aber auch die persönliche Geschichte der Mathematiker, vor allem natürlich Cantors selbst. Mit seiner Theorie war er seiner Zeit weit voraus und erntete mit seinen Veröffentlichungen viel Kritik. So etwa von Leopold Kronecker, einem der Professoren, bei denen er in Zürich studierte. Viele seiner Zeitgenossen waren der Auffassung, dass die Theorien Cantors nicht nur keinen praktischen Nutzen haben, sondern auch zu Widersprüchen führen, die in der Mathematik damals noch als undenkbar galten. Heute ist – wie das Buch ebenfalls erzählt – mit den Arbeiten von Kurt Gödel und Alan Turing die praktische Relevanz gezeigt. Aber auch abseits der Kritik, mit der Cantors Theorien aufgenommen worden sind, verzweifelte Cantor an der von ihm postulierten Kontinuumshypothese. Diese wurde von Hilbert als erstes Hilbertsches Problem in seiner Rede im Jahre 1900 genannt.

Wallace gibt zu Beginn zu, dass in einem populärwissenschaftlichen Buch die Mathematik zu ungenau werden kann. Daher verwendet er außer einer großen Menge an Fußnoten den Begriff FESI für „Falls es sie interessiert“ – wobei im englischen Original die schönere Formulierung FYI für „For your Interest“ zu übersetzen versucht wurde. Er verlagert so die formellen mathematischen Aussagen in Fußnoten und kleine thematische Ausflüge, um sich hauptsächlich mit den Ideen und Konzepten der Unendlichkeit zu beschäftigen. Obwohl er damit nicht vermeiden kann, auch im Haupttext die eine oder andere mathematische Formel zu nennen, nutzt er sie dort lediglich zur kürzeren Schreibweise. Er erläutert die Konzepte umgangssprachlich und schafft es dabei, eine unterhaltsame Darstellung zu finden, die sich sehr gut lesen lässt. Man benötigt auch kein Vorwissen in der Mathematik, denn die Erklärungen beginnen anschaulich und informell in den Grundlagen und bleiben stets bildlich. Wallace schafft es, in klaren, einfachen, informellen Worten die Faszination an der Mathematik der Unendlichkeit zu wecken und die Probleme darzustellen, wenn abstrakte Gedanken nicht mehr unbedingt der eigenen Intuition folgen können.

]]>
https://www.studentenpack.de/index.php/2011/05/wie-gros-ist-eigentlich-unendlich/feed/ 0
Alle Daten sind gleich? Nicht alle… https://www.studentenpack.de/index.php/2011/01/alle-daten-sind-gleich-nicht-alle/ https://www.studentenpack.de/index.php/2011/01/alle-daten-sind-gleich-nicht-alle/#respond Mon, 17 Jan 2011 19:00:10 +0000 http://www.studentenpack.uni-luebeck.de/?p=106024
CC-BY-NC Friedemann Wulff-Woesten

Ist eine Zweiteilung, wie beim Internet mit „Überholspur“ noch neutral?

Im frühen ARPA-Net, dem Vorgänger des Internets, gab es eine einfache Handhabung von Daten: Alle Daten werden gleich behandelt und nach bestem Können weitergesandt. Ist also auf dem Wege ein Router (etwa vergleichbar mit einer Postsortierstation) stark ausgelastet, arbeitet er so schnell er kann. Dabei wird die Infrastruktur so ausgelegt, dass sie mit dem normalen Datenaufkommen zurechtkommt. Wichtig ist dabei, dass alle Datenpakete gleich behandelt werden. Diese Maxime hat sich relativ lange gehalten. Sie heißt Netzneutralität. Das Netz verhält sich allen Daten gegenüber neutral. Die Anbieter von Internetanschlüssen (Internet Service Provider, kurz ISP) handeln untereinander aus, auf welchen Wegen und wie viel Kapazität sie dem anderen zum Austausch oder zum Durchleiten von Daten bereitstellen. So entsteht ein großes Netz aus verschiedenen Netzen, die jedoch alle nach der ursprünglichen Maxime Daten weitersenden.

Mit der Zeit, also etwa seit dem Jahr 2000, tauchen mehr und mehr Dienste auf, die neue Anforderungen an das Netz stellen: Bis dahin war wichtig, dass Daten in der richtigen Reihenfolge und unverfälscht ankommen, etwa beim Empfang, dem Versand einer E-Mail oder beim Surfen im World Wide Web. Eine Verzögerung ist dabei kaum wichtig. In vielen neuen Diensten, wie Telefonieren, Videokonferenz oder Spielen übers Internet, ist die Zeit jedoch der viel wichtigere Faktor. Geht während eines Telefonates ein Datenpaket verloren, knackt es in der Leitung, benötigen die Pakete jedoch zwei Sekunden, ist ein Gespräch unmöglich. Abgesehen von dieser Anforderung ist auch die Veränderung der Laufzeit von Paketen – das sogenannte Jitter – wichtig. All diese Anforderungen fasst man auch unter dem Begriff „Quality of Service“ – kurz QoS – zusammen. Eine QoS-Garantie gibt es im Internet nicht.

Netzneutralität ist Gleichbehandlung aller Daten

Die Gleichbehandlung von Daten ist vergleichbar mit einer Autobahn: Im Allgemeinen kann man dort so schnell fahren, wie das eigene Auto es zulässt, wenn man mal von Geschwindigkeitsbegrenzungen absieht, die ja aber auch für alle gelten. Ist gerade Ferienbeginn, kann es mal zu Stau kommen. Auch hier wird niemand bevorzugt behandelt und es gibt keine Qualitätsgarantie. Es ist aber auch der Garant dafür, dass sich neue Ideen verbreiten können: Nur dadurch, dass alle Daten gleich verbreitet werden, kann eine neue Suchmaschine in Konkurrenz zu einer anderen treten, so geschehen etwa 1998 mit dem Beginn von Google oder im Aufkommen neuer Seiten im Internet. Ginge ein Betreiber einen Vertrag mit einer Suchmaschine ein, nur noch diese auszuliefern, wäre nicht nur die Gleichbehandlung arg verletzt, sondern auch die Informations- und Meinungsfreiheit.

Beschäftigt man nun zuhause seinen Computer mit mehreren Dingen gleichzeitig, kann man für seine eigene Leitung Präferenzen setzen: Während man Telefoniert, pausiert man eben den Download der neusten Linux-Distribution, oder drosselt ihn zumindest so weit, dass er das Telefonat nicht behindert. Doch inzwischen fordern einige ISPs, das Prinzip der Netzneutralität abzuschaffen, um verschiedene Qualitätsdienste realisieren zu können. Als Beispiel werden dann kritische Anwendungen genannt, wie etwa Telemedizin, also aus der Ferne von einem Arzt getätigte Operationen oder Telefonate. Dazu fordern diese, dass die Router im Internet die Möglichkeit erhalten sollen, bestimmte Pakete bevorzugt zu behandeln und dafür andere zu verzögern oder eventuell ganz zu verwerfen. Kritiker werfen den ISPs hingegen vor, mit einem Ausbau der Infrastruktur ist dies ebenso möglich, und fordern genau diesen anstelle eines Mangelmanagements.

Briefgeheimnis auch für Datenpakete

Eine Regelung der Datenströme hat einen wesentlichen Nachteil: Um zu entscheiden, ob ein Datenpaket zu einem Dienst (etwa der Telemedizin oder doch zu einem Youtube-Video) gehört, ist es nötig, die Datenpakete genauer zu betrachten. Üblicherweise wird von einem Datenpaket lediglich der erste Teil des Empfängers gelesen, der zum Weiterleiten notwendig ist. Der Inhalt des Pakets ist – analog zum Briefgeheimnis oder bei Postpaketen – tabu. Das genauere Betrachten des Pakets – im Fachjargon Deep Packet Inspection (kurz: DPI) genannt – kann im positiven Fall in der Tat dazu genutzt werden, eine E-Mail ein klein wenig zu verzögern und der Telemedizin ihren Vorrang zu lassen. Jedoch bietet diese Technik sofort den Nachteil, dass Benutzerprofile angelegt werden können: Wer spricht wann wie oft mit wem, wer ruft von wo welche Seiten auf und wie oft nutzt jemand eigentlich Internettelefonie eines anderen Anbieters als die seines ISP? All dies hebt nicht nur die Netzneutralität, sondern auch die Privatsphäre auf. Zusätzlich wird es schwierig sein, hier Transparenz zu erzeugen, also zu erfahren, welcher Anbieter wann und wo welche Dienste bevorzugt oder benachteiligt.

Doch auch im Internet selbst sind die Meinungen zur Netzneutralität gespalten: Ein denkbares Modell ist, jedem Benutzer in den zwei Datenklassen „wenig Verzögerung“ und „viele Daten“ Kontingente zur Verfügung zu stellen, und dann diejenigen mit wenig Verzögerung schneller zu behandeln, um eben Dinge wie Telefonate zu ermöglichen. Die Masse an Daten, wie der letzte Urlaubsfilm, bleiben in der zweiten Klasse, denn dort ist die Zeit nicht so kritisch. Vergleichbar ist dieses Modell mit normalen Paketen und den teureren Expresspaketen bei der Post. Technisch gibt es zwar die Möglichkeit, den Datenpaketen eine solche Kennzeichnung mitzugeben, dass dies auch berücksichtigt wird, ist jedoch schwierig durchzusetzen und noch schwieriger zu kontrollieren. Diese „Überholspur für eilige Daten“ ist spätestens über verschiedene ISPs nicht realisierbar.

Kein Datenpaket ist illegal

Daher fordern viele eine Selbstverpflichtung der ISPs zur Investition in den Ausbau der Infrastruktur, etwa zu mehr Glasfaser-Anschlüssen und die Festlegung eines Grundsatzes für das Internet. In den USA hat die FCC, vergleichbar mit der Bundesnetzagentur und somit zuständig für die Regelung von Kommunikationswegen, ein Papier ausgearbeitet, das die Netzneutralität fordert, jedoch mit der kleinen Hintertür, dass dies nur für legale Daten gelte. Eine Einschätzung, welche Daten nicht legal sind, ist jedoch schwierig, da ein einzelnes Datenpaket keinen Rückschluss auf etwa das Video gibt, zu dem es gehören könnte.

Was passiert, wenn Netzneutralität nicht gegeben ist, kann man momentan auf dem Markt der Mobiltelefone sehen: Dort werden bestimmte Dienste blockiert, aus dem einfachen Grund, weil sie in Konkurrenz zum eigentlichen Telefonieren stehen. Beispielsweise ist Voice-over-IP (Internettelefonie) auf einem internetfähigen Mobiltelefon nicht unbedingt nutzbar. Der Grund liegt darin, dass, betrachtet man die Kosten pro Daten, die SMS das teuerste, dann Mobiltelefonate und schließlich die Internetnutzung folgt. Somit stellt VoIP eine günstige Alternative dar, die der ISP nur deswegen zu verhindern versucht, da er selbst mit dem Angebot von Mobilfunktelefonaten dazu in Konkurrenz steht. Außerdem wird bei vielen mobilen Internetangeboten nach einem bestimmten Datenvolumen die Bandbreite reduziert und es wird versucht, eine Nutzung des mobilen Internets durch einen Computer, das sogenannte Tethering, zu verbieten und zu unterbinden. All dies widerspricht der Gleichbehandlung von Daten und schränkt damit den (hier mobilen) Internetnutzer stark ein. An diesem Beispiel sieht man deutlich, dass die Gleichbehandlung wichtig ist, um einen freien Zugang zum Internet zu haben.

Netzneutralität – eine Herausforderung

Neben der Privatsphäre ist die Aufrechterhaltung der Netzneutralität also auch für die Informations- und Meinungsfreiheit von großer Bedeutung. Noch fehlt es jedoch an einer allgemeinen, zum heutigen Internet passenden Definition: Während einige fordern, dass eine Drosselung von Daten nur vom Benutzer selbst geschehen darf, sehen andere die Transparenz, was gedrosselt wird und wie stark, als wichtig an. Einig sind sich jedoch alle, dass Techniken, wie DPI absolut tabu sind und ein Recht auf Datenpaketgeheimnis notwendig ist. Auch wenn es schon einige Ideen zur Handhabung der unterschiedlichen Arten von Datenströmen im Internet gibt, noch beruht – bis auf im mobilen Internet – das Internet auf dem Prinzip der Gleichbehandlung und es bleibt eine große Herausforderung, diese zu erhalten. Dazu ist die Einigung auf Kernpunkte der Netzneutralität notwendig und eine Selbstverpflichtung aller an der Infrastruktur Beteiligten, diese Kernpunkte einzuhalten.

]]>
https://www.studentenpack.de/index.php/2011/01/alle-daten-sind-gleich-nicht-alle/feed/ 0
Der erste Cyberwar? https://www.studentenpack.de/index.php/2010/12/der-erste-cyberwar/ https://www.studentenpack.de/index.php/2010/12/der-erste-cyberwar/#respond Sun, 05 Dec 2010 23:00:34 +0000 http://www.studentenpack.uni-luebeck.de/?p=107735 Von Computerviren erfahren wir im Alltag nicht viel: Ein Antivirusprogramm meldet sich einmal die Woche, um aktualisiert zu werden und landet doch mal ein Virus auf dem Computer hilft oft eben jenes Programm bei der Beseitigung. Während ein Virus sich auf einem System einnistet, infiziert ein Wurm lediglich Programme. Werden diese ausgeführt oder der Wurm direkt (unabsichtlich) gestartet, kann er sich weiter verbreiten. Dazu kann er etwa das E-Mail-Adressbuch auslesen und sich selbst verschicken. Einige Würmer schaffen es auch, nach der Verbreitung die neue Kopie selbst zu starten. Der Wurm nutzt Lücken, die man sich wie Hintertüren vorstellen kann, durch die der Wurm auf die Computer gelangt.
Neben der eigenen Verbreitung kann ein Wurm noch verschiedene weitere Dinge umsetzen: Einige kommunizieren untereinander, um Angriffe ausführen, etwa je eine Nachricht an einen bestimmten Computer im Netzwerk verschicken. Dieser wird ist dann so beschäftigt, dass er andere Anfragen, wie etwa „schicke mir die Homepage des StudentenPACKs“ nicht mehr erfüllen kann. Dann spricht man von einer Denial-of-Service-Attacke, denn der Server kann seinen eigentlichen Dienst nicht mehr erfüllen.

Was macht Stuxnet?

Im Juni tauchte der Wurm Stuxnet auf. Zunächst sah er aus, wie andere Würmer auch, er nutzte allerdings eine Sicherheitslücke, die bis dahin noch nicht bekannt war. So eine Lücke heißt auch „Zero Day Exploit“, da erst nach Bekanntwerden des Wurmes die Schwachstellen durch Aktualisierung behoben werden kann. In diesem Falle wurde eine Lücke genutzt, die beim Anstecken eunes USB-Sticks Programme ausführt, ohne dass der Benutzer dieses bemerkt. Die Sicherheitslücke war nicht nur komplett unbekannt, sie betraf auch noch viele Systeme, vom schon etwas älteren Windows 2000 bis hin zu neusten Systemen mit Windows 7. Da der Wurm sonst nichts zu machen schien, war es merkwürdig, dass für so ein kleines Programm so einen Vorschlaghammer als Angriff nutzt.

Für Sicherheitslücken gibt es einen eigenen Markt, diejenigen, die Schwachstellen herausfinden verkaufen diese an Virus-Programmierer. Je mehr Systeme mit dieser Lücke überwunden werden können, um so mehr kostet die Information. Ebenso variiert der Preis je nach Umfang der Kontrolle, die man über andere Computer gewinnen kann, also ob man nur das Adressbuch auslesen kann, oder ob man sogar beliebige Programme starten kann. Dass ein auf den ersten Blick so unscheinbarer Wurm so eine große Sicherheitslücke ausnutzt, weckte das Interesse der Experten.
Bei genauerer Analyse stellte sich dann heraus, dass in dem Wurm versteckt noch ein zweiter Wurm enthalten ist, der ebenfalls mit einem weiteren „Zero Day Exploit“ arbeitet, um sich im System festzusetzen. Insgesamt enthält Stuxnet vier solcher Exploits, die schlussendlich ermöglichen, dass der Wurm auf Computern, die Großindustrieanlagen steuern, genau diese Steuerung verändern kann. Bei einem Computer im industriellen Herstellungsprozess kommt es darauf an, bis auf wenige Mikrometer oder bei einer ganz exakten Temperatur zu arbeiten, damit die Produktion gelingt. Wird dies verfälscht, dem Computer aber trotzdem vorgespielt, die Temperatur stimme, schlägt die Herstellung fehl, im schlimmsten Fall wird die Produktionsanlage beschädigt.

Wen betrifft das?

Solche Industrieanlagen sind zwar hochspezialisiert, können aber bei einem Hersteller aus Einzelkomponenten zusammengestellt werden, ähnlich dem Lego-Prinzip. Dazu ist die Software ebenfalls mit standardisierten Anzeigen entworfen, die kombinierbar sind. Genau auf eine solche Software zielt Stuxnet ab, er kann sich sogar auf einer dieser Anlagen direkt einnisten. Um exakt zu arbeiten bestehen solche Anlagen aus kleinen Minicomputern, den speicherprogrammierbaren Steuerungen, kurz SPS, auf dessen Speicher nur das kleine Programm mit den aktuellen Einstellungen liegt. Der Virus sucht dort spezielle Komponenten, um festzustellen, was die Anlage steuert. Auf allen anderen Computern, also etwa auf dem eigenen Laptop „schläft“ der Wurm bzw. verbreitet sich lediglich weiter.

Woher weiß man, was Stuxnet macht?

Woher Stuxnet kommt und welche Industrieanlage das Ziel war beziehungsweise ist, steht noch nicht vollständig fest und sein Urheber wird vielleicht nie ermittelt werden können. Einige Experten arbeiten gerade daran, das Programm vollständig zu verstehen. Das ist allerdings recht kompliziert, denn während jeder Programmierer Quelltext lesen kann, liegt der Virus ja nur in der Sprache, die ein Computer versteht vor. Darin noch zu verstehen, was ein Programm macht, erfordert forensische Fähigkeiten und viel Detailwissen.

Eine andere Möglichkeit ist, aus gewissen Daten und Meldungen auf die Funktion von Stuxnet zu schließen. So sind etwa 60% des „Vorkommens“ von Stuxnet im Iran Dort stehen Anlagen, die von dem Virus manipuliert werden können. Ein Ziel von Stuxnet ist, von einer großen Menge gleichartiger Baugruppen nur einige wenige in einzelnen Werten zu verändern, etwa die Drehzahl elektronischer Motoren, die dann anstelle einer Konstanten Drehzahl ein zufälig aussehendes Muster ablaufen lassen. Einige Daten aus der Analyse bestätigen dies und fallen zusammen mit dem Ausfall einer Uran-Anreicherungsanlage im Iran. Bei der Anreicherung von Uran werden die beiden Isotope – Uran-235 und Uran-238 – durch Zentrifugen voneinander getrennt. Bei einem so geringen Unterschied im Gewicht ist eine sehr präzise Arbeit notwendig, um Innen ein Gas mit ein klein wenig höherem Uran-235-Anteil abzusaugen. Bei einer Staffelung der Zentrifugen, die je mit bis zu hunderttausend Umdrehungen pro Minute arbeiten, ist schon eine einzige leicht veränderte Drehzahl verheerend, da dann etwa die Lager stärker abnutzen.

Cyberwar – Kriegsführer unbekannt

Wer jedoch den Virus programmiert hat, ist noch unklar. Bei dem Aufwand, sowohl zur Verbreitung, finanziell, aber auch vom technische Wissen her, kann es sich nur um eine staatliche Aktion handeln. Obwohl der Wurm seit Juni bekannt ist, werden einige Details erst jetzt bekannt. Der Wurm ist nur 400kB groß, passt also auf eine alte 51⁄4-Zoll-Diskette, die man vielleicht noch vom C64 kennt.

Somit ist Stuxnet der erste große Angriff auf digitalem Wege, der aufgrund der vielen Details nur den Anreicherungsanlagen im Iran gegolten haben kann. Dass weder ein Sicherheitsmechanismus gegriffen hat, noch jetzt welche verfügbar sind, ist die eigentliche Sorge daran. Es muss viel Aufwand in die Entwicklung investiert worden sein. Weder Staaten noch die Industrie haben bisher Pläne, wie sie mit derartigen Szenarien umgehen. Es liegen zumindest keine Äußerungen dazu vor, so dass der Umgang mit Szenarien dieser ein spannendes Thema bleibt.

]]>
https://www.studentenpack.de/index.php/2010/12/der-erste-cyberwar/feed/ 0
Digitale Sicherheit für gläserne Bürger? https://www.studentenpack.de/index.php/2010/11/digitale-sicherheit-fur-glaserne-burger/ https://www.studentenpack.de/index.php/2010/11/digitale-sicherheit-fur-glaserne-burger/#respond Mon, 01 Nov 2010 09:00:43 +0000 http://www.studentenpack.uni-luebeck.de/?p=108196
Bundesamt für Sicherheit in der Informationstechnik

Frau Mustermann macht vor, wie’s geht.

Bereits seit 2005 finden sich RFID-Chips in den deutschen Reisepässen. Ab dem 1. November dieses Jahres wird nun auch auf dem Personalausweis ein RFID-Chip integriert sein, auf dem in digitaler Form persönliche Daten gespeichert werden. Zunächst klingt das ganz vernünftig, im Zuge der zunehmenden Digitalisierung, auch die staatsrechtliche Identifizierung digital zu realisieren. Dazu wird auch das Format des Personalausweises auf die Größe einer Scheckkarte verringert. Eventuell lässt sich damit auch auf Ämtern oder bei internationalen Reisen ein wenig Zeit sparen. Dazu werden auch verschiedene neue Daten und Möglichkeiten durch den Personalausweis abgedeckt.

RFID – kontaktlose Identifikation

Die grundlegende Technologie ist der RFID- Chip. Dieser besteht aus einer Antenne, die bei dem Personalausweis in der gesamten Karte liegt und einem kleinen elektronischen Chip, auf dem Daten gespeichert sind. Mit einem Lesegerät können diese Daten ausgelesen werden, ohne dass ein direkter Kontakt notwendig ist, wie etwa bei aktuellen Bankkarten. Das Lesegerät erzeugt dazu ein magnetisches Feld, das vergleichbar ist mit dem der Mikrowelle, nur mit bei weitem kleinerer Energie. Diese Energie wird – durch Induktion – von der Karte genutzt, um die Daten zurückzusenden. Zum Einsatz kommen die RFID-Chips heutzutage bereits in der Logistik bei vollautomatischen Lagern.

Welche Daten stehen auf dem Chip?

Auf dem Personalausweis werden in der bisherigen Form die gleichen Daten erhoben wie vorher auch, lediglich ein Feld für die Postleitzahl und eine zusätzliche Nummer werden neu auf dem Personalausweis zu lesen sein.

Digital werden all diese Daten ebenso gespeichert, zusammen mit einer digitalen Version des Bildes und zwei Fingerabdrücken, die jedoch nicht, wie beim Reisepass, Pflicht sind, sondern freiwillig abgegeben werden können.

Wer gelangt an meine Daten?

Das größte Problem bei dem RFID-Chip ist, dass die Daten kontaktlos, auch aus kurzer Entfernung ausgelesen werden können. Außerdem werden die Daten vom Chip zurückgefunkt, sie könnten also auch von anderen Geräten in der Gegend aufgezeichnet werden. Die Informationen, mit denen der Chip zum Einsatz kommt, dienen einerseits als Personaldokument, also der eigentlichen hoheitlichen Funktion, können aber auch als elektronischer Identitätsnachweis gegenüber Drittanbietern genutzt werden.

Auf dem Personalausweis wird also zusätzlich eine PIN gespeichert, die sicherstellt, dass man nur die Daten auslesen kann, wenn man die Vorderseite sieht. Die abgedruckte PIN hat ihren Grund darin, dass die hoheitliche Identifikation, etwa seitens der Polizei, möglich ist, sobald diese den Ausweis in den Händen hält. Zusätzlich werden die Lesegeräte lizensiert und lesen die Daten erst nach Aufbau einer verschlüsselten Verbindung aus. Etwa die biometrischen Daten – also das Bild und die Fingerabdrücke – dürfen lediglich von einigen staatlichen Stellen ausgelesen werden. In Meldeämtern können außerdem einige Daten verändert werden: Die eID-Funktion kann ein- und ausgeschaltet werden, die Adresse und die eigene Geheimnummer können verändert werden. So muss nicht zu jedem Wohnortwechsel ein neuer Ausweis beantragt werden.

Bevor man auf dem Personalausweis Daten lesen oder schreiben kann, baut ein solches Lesegerät eine Verbindung auf, die verschlüsselt ist. So wird, obwohl die Daten per Funk übertragen werden, sichergestellt, dass kein weiteres Lesegerät „mitlesen“ kann.

Für die authentische Ausweismöglichkeit, die man etwa beim Einkaufen benötigt, kann mit dem neuen Personalausweis die eID genutzt werden. Dazu werden sogenannte Bürger-Clients zur Verfügung gestellt, die dann im Internet die Ausweismöglichkeit realisieren. Dazu wird bei Aktivierung der eID eine weitere PIN festgelegt, die dann die personenbezogenen Daten freischalten. So hat der Bürger stets die Kontrolle darüber, wann er die Daten freigibt. Auf welche Daten ein Drittanbieter zugreifen kann, entscheidet die Behörde bei Vergabe des Berechtigungszertifikates. Damit kann also etwa auch nur das Geburtsdatum abgefragt werden, ohne dass Name oder Adresse herausgegeben werden.

Zusätzlich kann mit einem weiteren Zertifikat eine elektronische Signatur mit dem Personalausweis vollzogen werden, die rechtsverbindlich ist. Dieses Zertifikat muss allerdings gesondert beantragt werden.

Mehr Sicherheit?

Die Bundesregierung nennt eine höhere Sicherheit als Merkmal des neuen Ausweises. Allerdings ist der Ausweis weiterhin gültig, wenn der RFID-Chip kaputt ist. Das ist bereits mit einfachsten Mitteln möglich und Anleitungen zu „RFID-Zappern“ existieren einige. Eine Mikrowelle verursacht unschöne Brandflecken auf dem Dokument, das der Bundesrepublik gehört und dessen „nichtamtliche Veränderung“ strafbar ist. Trotzdem kann schon aus der Nähe mit dem Zapper, vielleicht sogar für den Inhaber unbemerkt, der Chip zerstört werden. So ist die erhöhte Sicherheit gar nicht gegeben.

Gefahren und Nachteile

Während einige Bequemlichkeit über die eID-Funktion auf den ersten Blick einen Vorteil bringen mag, hat sie den Nachteil, dass man diese Identifikation die meiste Zeit mit sich herumträgt. Findet sich etwa ein Weg die Daten „im Vorbeigehen“ zu kopieren und dann zu missbrauchen. Außerdem sind die einfachsten Geräte für die Nutzung der eID am eigenen Rechner lediglich Lesegeräte. Dadurch muss die PIN auf dem Computer eingegeben werden. Auf den ersten Blick ist es nur ein kleiner Unterschied, ob man an dem Lesegerät oder am Computer die Nummer eingibt, jedoch kann der Computer mit einem Trojaner infiziert sein, der diese Eingabe anderweitig weiterleitet.

Allgemein sind die biometrischen Daten weiter ein Kritikpunkt: Das Passbild muss in ein Muster passen, bei dem es sein kann, dass einige Menschen in dieses Muster gar nicht passen. Ebenso gibt es Berufsgruppen, bei denen die Fingerabdrücke nicht ausreichend ausgeprägt sind. Das führt diese Daten ad absurdum. Auch wenn die Fingerabdrücke optional sind, kann es passieren, dass man ohne diese etwa am Flughafen mit einer längeren Abwicklungszeit rechnen muss, oder ähnliche Nachteile erfährt.

Fazit

Der neue Personalausweis mag ein Schritt in Richtung des digitalen Zeitalters sein und etwa am Zigarettenautomaten die Identifikation erleichtern, ob dies aber das Risiko rechtfertigt, dem die Daten damit ebenso ausgesetzt sind, bleibt fraglich. Die noch rein analogen Daten des bisherigen Ausweises waren vor einer direkten Massenverarbeitung noch geschützt, bei den elektronischen bleibt es wichtig, auf Schutzmechanismen zu achten. Gibt es eventuell irgendwann eine allgemeine Möglichkeit, die Identität festzustellen, ohne dass dies vom Staat lizensiert ist, also etwa durch eine Sicherheitslücke, wird man zu einem gläsernen Bürger, da dann jederzeit ein Lesegerät den eigenen Standpunkt feststellen könnte. Wie weit man heute schon nachverfolgbar ist, wenn man Bonuskarten nutzt, sei dahingestellt, aber denen kann man sich ja zumindest verweigern.

Allerdings bleibt nicht nur der neue Ausweis ohne RFID gültig, sondern natürlich auch alle bisher ausgestellten Ausweise. Ich habe also die nächsten 9 Jahre eh noch keine elektronischen persönlichen Daten im Portemonnaie.

]]>
https://www.studentenpack.de/index.php/2010/11/digitale-sicherheit-fur-glaserne-burger/feed/ 0
Internationales Flair auf dem Campus https://www.studentenpack.de/index.php/2010/11/internationales-flair-auf-dem-campus/ https://www.studentenpack.de/index.php/2010/11/internationales-flair-auf-dem-campus/#respond Mon, 01 Nov 2010 09:00:38 +0000 http://www.studentenpack.uni-luebeck.de/?p=107755 Es gibt heute immer mehr Möglichkeiten, das eigene Studium um einen Auslandsaufenthalt zu ergänzen. Etwa über das ERASMUS-Programm des Auslandsdienstes der EU mit verschiedensten Partneruniversitäten, bietet sich häufig an, ein bis zwei Semester oder ein Praktikum im Ausland, vielleicht sogar die Promotion, dort zu verbringen. Das Gleiche gilt natürlich auch auf umgekehrtem Wege: So wie dieses Semester über 50 Studenten aus Lübeck in die weite Welt reisen, kommen auch viele internationale Studenten nach Lübeck, darunter einige Doktoranden, aber auch Studenten, die hier ihr Studium, sei es das Bachelor-, Master- oder Medizinstudium, absolvieren. Zu den 40 Erasmus-Partneruniversitäten gibt es zusätzlich fünf direkte Verträge mit Universitäten. Mögliche Ziele sind dabei Bergen (Norwegen), Tartu (Estland), Czernivzi (Ukraine), Hangzhou (China), aber auch eine neue Partneruniversität in den USA, nämlich Albuquerque, New Mexico. Eine andere Möglichkeit, im Ausland zu studieren, sind die Stipendien des Deutschen Akademischen Austauschdienstes (DAAD).

Ist es für Studenten in ihrem Auslandssemester wichtig, neben der Universität vor allem auch das Gastland, die dortige Kultur und Menschen kennenzulernen, so ist es für einen längeren Aufenthalt wie die Promotion ebenso wichtig, Kontakte zu knüpfen.

Zentraler Anlaufpunkt sowohl für Studenten, die ein Auslandssemester in oder von Lübeck aus machen wollen, ist das Akademische Auslandsamt, auf englisch das International Office. Im letzten Wintersemester begann dort die Planung regelmäßiger Veranstaltungen, die nicht nur die internationalen Studierenden einander näher, sondern auch Kontakt zu den hiesigen Studenten bringen sollen. Neben dem kulturellen Austausch bietet sich auch die Chance, eine neue Sprache zu lernen und selbst Anregungen für Auslandsaufenthalte in sonst eher unbekannten Ländern zu bekommen.

Zu den Aktivitäten im letzten Jahr gehörten ein internationales Buffet, bei dem jeder ein- geladen war, etwas Typisches aus seinem Heimatland zu dem netten Abend im Partykeller des internationalen Studentenwohnheims mitzubringen. Außerdem wurden Ausflüge nach Hamburg, Dresden oder zum Hochseilgarten in Travemünde unternommen. Besonders aufgefallen sein dürfte das multinationale Team „Lübeck kämpft für seine Uni!“ beim Drachenbootrennen, das einen der Hauptläufe gewann.

Es gibt seit einem Jahr einen wöchentlichen Stammtisch für internationale Studenten, zu dem alle herzlich eingeladen sind. Mit ein wenig wechselnder Teilnahme in den Semesterferien findet der Stammtisch seit Anfang August donnerstags ab 20:00 Uhr in der Colestreet Bar in der Beckergrube statt.

Dieses Semester gibt es zwei studentische Hilfskräfte im International Office, die sich um die Betreuung von internationalen Studierenden und Doktoranden kümmern. Dazu gibt es auch dieses Jahr wieder einige Veranstaltungen, an denen natürlich jeder teilnehmen kann.

Während das letzte Semester bereits viele Bekanntschaften unter den internationalen Universitätsmitgliedern geschaffen hat, ist es schön zu sehen, dass inzwischen auch mehr deutsche Teilnehmer bei den Events zu sehen sind. Für die Werbung fehlt der Universität vielleicht noch ein zentraler Terminkalender, über den man sich auch gemeinsam koordinieren kann. Daher ist von einigen Studenten der Grad School eine Plattform für gemeinsame Veranstaltungen und Diskussionen unter www.luebecksocial.com eingerichtet worden. Neben der eigenen Homepage gibt das International Office auch hier seine Veranstaltungen bekannt.

Ein Auslandsaufenthalt ist für einen Studenten eine wichtige Erfahrung, aber auch die Studenten, die er kennenlernt, können davon viel lernen.

]]>
https://www.studentenpack.de/index.php/2010/11/internationales-flair-auf-dem-campus/feed/ 0
Kein Internet in der Fußgängerzone? https://www.studentenpack.de/index.php/2010/06/kein-internet-in-der-fusgangerzone/ https://www.studentenpack.de/index.php/2010/06/kein-internet-in-der-fusgangerzone/#respond Mon, 07 Jun 2010 09:00:22 +0000 http://www.studentenpack.uni-luebeck.de/?p=108316 Die heutige Verbreitung von drahtlosen Netzwerken (wireless local area networks, kurz: WLANs) zusammen mit ihrer inzwischen einfachen Nutzung bringt viele Vorteile mit sich:

An einem Sommertag mal nicht im Büro sitzen und arbeiten, sondern in einem Café um die Ecke aus dem Urlaub von dem letzten Ausflug im eigenen Blog berichten oder einfach unterwegs bei Bekannten E-Mails abfragen können. Für eine eilige Orientierung kurz in OpenStreetMap auf die Karte schauen oder in der Fußgängerzone kurz etwas bei Wikipedia nachschlagen, sind ebenfalls nette Vorzüge freier Datennetze, wenn man unterwegs auf ein offenes WLAN trifft.

Drahtlose Netzwerke werden dabei zu einer Infrastruktur, die – ähnlich den Straßen, wenn man die Analogie zur „Datenautobahn“ verwendet – von den Menschen genutzt wird. Diese Analogie trifft zwar in vielen technischen Details nicht zu, für einige Vergleiche ist sie allerdings ganz nützlich.

Der Bundesgerichtshof hat nun im Urteil vom 12. Mai entschieden, dass das eigene WLAN durch „angemessene Sicherungsmaßnahmen vor der Gefahr [davor] geschützt ist, von unberechtigten Dritten zur Begehung von Urheberrechtsverletzungen missbraucht zu werden.“ In dem verhandelten Fall hatte ein Unbekannter ein WLAN genutzt, um einen Musiktitel im Internet anzubieten – wahrscheinlich in einer Tauschbörse –, während der Inhaber im Urlaub war. Von einer Haftung als Täter wurde der Beklagte freigesprochen, allerdings unterliegt er der sogenannten Störerhaftung; er muss also das WLAN zukünftig schützen, dem Kläger steht die auf Erstattung der Abmahnkosten (jedoch max. 100 €) zu, jedoch keine Klage auf Schadenersatz.

Zusätzlich hebt der BGH hervor, dass es nicht genügt, die Standardeinstellungen des Routers unverändert zu lassen, man muss zusätzlich ein persönliches, ausreichend langes Passwort verwenden.

Praktisch bedeutet dies, dass ältere Verfahren wie WEP (Web Equivalent Privacy) nicht verwendet werden sollten, denn WEP kann – wie auch WPA (Wi-Fi Protected Access) – durch einen Angriff in teilweise unter einer Minute überwunden werden. Standardmäßig werden heutige WLAN-Router der Telekommunikationsanbieter aber auch schon mit voreingerichtetem WPA2, dem Nachfolger von WPA, ausgeliefert. Auch das lässt sich bei kurzem oder einem üblichen Standardpasswort schnell überwinden, sorgt aber ansonsten auch für eine verschlüsselte Verbindung. Es werden also keine Daten im Klartext (quasi direkt zum Mitlesen) versandt. Zusätzlich haben heute ausgelieferte Router ein recht langes Passwort vorgegeben, das auf der Unterseite notiert ist. Ob das schon persönlich genug ist, ist nicht ganz klar. Wirklich betroffen sind hier also ältere Geräte, auf denen die geforderte Sicherung gar nicht möglich ist.

Neben diesen Auswirkungen auf das eigene WLAN zu Hause sind die Folgen eventuell viel weitreichender: In Cafés und Bibliotheken gibt es inzwischen häufig offene Netzwerke für all diejenigen, die mit ihrem Laptop oder Smartphones dort auch das Internet benutzen wollen. Für diese offenen Netze schafft das Urteil den bisherigen Informationen aus der Pressemitteilung nach keine Klarheit. Der einzig sichere Weg eines Geschäftes, das ein drahtloses Netzwerk für seine Kunden anbietet, ist wahrscheinlich, deren Daten aufzunehmen und den Zeitraum zu notieren, in dem sie da waren. Das grenzt dann zumindest die möglichen Nutzer zu einer Zeit ein. Neben der Frage, ob dieser Aufwand nicht schon zu groß ist, bleibt weiterhin offen, wessen Geschäftsinteressen dabei überwiegen, diejenigen der Musikindustrie oder diejenigen der Anbieter öffentlicher Netze, so Jürgen Neumann in der ZEIT.

Größere Folgen hat das Urteil jedoch in der „digitalen Nachbarschaftshilfe“: Viele möchten gestrandeten Nomaden der digitalen Welt Hilfe anbieten, sei es zum Abfragen von E-Mails in einer fremden Stadt, zur Orientierung auf einer Karte oder zur Planung des Urlaubstages. Dazu könnte ja jeder ein klein wenig seines Internet-Anschlusses zur Verfügung stellen, so dass die eigenen Aktivitäten nicht darunter leiden, und so helfen. Das ist rein rechtlich nun nicht mehr möglich, ein Schutz des eigenen WLANs ist nun notwendig. Man darf die Daten anderer im eigenen Netzwerk nicht protokollieren und kann somit gar nicht der Pflicht nachkommen, die notwendig wäre, um anderen ein drahtloses Netz anzubieten. Auf der eigenen Straße darf man nur noch selbst fahren.

Noch stärker betroffen ist jedoch die Freifunk-Community. Ziel der Freifunk-Projekte ist es, ein freies drahtloses Netzwerk in einer Stadt oder einer Gegend zu etablieren, indem viele Benutzer ihre eigenen WLAN-Router zu einem große Netzwerk verbinden und in diesem großen Netzwerk dann Dienste anbieten, wie etwa Internet. In Lübeck begann 2008 die MetaMeute mit Freifunk Lübeck und hat bereits eine Kooperation mit Karstadt begonnen. Es sei in der gesamten Freifunk-Bewegung längst nicht klar, wie ein solches offenes, nichtkommerzielles Netzwerk rechtlich stehe, so Linus, Mitinitiator von Freifunk Lübeck. Helfende und Interessierte werden allerdings durch das Urteil verunsichert, denn eine Interpretation ist, dass jeder für seinen Router und eventuell bereitgestelltes Internet verantwortlich ist, obwohl das nur ein kleiner Teil des gesamten Freifunk-Netzes ist. Das sieht auch der Rest der Community so, die sich gerade Mitte Mai in Berlin auf dem Wireless Community Weekend getroffen hatten. Eine dort viel diskutierte Fragestellung war außerdem, ob ein anonymer Internetzugang überhaupt noch gestattet bleibt.

Zwar sind per UTMS auch für Mobiltelefone inzwischen Internetzugänge erschwinglich und auch darüber ließe sich ein Computer mit dem Internet verbinden. In der Spezifikation sind dabei theoretisch Geschwindigkeiten möglich, die an die weit verbreiteten drahtlosen Netzwerke herankommen: 10mBit/s im 811.2b gegen- über 7.2mBit/s im UTMS mit HSDPA. Praktisch bietet jedoch nicht jeder Anbieter HSDPA an; vor allem jedoch wird diese Geschwindigkeit in Ballungszentren zwischen allen Nutzern in Reichweite eines Funkturmes zumindest teilweise aufgeteilt. Dadurch ist für normale Internet-Inhalte – über das mobile Angebot für Smartphones hinaus – in der praktischen Nutzung jedoch eine UTMS-Verbindung zu langsam. Davon abgesehen bleiben auch viele andere Möglichkeiten im Internet weitestgehend anonym zu agieren, etwa im TOR-Netzwerk. Das Urteil schließt mit seinem Misstrauen der allgemeinen Netzkultur gegenüber wohl vorerst die freie Infrastruktur von drahtlosen Netzwerken. Das führt eher zu einem Rück-, denn zu einem Fortschritt im Umgang mit neuen Techniken und der Medienkompetenz. Die Ursache liegt lediglich im rückständigen Umgang mit digitalen Inhalten und dem Beharren auf veralteten Geschäftsmodellen einiger Weniger. Hier ist ein freierer Umgang mit moderner Infrastruktur wünschenswert, der die Chancen der aktuellen Technologie nutzt und diese nicht weiter und weiter beschränkt.

]]>
https://www.studentenpack.de/index.php/2010/06/kein-internet-in-der-fusgangerzone/feed/ 0
Eine Stärkung der Mathematik in Lübeck https://www.studentenpack.de/index.php/2010/06/eine-starkung-der-mathematik-in-lubeck/ https://www.studentenpack.de/index.php/2010/06/eine-starkung-der-mathematik-in-lubeck/#respond Mon, 07 Jun 2010 09:00:11 +0000 http://www.studentenpack.uni-luebeck.de/?p=108291 Seit Januar wird es in der Seefahrtschule eng, denn neben dem Institut für Mathematik ist das Institute for Mathematical Image Computing im Aufbau, wobei Prof. Dr. Jan Modersitzki seit Anfang Januar als erster Mitarbeiter des Instituts angestellt ist.

Prof. Dr. Jan Modersitzki kommt von der Insel Fehmarn – genauer gesagt aus Landkirchen – hat in Hamburg Mathematik studiert und anschließend dort 1990 promoviert. Ebenso wie Prof. Heinz Handels (siehe letzte StudentenPACK-Ausgabe) ist auch Prof. Modersitzki ein in Lübeck bereits bekanntes Gesicht: Kurz nach Gründung des Institutes für Mathematik im Rahmen der Einführung des Diplomstudiengangs Informatik folgte er 1995 seinem Studienkollegen Prof. Bernd Fischer nach Lübeck, um die mathematische Vorlesungen und deren Inhalte mit zu gestalten.

Prof. Modersitzki selbst stammt aus der Approximationstheorie und numerischen Algebra und hat im Laufe der Jahre hier in Lübeck zusammen mit Prof. Fischer die Arbeitsgruppe SAFIR (Solutions and Algorithms for Image Registration) gegründet, die sich mit der Registrierung medizinischer Bilder beschäftigt. Die Registrierung vergleicht zwei medizinische Aufnahmen und versucht dabei, etwa die Leber in ihrer Lage und Orientierung wieder zu finden. Dies kann entweder ein Vergleich zwischen prä- und postoperativem Bild oder zwischen Planungsaufnahmen vor der Operation und einem Test im Laufe einer Operation sein. Die Schwierigkeit liegt mathematisch im Wechsel der Perspektive, vor allem aber in der Verformung, die zwischenzeitlich mit den Organen geschieht. Die Anwendung liegt also sowohl in der intraoperativen Kontrolle als auch in der nachträglichen Bewertung einer Operation, aber auch die vorherige Planung mit Hilfe der Bilder bzw. den aus den Bildern gewonnenen Daten ist eines der Gebiete, auf denen die Arbeitsgruppe forscht.

Die enge Zusammenarbeit zwischen Mathematik und Medizin in diesem Bereich macht Lübeck zu einem prädestinierten Standpunkt. Die Arbeitsgruppe arbeitet dabei an der mathematischen Modellierung und deren Implementierung sowie Tests und Etablierung der Software im Operationssaal.

Nach seiner Habilitation 2003 erhielt Prof. Modersitzki zu Beginn des Jahres 2008 einen Ruf an die McMaster University in Hamilton, Kanada. Dort war er am Department of Computing and Software als Associate Professor tätig. „Die Lehre ist in Kanada ganz anders, viele Abläufe sind ganz formell gefasst.“, berichtet er von der Lehre dort.

Vor allem hat ihn zu Beginn die Kälte im Winter fasziniert, bei -20 Grad sei es wirklich ungemütlich, wenn noch der Wind dazukommt. Dafür sei der Schnee in Kanada schöner und lade viel eher dazu ein, darin herumzutoben, berichtet er.

Aus der engen Zusammenarbeit der SAFIR-Gruppe mit dem MEVIS-Fraunhofer Institut in Bremen begannen 2009 die Planungen für eine Ausgliederung und eine Projektgruppe in Lübeck. Dazu gibt es üblicherweise ein Institut an der dazugehörigen Universität, berichtet Prof. Modersitzki, dass dann die enge Zusammenarbeit ermöglicht, und damit die Projektgruppe zu einem Fraunhofer Institut ausgebaut wird.

Nach der Gründung des Institutes im Januar ist nun im April die Projektgruppe medizinische Bildverarbeitung Lübeck der Fraunhofer Gesellschaft initiiert worden. Solange das neue mathematische Institut noch keinen Direktor hat, ist Prof. Modersitzki verwaltungstechnisch dem Institut für Mathematik untergeordnet, aber auch da ist die Berufung fast abgeschlossen. „Das ist eine klare Stärkung der Mathematik in Lübeck“, so Prof. Modersitzki, „mit einem zweiten mathematischen Institut sind wir sehr viel besser aufgestellt“. Wird dazu noch das Fraunhofer Institut etabliert, bedeutet das einen weitere Verbesserung der mathematischen Themen in Lübeck.

Mit Vorlesungen wie etwa „Mathematische Methoden der Bildverarbeitung“ letztes Semester oder „Numerik für große Bildverarbeitungsprobleme“ dieses Semester ist die Thematik des Institutes und der Projektgruppe auch schon in der Lehre vertreten. Prof. Modersitzki hält in diesem Themenbereich die Vorlesung „Bildregistrierung“, sowie die Vorlesung „Optimierung“. Er hofft, dass er auch in Zukunft dabei die Zeit findet, manchmal auch auf den „Teufel im Detail“ einzugehen. Genau da, so Prof. Modersitzki, seien die Bereiche der Mathematik, die faszinieren und die Spannung ausmachen.

]]>
https://www.studentenpack.de/index.php/2010/06/eine-starkung-der-mathematik-in-lubeck/feed/ 0
Der AStA hat ‘nen Vogel https://www.studentenpack.de/index.php/2010/05/der-asta-hat-nen-vogel/ https://www.studentenpack.de/index.php/2010/05/der-asta-hat-nen-vogel/#comments Wed, 05 May 2010 08:00:50 +0000 http://www.studentenpack.uni-luebeck.de/?p=108684
Seit 350 Jahren im Einsatz: der Pestdoc.AStA der Universität zu Lübeck

Seit 350 Jahren im Einsatz: der Pestdoc.

Das Logo des AStAs ist der Pestdoc, das weiß jeder. Aber warum ist er das? Warum ist ein Mann in einer wirkungslosen spät-mittelalterlichen Verkleidung, die ihn gegen eine ansteckende Krankheit schützen soll, das Logo des Allgemeinen Studierendenausschusses? Im AStA nachgefragt hört man zu dem Thema nicht erleuchtendes. „Vielleicht weil das mal ‘ne Mediziner-Uni war?“, rätseln einige, aber schlüssige Erklärungen gibt es keine. Das ist auch kein Wunder, denn der Pestdoc ist das Logo solange sich irgendein Student zurückerinnern kann.

Für unsere Nachforschungen also eine Sackgasse.

Glücklicherweise führt der AStA ein Archiv, in welchem sich viele der alten Protokolle und Studentenzeitungen finden. Wenn das Logo irgendwann eingeführt wurde, so muss das auch dokumentiert worden sein. Die Nachforschungen sind aber so unergiebig wie die Nachfrage im AStA, das Logo taucht irgendwann auf, als wäre es schon immer da gewesen.

Man könnte meinen, hier wären unsere Nachforschungen an einem Ende. Warum sollte man sich die Mühe auch machen? Das Logo ist denkbar unbeliebt im AStA. Viele wollen ein AStA-T-Shirt nicht anziehen, schon weil der Pestdoc drauf ist. So unbeliebt, dass der AStA auf der Suche nach einem neuen Logo ist. Warum also nach seinem Ursprung suchen? Weil es ein Teil der Geschichte der Uni ist, und weil ein Rätsel immer dazu auffordert, gelöst zu werden.

Vielleicht muss man dieses Rätsel aber von einer anderen Perspektive betrachten: Was ist das überhaupt für ein Arzt, was ist das für ein Bild? Das Internet, unendliche Quelle an Information, ist in diesem Fall unser Freund. Eine kurze Suche ergibt: Der Pestdoc ist nicht irgendein Pestarzt, es ist quasi der Pestarzt. „Doctor Schnabel von Rom“ ist ein Kupferstich, den Paul Fürst 1656 anfertigte. Es ist eines der bekanntesten Bilder eines Pestarztes und hat das moderne Bild dieser Berufsgruppe geprägt. Pestärzte zogen während der Zeit des schwarzen Todes, wie die Krankheit auch genannt wurde, von Haus zu Haus und stellten fest, ob Personen erkrankt waren. In ihren Masken hatten sie einen Essig getränkten Schwamm, von dem sie hofften, er würde sie vor Infektionen schützen. Mit dem Stock zeigten sie auf Stellen, von denen sie meinten, sie müssten behandelt werden. Dank der spitzen Masken handelten sie sich den Spottnamen „Doktor Schnabel“ ein.

Doctor Schnabel von RomPaul Fürst, 1656

Doctor Schnabel von Rom

Paul Fürst, dies verrät uns Wikipedia, war Verleger, Kunst- und Buchhändler und lebte von 1608 bis 1666 in Nürnberg, wo er Selbstmord beging.
Vorlage für den Pestarzt war anscheinend ein Bild von J. Columbina, über den das Internet aber weniger Information herausgibt.

Keiner der beiden scheint eine Verbindung zu Lübeck zu haben, aber sicherheitshalber fragen wir die Fachleute am Lübecker Museum für Archäologie: Im Burgkloster steht eine Figur eines Pestarztes in einer Ausstellung, doch erst seit der Neueröffnung am 12. Juli 2005, er ist also nicht der Grund. Dass dort eine Figur des Dr. Schnabel steht, liegt an einem Massengrab, das Anfang der Neunziger in Lübeck gehoben wurde. Dies ging damals durch die Medien in Lübeck und hat sicher das Bewusstsein für Lübeck zu Pestzeiten gestärkt, aber eine Verbindung zur Universität oder ihren Studenten kann Doris Mührenberg, Archäologin am Burgkloster, nicht erkennen. Auch Sie ist verwundert darüber, dass der AStA dieses Logo erwählt hat. Dass die Pest in Lübeck wütete, ist nicht so ungewöhnlich für die Zeit, zumindest wenn man bedenkt, dass Lübeck eine viel angefahrene Hansestadt war.

Hat es vielleicht damals, Anfang der Neunziger, eine Konferenz zur Pest gegeben, an welcher Studenten beteiligt waren? Diese Legende erzählen einem Studenten, die länger an dieser Uni sind. Engagierte Studenten hätten an einer Konferenz über Pest teilgenommen, danach diffundierten sie in die Gremien und übernahmen ihr Logo. Doch Beweise für eine solche Konferenz sind nicht zu finden. Die Geschichte Lübecks erklärt also auch nicht, warum Studenten irgendwann dieses Logo wählten, das können sie nur selber erklären. Es gibt eine Chance diese Studenten noch zu erreichen: die Alumni. Der Verein ehemaliger Studenten und Universitätsmitarbeiter könnte Mitglieder haben, die Bescheid wissen. Der Brief ist schnell aufgesetzt und dann heißt es warten. Die Alumni sind hilfsbereit und schreiben uns schnell. Sie helfen uns, das Fenster etwas einzuengen. Felix Libau, der sein Examen in Lübeck 1992 ablegte, erinnert sich daran, dass das Logo bereits existierte. Auch andere Rückmeldungen bestätigen, dass seit den Neunzigern der „Pestdoc“ den AStA repräsentiert. Leider ist das alles, was wir erfahren.

Ein letzten Versuch unternehmen wir noch: das Institut für Medizingeschichte. Doch Professor Dietrich von Engelhardt kann uns leider auch nicht helfen.

Das Resultat ist enttäuschend, aber alle Möglichkeiten sind erschöpft. Es ist wohl wirklich Zeit, das alte AStA-Logo ziehen zu lassen.

Schon allein um uns aufzumuntern, wenden wir uns noch kurz den Fachschaften und ihren Logos zu.

Die Fachschaft Medizin präsentiert sich mit einem EKG in der Form der Lübecker Skyline, die Symbolik ist treffend und leicht verständlich, da muss man sich gar nicht groß Gedanken machen. Erfreulich.

Die Fachschaften cs|mls machen es uns ein kleines bisschen schwieriger. Was als der „Fachschaftshund“ bekannt ist, ist eine Ansammlung von Punkten, die mit viel Phantasie, geneigtem Kopf und zugekniffenem linken Auge wie ein Hund aussieht. Das Logo ist noch recht neu. Bei einer Ausschreibung 2005 gewann der Vorschlag von Jens Heyder gegen mehrere andere Einsendungen. Doch was soll es heißen?

Der Gewinner des Logowettbewerbs 2005.Fachschaften cs|mls

Der Gewinner des Logowettbewerbs 2005.

Wenn man „FS.tnf“ als ASCII-Code binär aufschreibt, jeden Buchstaben in eine Zeile schreibt und den Nullen ein Molekül, den Einsen keines gibt, entsteht ein Muster. Im endgültigen Logo sind die Zeilen noch leicht gegeneinander verschoben. So symbolisiert das Logo sowohl – mit ASCII und Binärdarstellung – die informatisch-mathematischen Studiengänge als auch mit den Molekülen den Studiengang MLS.

Logoausschreibung 2013

]]>
https://www.studentenpack.de/index.php/2010/05/der-asta-hat-nen-vogel/feed/ 1
Diplom-Informatik: Der letzte Jahrgang geht. https://www.studentenpack.de/index.php/2010/04/diplom-informatik-der-letzte-jahrgang-geht/ https://www.studentenpack.de/index.php/2010/04/diplom-informatik-der-letzte-jahrgang-geht/#respond Mon, 12 Apr 2010 09:00:39 +0000 http://www.studentenpack.uni-luebeck.de/?p=109175
Lukas Ruge | StudentenPACK.

Die Heimat der Diplom-Informatiker: Das Gebäude 64

Bei Worten „Das ist ja jetzt alles ein wenig anders in der Bachelor-Prüfungsordnung.“ oder „Das gehört zu Informatik IV – ähm, ich meine theoretische Informatik“ fällt mir ab und zu auf, dass ich als Diplom-Studierender mit der jetzigen Studiumsorganisation noch nicht so sehr vertraut bin. Im Zuge des Bologna-Prozesses gibt es auch in Lübeck seit fast 10 Jahren den Bachelor-Studiengang Informatik. Mit dem Beginn des Sommersemesters endete für den letzten Jahrgang des Diplomstudiengangs die Regelstudienzeit. Dieser letzte Jahrgang ist also gerade in den Diplomprüfungen, vielleicht schon bei der Diplomarbeit. Im Semesteralltag sind Diplomer dadurch aber schon zu einer Rarität geworden.

Ein Jahrgang hat die Wahl

Für mich als vorletzten Jahrgang begann das Studium mit der Wahl: Der Bachelor-Studiengang war noch relativ neu, parallel dazu existierte der Diplom-Studiengang. Ich entschied mich für das Diplom, da der Bachelor sich in seiner ersten Form noch am Lehrplan des Diploms orientierte und als wirtschaftsorientiert galt. Mit der Zeit wurde der Bachelor-Studiengang – kurz darauf auch der neu geschaffene Master – ins Zentrum der Pläne gesetzt. Diplomstudierende erhielten ab dem Wintersemester 2005/2006 Schritt für Schritt Ersatzpläne, das letzte Semester, in dem Studierende sich für das Diplom einschreiben konnten. Die Vorlesungen wurden beginnend bei den Erstsemestervorlesungen nacheinander auf den Bachelor angeglichen, in ihren Lehrinhalten, der Struktur und der Reihenfolge, in der sie belegt werden sollten. Teilweise wurden Vorlesungen auch lediglich umbenannt. Durch die Ersatzpläne kann jeder Diplomstudierende sein angefangenes Studium fortsetzen, jedoch ist als letzter Abgabetermin der Diplomarbeit der August 2012 festgelegt worden.

Alt, neu oder anderer Name?

Ein Vergleich der Systeme ist schwierig. In meinem Jahrgang gab es immer mal wieder Diskussionen, welche Struktur nun „besser“ sei und welches Studium mehr Arbeitsaufwand bedeute, wenn man sich die Regelstudienzeit als Ziel setzt. Für Diplomstudierende ist das erste Semester anstrengend. Ich hatte versucht, alle Klausuren mit guten Noten zu bestehen, und merkte erst die folgenden Semester, dass die Semestralklausuren nicht sehr bedeutsam sind: Man muss lediglich einen Teil der Klausuren bestehen – beispielsweise LADS I oder II –, danach, im Vordiplom, wird aber nochmals der gesamte Inhalt geprüft. Der Vorteil dieser Methode ist, dass im Semester das Verständnis im Vordergrund steht und danach erst die Note. Im Hauptstudium – nach dem Abschluss des Vordiploms im vierten Semester – wird diese Regelung noch etwas freier und man arbeitet vier weitere Semester inhaltlich auf die Diplomprüfungen hin, für die man auch wieder einige Scheine in Form von Praktika und Hauptseminaren benötigt. Für eine gute Note ist man dann ein halbes Jahr mit dem Stoff beschäftigt, der in Prüfungen über je 14 SWS (also 7 Vorlesungen) mündlich geprüft wird.

Diese doppelten Prüfungen hat ein Bachelor nicht; es wird statt dessen nach jedem Semester das Fach mit einer Klausur abgeschlossen, was man als Vorteil sehen kann. Die beiden wesentlichen Nachteile dabei sind, dass man weniger Überblick bekommt, denn man wird nie gezwungen, sich diese fächerübergreifenden Zusammenhänge zu erarbeiten. Dazu kommt, dass nach jedem Semester eine Klausurenphase ansteht, in der schon im ersten Semester Teilnoten für die abschließende Urkunde festgelegt werden. Besteht also die Diplomnote aus nur wenigen Teilnoten (die 4 Prüfungen und eine doppelt zählende Diplomarbeit), so dass eine Prüfung ein großes Gewicht hat, wird im Bachelor das gesamte Studium in die Benotung einbezogen.

Der Bachelor kann ganz schön stressen

Wenn gegen Semesterende die letzten Übungszettel bearbeitet, ein, zwei Semesterprojekte fertiggestellt werden müssen und das Lernen für die Klausuren rot im Kalender markiert ist, sehe ich viele angehende Bachelor im Stress, der auch durch „Schieben“ der Klausuren auf den Zweittermin nur geringfügig abgeschwächt wird. Die vorlesungsfreie Zeit war im Diplomstudiengang zwar mit Praktika oder der Studienarbeit belegt, aber nicht derart notenorientiert. Von einigen jetzigen Studenten höre ich, dass vorlesungsfreie Zeit eine durchgehende Lernzeit ist. Gleichzeitig sind die Wahlmöglichkeit meinem subjektivem Empfinden nach weniger geworden im Vergleich zu meinem Studium, auch wenn damit pro forma der Wechsel zu anderen Universitäten erleichtert wird. Ob das in der Realität der Fall ist, halte ich zumindest für fragwürdig.

Ich denke, eine Reform des Studiums ist eine große Aufgabe, sich den modernen internationalen Gegebenheiten zu stellen halte ich dennoch für wichtig. Die damit verbundene Umstrukturierung der Lerninhalte verläuft in Lübeck relativ gut, da Studenten direkt mithelfen können und ein guter Übergang geschaffen worden ist. Die momentan entstehende Verschulung des Studiums empfinde ich als negativ, da sie die Freiräume nimmt, im Studium individuelle Schwerpunkte zu setzen, beispielsweise durch den freiwilligen Besuch einer Vorlesung. Diese Selbstständigkeit scheint eine heutige Studienordnung kaum zuzulassen, sie ist meiner Meinung nach aber ein wichtiger und wesentlicher Aspekt eines Studiums.

]]>
https://www.studentenpack.de/index.php/2010/04/diplom-informatik-der-letzte-jahrgang-geht/feed/ 0
Digitale Mundpropaganda https://www.studentenpack.de/index.php/2010/04/digitale-mundpropaganda/ https://www.studentenpack.de/index.php/2010/04/digitale-mundpropaganda/#respond Mon, 12 Apr 2010 09:00:28 +0000 http://www.studentenpack.uni-luebeck.de/?p=109184 Die schönsten Tipps erhält man von Freunden: Bei einem Spaziergang hört Stefan das neue Album einer sehr unbekannten Band, Erik erzählt beim Spieleabend vom neuen Buch, das er gerade liest. Auf diesem Wege werden kleine Bands zuerst bekannt, vor allem aus den Nischen abseits der Popmusik. Freunde wissen dabei, was einen selbst interessiert und tragen dementsprechend Tipps und Empfehlungen an dich, deinen Bekannten oder die gerade besuchte Runde weiter. Es sind also sehr individuelle Nachrichten und Informationen, die in einem kleinen Rahmen verbreitet werden.

Nachrichten in der Zeitung oder dem Fernsehen, allgemein den Medien, werden von einer Redaktion zusammengestellt. So wird nicht individuell sondern nach einem allgemeinem Interesse festgelegt, was über die „alten Medien“ verbreitet wird. Diese nach bestimmten Kriterien gefilterte Menge an Informationen geht danach allerdings an viele Menschen; es wird eine Grundmenge an Nachrichten verbreitet, die als wissenswert – oder verbreitenswert – deklariert wird.

Mit den elektronischen Medien – dem Telefon, dem Fernsehen – haben sich diese beiden Verbreitungswege jeweils beschleunigt, die Welt wurde kleiner und der eigene Horizont, was Informationen anging, weitete sich. Im Prinzip blieben die beiden einzelnen Wege jedoch erhalten. Selbst im Internet blieb diese Zweiteilung beinahe erhalten: kleine Homepages, später private Weblogs auf der einen, große Nachrichtenportale und Onlineausgaben der Zeitungen auf der anderen Seite. Die Möglichkeiten, sich zu informieren wurden damit lediglich internationaler und schneller.

Wandel im Informationsalltag

Der wesentliche Wechsel begann 2006 mit dem Internetdienst Twitter. Sein Erfolg liegt unter anderem an der API (Schnittstelle zu Programmen, siehe Ausgabe aus dem Februar 2010) und der Einfachheit: Twitter bot zu Beginn jedem Benutzer an, die Frage „Was tust du gerade?“ in bis zu 140 Zeichen zu beantworten. Zusätzlich kann man anderen Leuten folgen, erfährt also, wenn diese etwas schreiben. Im Grundkonzept erinnert das an eine Kurzform der Weblogs und wird dementsprechend auch als Microblogging bezeichnet. Der Charakter der Nachrichten orientiert sich damit an der Mundpropaganda.

Der Unterschied vom Microblogging zu den digitalen Vorgängern ist die Geschwindigkeit: Durch die API kann jeder Bekannte Sekunden nach dem Absenden die Nachricht empfangen und diese – wie in einem Gespräch – sofort erfassen, denn bei 140 Zeichen kann das immer nur ein kleiner Hinweis, Tipp oder Verweis auf eine Seite sein. Im Unterschied zum Gespräch spricht man jedoch mit einem Großteil seines Freundeskreises oder Personen des öffentlichen Lebens mit ihren Fans. So entsteht eine fast individuell zugeschnittene Nachricht, die jedoch eine große Verbreitung erfährt. Neben Freunden erreicht eine Nachricht Sekunden oder Minuten später auch die Freunde der Freunde, wenn sie interessant genug ist, um weitergetragen zu werden; es entsteht die digitale Mundpropaganda, die in ihrer Verbreitung den Nachrichtensendungen nahekommt, dabei aber weitestgehend individuell bleibt.

Das Interessante an dieser neuen Verbreitungsart ist, dass der individuelle Aspekt der Mundpropaganda zusammen mit der Möglichkeit, viele zu erreichen, kombiniert wird. Der einzelne entscheidet selbst, welche Informationen er verbreitet oder weitererzählt. Ebenso kann er angeben ob lediglich sein Freundeskreis oder alle Benutzer seine Nachrichten lesen können sollen, die Privatsphäre bleibt also gewahrt. Trotzdem gibt es in dieser Verbreitung einen Unterschied zu der Privatsphäre, etwa bei einem netten Kaffee; inwieweit sich das aber auswirkt, führt an dieser Stelle zu weit in die Psychologie.

Nachrichten im Sekundentakt

In seiner Wirkung auf die Nachrichtenwelt gibt es beim Mircoblogging einige sehr interessante Neuerungen: Bei hochaktuellen Themen, etwa während des Amoklaufes in Winnenden, bei der Notlandung auf dem Hudson oder allgemein Erdbeben, gab es vor den Nachrichten in Zeitungen und Fernsehen erste Berichte von Augenzeugen und Betroffenen. In letzterem Fall bietet Microblogging einen sehr interessanten Effekt: Bleibt das Mobilfunknetz intakt, können viele weiterhin zumindest in dieser Kurzform im Internet schreiben und so auf sich aufmerksam machen, zusammen einen Überblick über die Situation geben oder Hilfe koordinieren. Dies nutzte etwa die Feuerwehr in Australien während eines Waldbrandes.

Untergang in der Datenflut?

Neben diesen neuen Möglichkeiten treten auch einige Probleme oder zumindest neue Notwendigkeiten auf, die sich aber zum Teil auch erst entwickeln. Das erste Problem umfasst die Menge an Nachrichten. Es gibt verschiedene Statistiken, nach denen etwa eine Million einzelne Nachrichten pro Stunde geschrieben werden. Darunter viele private, aber auch Titelthemen größerer Zeitungen oder andere öffentliche Ankündigungen. Man muss für sich selbst also einen Weg finden, die Nachrichten so weit zu filtern, dass man nicht nur noch mit Lesen beschäftigt ist. Andererseits möchte man ja auch so vielen Freunden folgen, dass man im Bilde ist, was so um einen herum passiert (unter der Vorraussetzung, dass ein wesentlicher Teil des Freundeskreises microbloggt). Dieser Mittelweg lässt sich bisher nur über direktes „Zuhören“ oder nicht Zuhören regulieren, ob sich das ändert ist eine spannende Frage.

Außerdem ist es schwierig, einem bestimmten Thema zu folgen, das innerhalb aller öffentlichen Nachrichten gerade diskutiert wird. Dazu entstanden relativ zügig die Hashtags. Beginnend mit einem Rautezeichen und einigen Buchstaben legen sie ein momentanes Thema fest. So war etwa „#26c3“ das Zeichen, dass eine Nachricht irgendwie zu dem Thema des 26. Chaos Communication Congress Ende Dezember in Berlin gehörte. Dann kann man entweder über die Suche am aktuellen Inhalt teilnehmen oder man „hört“ diesem Thema zu, wie man Freunden zuhört. Natürlich kann eine Nachricht auch zu mehreren Themen gehören. Dann werden die jeweiligen Hashtags alle eingebracht, entweder im Fließtext oder hintenangestellt. Zusätzlich lässt sich eine Diskussion gliedern, indem man direkt Personen antwortet und dazu die Person mit @ vor dem Namen anspricht. Mit „@StudentenPACK“ erreicht man auf Twitter so die Redaktion. Beide Varianten waren in den anfänglichen Ideen nicht umgesetzt, entstanden dann in der allgemeinen Benutzung und inzwischen werden einem Benachrichtigungen geschickt, wenn jemand einen anspricht.

Wer schneller twittert, hat Recht?!

Das größte Problem ist jedoch die Glaubwürdigkeit, denn den Ursprung einer Nachricht festzustellen ist auf Twitter nicht so einfach. Auf der einen Seite gibt es Nachrichtenagenturen und Zeitungen, die ihre aktuellen Meldungen auch auf Twitter und anderen Plattformen veröffentlichen, aber jeder kann ja selbst eine Nachricht veröffentlichen. Es gab beispielsweise einen Nachmittag, an dem sich die Nachricht verbreitete, Kanye West sei verstorben. Hier wird die Geschwindigkeit dem Medium zum Nachteil, denn ob eine Nachricht korrekt ist, kann einem eventuell noch keine andere Quelle nennen. Eine eigene Recherche wird dabei also notwendig, im Vergleich zu den redaktionellen Quellen (wo sie nur ratsam ist). In diesem System lässt sich eine explizite Glaubwürdigkeit meiner Meinung nach aber auch gar nicht umsetzen, denn inwiefern ich einer Aussage eines anderen traue, hängt ausschließlich von der Beziehung zu der Person ab. Dafür gibt es technisch allerdings weder einen Maßstab noch eine Erfassung.

Insgesamt bietet Microblogging für die eigenen Interessen eine sehr interessante neue Basis. Bei Nachrichten, die nur einen kleinen Kreis betreffen, sei er nun freundschaftlich definiert, über einen Ort wie den Bahnsteig oder die Haltestelle oder das gerade besprochene Thema, entsteht so teilweise überhaupt erst ein Metier, in dem die Information für das Umfeld interessant wird. Dazu existieren erste Ansätze, Microblogging mit der aktuellen Position zu kombinieren, die ein Gerät kurz vorher per GPS ermittelt. Neben der neuen Qualität an Geschwindigkeit und Quantität an Zielpublikum, spätestens durch mehreres Weitertragen der Nachricht, stellen sich auch ganz neue Umgangsformen ein, die in ihrer Entwicklung sehr spannend zu beobachten sind. Diese umfassen auch eine neue Diskussion über Privatsphäre und Öffentlichkeit, vor allem aber auch über den Umgang mit Glaubwürdigkeit und die Eigeninitiative in der Einschätzung von Nachrichten.

]]>
https://www.studentenpack.de/index.php/2010/04/digitale-mundpropaganda/feed/ 0
Was schafft die dynamischen Inhalte im Web 2.0? https://www.studentenpack.de/index.php/2010/02/was-schafft-die-dynamischen-inhalte-im-web-2-0/ https://www.studentenpack.de/index.php/2010/02/was-schafft-die-dynamischen-inhalte-im-web-2-0/#respond Sun, 31 Jan 2010 22:00:39 +0000 http://www.phibography.de/StudentenPACK/artikel/?p=77 Betrachtet man momentan private Webseiten im Internet, so sind das meist Blogs. Neben den mehr oder weniger regelmäßigen Einträgen zu einem festgelegten Thema finden sich die üblichen Monats- und Themenarchive, aber auch mehr und mehr eigene Statusinformationen: Die letzten 10 gehörten Songs, die letzten gelesenen Bücher, gesehenen Filme bis hin zu den eigenen Erfahrungen am Morgen; der kurzen Parkplatzsuche gefolgt von der Ernüchterung über vergeudete Zeit im Personennahverkehr. Jede dieser Informationen kommt aus einer anderen Community im Netz: Songs, soziale Netzwerke, Bildersammlungen oder Statusmeldungen. Und all das findet man heute gesammelt auf der eigenen Seite.

Waren bis Ende der 1990er Jahre Webseiten noch statische Seiten, gefüllt mit Bild und Text, manchmal schon über externe Layout-Informationen zumindest einigermaßen einheitlich, so wird heute eine Homepage eher programmiert oder noch häufiger ein bestehendes Anwendungssystem installiert und verwendet. Webseiten sind also zu Programmen geworden, die nicht nur statischen Inhalt anzeigen können, sondern sich auch einfach bearbeiten lassen. Beispiele sind da die Wikipedia oder mit noch weniger Aufwand die eigene Profilseite in sozialen Netzwerken. Mit wenigen Mausklicken kann man den Inhalt verändern, sein Profilbild ändern, ohne sich vorher mit technischen Details wie HTML oder CSS auseinandersetzen zu müssen. Genauso werden Webseiten mit Neuigkeiten dynamisch erzeugt.

Doch wie funktioniert das nun, diese aktuellen Informationen auf der eigenen Seite einzublenden oder
selbst vom Mobiltelefon aus neue Nachrichten auf der eigenen Homepage zu veröffentlichen? Die Technik dahinter heißt Application Programmable Interface, kurz API. Im Deutschen lässt sich das übersetzen mit „durch eine Anwendung programmierbare Schnittstelle“. Durch eine API wird also eine Zugriffsmöglichkeit gegeben, mit der man auf die Dienste oder Angebote einer Webseite zugreifen kann. Dazu hat die API eine feste Adresse, vergleichbar mit einem Briefkasten.

Ein relativ einfaches Beispiel ist dabei Twitter. Mit dem Konzept, Nachrichten bis zu 140 Zeichen hinterlegen zu können — für alle oder nur für Freunde sichtbar — hat Twitter eine Homepage geschaffen, mit der man selbst quasi eine SMS an alle Interessierten schicken kann. Das ist an sich kein großes Konzept. Auf der Homepage erhält man ein Eingabefeld für diese Nachricht, über dem steht: What’s happening? Unter dem Eingabefeld sieht man die letzten Beiträge (Tweets) all jener, deren Beiträge man abonniert hat („people you are folowing“). Nun würde aber niemand einfach regelmäßig auf der Homepage vorbeischauen, was es so neues gibt oder, wenn er selbst etwas Spannendes erlebt, sofort ins Internetcafé rennen und bei Twitter auf der Homepage schreiben

Hier spielt die API von Twitter eine wichtige Rolle. Über die Schnittstelle lassen sich viele Dinge und Details maschinell abrufen, die man als Mensch auch auf der Homepage lesen kann: Die letzten Tweets, (der öffentliche Teil der) Benutzerprofile, die Suche nach bestimmten Begriffen und vieles mehr. Der Ablauf ist dabei etwa wie folgt: Ein Programm — auf dem eigenen Computer, Smartphone, vielleicht sogar im eigenen MP3-Player — schickt eine Nachricht an die API mit der Anmeldung des Benutzers. Wird diese akzeptiert, fragt das Programm nach Neuigkeiten der Freunde des Benutzers, empfängt diese und meldet sich von der API wieder ab. Danach kann das Programm die empfangenen Daten anzeigen oder anderweitig verarbeiten. Auf gleichem Wege kann man dann vom Handy aus auch seine neuste Trivialität an Twitter senden.

Neben Programmen auf dem eigenen Computer kann aber auch eine andere Homepage diese Schnittstelle nutzen, sich Informationen daraus besorgen oder dorthin versenden. Dadurch werden Homepages dynamisch, da sie auf die Änderungen anderer Seiten und deren Inhalte nicht nur reagieren, sondern auch Inhalte anderen Seiten verändern können. Ein neuer eigener Blogeintrag wird in Kurzform auch auf Twitter und ähnlichen Diensten bekannt gegeben, zusätzlich können aber auch Antworten auf diesen Seiten automatisch im eigenen Blog als Kommentar auftauchen.

Technisch besteht eine API aus einer Menge von Funktionen, die sich per Nachricht aufrufen lassen und dann eine Nachricht mit der Antwort zurückschicken. Die Anfrage wird in Form eines HTTP GET geschickt, das entspricht der Abfrage einer Webseite, jedoch werden zusätzlich einige Variablen mitgesandt. Die Funktion verarbeitet diese zusätzlichen Werte und liefert dann auf Basis dieser Werte eine Antwort aus. Diese Antwort ist eine maschinenlesbare Datensammlung, üblicherweise ein XML-Format, manchmal auch ein RSS-Feed. Die Daten, die man erhält, kann man dann verarbeiten, anzeigen, oder was auch immer man im Programm damit machen möchte.

Der Entwurf einer solchen API läuft in mehreren Schritten ab: Zunächst muss man sich überlegen, welche Daten, Handlungen oder Anfragen über eine Schnittstelle möglich sein sollen. Hat man beispielsweise einen Buchladen, wären mögliche Daten etwa Informationen zu einem Buch, einem Autor oder auch Kommentare, die zu einem Buch abgegeben worden sind, man könnte selbst ein buch kaufen, eine Bewertung zu einem Buch abgeben oder eine Suchanfrage stellen. All diese zunächst in Worten beschriebenen Interaktionen mit der Schnittstelle müssen dann in einzelne, nacheinander abzuarbeitende Aktionen oder auch Funktionen getrennt werden. Diese Gliederung definiert dann gleichzeitig Abläufe, an die sich Programme halten müssen, die Informationen abfragen möchten. So ist es möglich, dass man nur einmal eine Anmeldefunktion hat, diese aber zu Beginn des Einkaufs ebenso verwendet wie vor Abgabe eines Kommentars.

Die Strukturierung der API trägt also im wesentlichen zum Erfolg einer Webseite bei: Es kann passieren, dass man nicht alle wünschenswerten Aktionen abdeckt, die ein Programmierer gerne nutzen würde. Strukturiert man hingegen eine API nicht gut genug, kann es sein, dass man für eine einfache Frage nach einer bestimmten Information sehr viel Aufwand betreiben muss. Außerdem ist der Sicherheitsaspekt sehr wichtig: Informationen, die man nur als angemeldeter Benutzer sehen darf, müssen in der API bereitgestellt werden so, dass auch sonst niemand auf diese zugreifen kann. Gleiches gilt für die Authentifizierung eines Benutzers, bei der vor allem sichergestellt sein muss, dass niemand das Passwort „mitlesen“ kann. Das ist bei einer API vor allem deswegen wichtig, weil es sich um eine Schnittstelle zwischen 2 Programmen handelt.

Insgesamt ist also der Entwurf einer API gar nicht so einfach, vor allem, wenn man bedenkt, dass sich eine API mit der Zeit auch weiterentwickelt, erweitert wird und dabei immer noch die alten Anfragen unterstützen muss. Das erfordert schon im allerersten Entwurf viel Weitsicht.

Die API eines Dienstes im Internet bietet also die wunderbare Möglichkeit, diesen auch auf andere Geräte auszuweiten, die irgendeinen Zugriff auf die API bekommen. Dadurch kann ein einzelner Benutzer im Internet entweder seine eigenen Informationen gebündelter auf seiner Seite präsentieren, wie etwa der Twitter-Anwendung in Facebook, andererseits aber mit Anwendungen vor allem nach eigenen individuellen Vorlieben mit seinen Freunden, Bekannten, Lieblingsthemen und Informationen in Verbindung bleiben.

]]>
https://www.studentenpack.de/index.php/2010/02/was-schafft-die-dynamischen-inhalte-im-web-2-0/feed/ 0
Zensur und Internet https://www.studentenpack.de/index.php/2010/01/zensur-und-internet/ https://www.studentenpack.de/index.php/2010/01/zensur-und-internet/#respond Mon, 11 Jan 2010 10:00:44 +0000 http://www.studentenpack.uni-luebeck.de/?p=109672 Vor Aufkommen des Buchdruckes war eine Zensur von verbreiteten Schriften relativ einfach. Doch selbst mit dem Fortschritt des Buchdruckes war sie möglich, sobald Druckereien beziehungsweise Verleger einer – eventuell staatlichen, aber vielleicht auch wirtschaftlichen – Kontrolle unterlagen. Dann war es trotzdem möglich, in kleinen Privatdruckereien Flugblätter oder ähnliches zu verlegen, man erreichte jedoch keine große Menge an Personen.

Im heutigen Informationszeitalter hat sich dieser Zustand geändert: Jeder kann mit einem Computer Informationen, Berichte und Meinungen im Internet verbreiten und damit alle anderen Teilnehmer des Internets erreichen. Eine Zensur der Inhalte ist in einigen Staaten weiterhin aktuell und wird praktiziert, etwa in China, Kuba, dem Iran oder Libyen, technisch gibt es dabei verschiedene Wege.

Im deutschen Grundgesetz sichert uns der Artikel 5 Freiheit zur Meinungsäußerung, Pressefreiheit zu und dass keine Zensur stattfindet, so die Publikation nicht gegen geltendes Recht verstößt, etwa den Jugendschutz oder Persönlichkeitsrechte. Im Sommer 2009 plante die Bundesregierung ein Gesetz, das in seiner Umsetzung eine Infrastruktur schaffen würde, die neben den eigentlichen guten Absichten gleichzeitig eine Zensur befürchten lässt. Bisher hat der Bundespräsident Horst Köhler seine Unterschrift verweigert und auch im neuen Koalitionsvertrag wird von einer Aussetzung des Gesetzes gesprochen.

Ziel des Gesetzes ist es, durch sogenannte DNS-Sperren den Zugriff auf alle Webseiten zu verhindern, die in einer vom BKA gepflegten Liste aufgeführt sind. Diese soll ausschließlich Webseiten mit Darstellungen des sexuellen Missbrauchs von Kindern umfassen. Jedoch birgt dieses Konzept zwei große Probleme:

Das eine ist die Festlegung des Inhaltes der Liste an gesperrten Seiten, das andere die technische Umsetzung. Um eine Seite in die Liste aufzunehmen und gleichzeitig zu verhindern, dass eine Zensur vorgenommen wird, muss ein Gericht feststellen, dass der Inhalt gegen geltendes Recht verstößt. Dann ist es aber wirkungsvoller, die Seite aus dem Internet zu entfernen, also von dem Server zu löschen. Diese juristischen und dazu gehörigen sozialen Aspekte der Zensur gelten für jede technische Umsetzung, egal auf welcher Ebene diese angesetzt sind. Außerdem ist es dabei notwendig, dass derjenige, der Seiten sperren möchte, den oder die Internetanbieter (Provider) unter Kontrolle hat. Die erste direkte Verbindung aller Internetkommunikationen verläuft nämlich über den eigenen Provider, der als Fortentwicklung der Post jedoch meist staatlich ist, wie in Deutschland zu Beginn auch.

DNS-Filter

Allgemein wird in der technischen Umsetzung meist von Filtern oder Sperren gesprochen. Jedes Mal, wenn im Internet eine Webseite aufgerufen wird, muss zu der namentlichen Adresse der Webseite (etwa beim AStA asta.uni-luebeck.de) die numerische Adresse (IP) des Computers gefunden werden (im Beispiel 141.83.153.100). So kann für mehrere Adressen auch ein Server im Internet zuständig sein. Für diese Zuordnung gibt es im Internet das Domain Name System (DNS), das wie ein Telefonbuch funktioniert. Nun besitzt jeder Provider einige DNS-Server. Diese tauschen sich untereinander aus, damit neue Adressen oder Adressänderungen sich weltweit durchsetzen. Das Telefonbuch ist also verteilt und wird von vielen gleichzeitig aufrecht erhalten. Darunter auch freie Server.

Im Falle von DNS-Sperren verpflichten sich nun die Provider (eines Staates), dem Anfragenden anstelle der korrekten IP eine falsche – etwa die eines „Stoppschild“-Servers – auszuliefern. Im Telefonbuch steht also eine falsche Nummer bei dem Namen. Die freien Server sind zu dieser Falschinformation jedoch nicht verpflichtet, daher lässt sich eine solche Sperre umgehen, sobald man einen anderen Standard-DNS-Server einträgt.

Der Filter auf IP-Basis

IP-Sperren, die auch zusätzlich zur DNS-Sperre eingesetzt werden können, verhindern den Zugriff auf einen kompletten Server im Internet. Funktioniert also die oben erwähnte Auflösung des Namens, kann über die IP-Sperre (beim AStA also die IP 141.83.153.100) immer noch der Zugriff verhindert werden. Alle Webseiten des Servers sind dann für die Kunden eines Providers nicht mehr erreichbar.

Lädt man eine Webseite (oder sonstige Daten) per Transmission Control Protocol (TCP), wird zunächst eine Verbindung zwischen Server und dem eigenen Computer aufgebaut (ähnlich einem Telefongespräch), der Dateninhalt wird übertragen und die Verbindung wieder beendet. Die Übertragung geschieht in kleinen Datenpaketen, die jeweils dem „Telefonat“ zugeordnet sind. Dazu steht die Adresse des Servers in jedem Paket. Hier kann nun entweder in den Aufbau der Verbindung vom Provider eingegriffen werden, so dass kein „Telefonat“ beginnt, oder die einzelnen Pakete mit dem Server als Absender können verworfen werden. Mit dem User Datagram Protocol (UDP), das ebenso im Internet verwendet wird, funktioniert nur die zweite Methode, da es verbindungslos abläuft.

Großer Nachteil dieses Ansatzes ist, dass damit meist viele Webseiten auf einmal gesperrt werden, da der ganze Server nicht mehr erreichbar ist. Ein ähnlicher Ansatz filtert Pakete, die bestimmte Wörter enthalten, betrachtet also anstelle der Absenderadresse den Inhalt.

Umgehen lässt sich dies durch Proxy-Server oder verschlüsselte Verbindungen. Proxy-Server sind „Vermittler“, die also lediglich Datenpakete weiterleiten. So ist die Übertragung möglich, da der eigene Computer nur mit dem Proxy in Verbindung steht und der Proxy erst mit dem gesperrten Server. Dadurch kommen beim Provider nur noch Pakete vom Proxy vorbei. Allerdings kann auch ein Proxy-Server auf der Liste der gesperrten IPs beziehungsweise Namen landen.

Verschlüsselte Verbindungen (etwa Virtual Private Networks, oder das Tor-Projekt) kapseln alle zu versendenden Daten in einer Art Briefumschlag (durch digitale Verschlüsselungstechnik). Damit sind weder der Absender noch Inhalte für den Zensierenden lesbar und es kann somit nicht mehr anhand der Liste aussortiert werden. Dies lässt sich nur durch die letzte Variante des Service Denial verhindern.

Zensur durch Service Denial

Die Datenpakete, die per TCP oder UDP versandt werden, heißen IP-Pakete. Sie enthalten einen Header – kann man sich vorstellen wie einen kleinen Aufkleber – der neben Absende- und Zieladresse auch einen Eintrag des Protokolls enthält, in dessen Diensten es versandt wird. Betrachtet der Provider diesen Eintrag, können Pakete gefiltert werden, die einem bestimmten Service zugeordnet sind. Dies kann etwa VPN sein, Tor oder auch einfache sichere HTTP-Verbindungen, die man für das Online-Banking und ähnliches verwendet. Dies wird jedoch selten realisiert, da Firmen all ihre Kommunikation über VPN organisieren und die Zensoren damit einen wesentlichen Teil der Wirtschaft am digitalen Handeln hindern.
Insgesamt gibt es einige Ansatzpunkte, Zensur von Inhalten im Internet zu realisieren, gegen die meisten gibt es aber – vor allem aufgrund der Globalisierung – Gegenmaßnahmen. Für anonyme Informationsbeschaffung ist das Tor-Projekt das vielversprechendste. Für die Veröffentlichung von Dokumenten, die für einen Einzelnen als Herausgeber große Folgen hätten (juristisch oder gar für Leib und Leben), gibt es außerdem noch das Projekt Wikileaks. Dieses Projekt widmet sich der Veröffentlichung solcher Dokumente und trägt Sorge, dass der Urheber nicht mehr aus dem Dokument heraus erkannt werden kann.

]]>
https://www.studentenpack.de/index.php/2010/01/zensur-und-internet/feed/ 0
Eine Bilanz des Scheiterns https://www.studentenpack.de/index.php/2010/01/eine-bilanz-des-scheiterns/ https://www.studentenpack.de/index.php/2010/01/eine-bilanz-des-scheiterns/#respond Mon, 11 Jan 2010 09:00:50 +0000 http://www.studentenpack.uni-luebeck.de/?p=109220
Sora Enders-Comberg

Bibliothek weiterhin in Schieflage

Im Oktober 2008 begann eine Gruppe von Medizin-Studenten des dritten Semesters eine Aktion mit dem Ziel, die Situation der Bibliothek zu verbessern. Um ihren Initiator Anton Schmick bildete sich ein Konzept, das unter dem Namen „365 Tage für die Hochschulbibliothek“ ein Jahr
mit Aktivitäten für die Verbesserung des Buch- und Zeitschriftenbestandes der Lübecker Hochschulbibliothek sowie die Schaffung besserer Lernräume innerhalb der Bibliothek umfasst. Das Konzept wurde sowohl im AStA und Studierendenparlament als auch in den Fachschaften vorgestellt, wenn auch erst kurz vor dem Start oder gar im Januar 2009.

Spannungen zwischen den Gremien und den Veranstaltern schon zu diesem Zeitpunkt sind nicht abzustreiten. Im Protokoll vom 14. Januar 2009 der Fachschaften cs|mls wird notiert, dass eine Vertreterin der Organisation zur Sitzung gekommen ist, „um die kürzlich in einem StudentenPACK-Artikel behauptete Zusammenarbeit mit den Fachschaften auch Realität werden zu lassen“. Solche organisatorischen Verwirrungen sind typisch für das gesamte Jahr, in welchem oft Aktionen angekündigt, jedoch nie durchgeführt wurden und in dem trotz ständiger Ankündigung sich regelmäßig mit AStA und StuPa – die zahlreichen Risikoübernahmen und Kostenübernahmen im Laufe des Jahres gewährten – zusammenzusetzen, selten Vertreter in den Sitzungen berichteten.

Das Konzept, wie es im Januar vorgestellt wurde, hatte zwar klar unrealistische finanzielle Ziele, klang aber ansonsten interessant. Es umfasste kulturelle Veranstaltungen und Spendenaufrufe, um einerseits auf die Situation aufmerksam zu machen, andererseits aber auch die Situation zu verbessern.

Bereits vor der ersten offiziellen Aktion Anfang Januar gab es spontane Transparente im Vorklinikum. Es wurde ein Verein gegründet und die erste Aktion für den 17. Januar angekündigt. Dort wurde das Konzept präsentiert und einige Vortragende eingeladen. Abgerundet wurde die Veranstaltung durch musikalische Unterhaltung. Dass das Konzept zu diesem Zeitpunkt noch gar nicht wirklich feststand, konnte auch Außenstehenden kaum verborgen werden. Finanziell war die Veranstaltung kein Erfolg.

An Ideen und Engagement mangelte es die darauffolgende Zeit nicht: Die Pop-Symphonics veranstalteten ein Konzert, dessen Einnahmen an den Verein der Aktion gingen. Es gab eine Kooperation mit der Blutspendezentrale und einzelne Verkaufsaktionen vor der Mensa sowie einen Kulturabend im Rathaus. Doch auch an Chaos mangelte es nicht: Früher vorgestellte Ideen wurden fallen gelassen, etwa eine Auktion von Bildern. Auch haperte es mit der Publicity. Trotz einiger Artikel, etwa im Wochenspiegel oder den LN, wussten viele nicht genau, was die Probleme seien und wie die Gruppe sie ändern wollte.

Eine Evaluation der Bibliothekssituation und Verbesserungswünsche seitens der Studenten fand zwar im Zusammenhang mit der Lehrevaluation statt. Eine Auswertung der Ergebnisse scheint intern wohl vorgenommen worden zu sein. Zu einer Veröffentlichung der Ergebnisse sieht sich die Initiative jedoch nicht verpflichtet, noch wurden erkennbare Konsequenzen aus diesen gezogen.

Neben einer adäquaten Analyse der Ursachen mangelte es außerdem an einer Auseinandersetzung mit der Vergangenheit: Niemand aus der studentischen Gruppe erwähnte, dass es bereits 1999 und 2003 Aktionen um Verbesserungen in der Bibliothek gab, was diese gebracht hätten und was man stattdessen nun besser machen könne, damit heute die Aktion eine langfristige Verbesserung bringt.

Vielseitig wurde vom StuPa, vor allem aber auch vom AStA angeboten, bei den Aktionen mit Rat und Tat zur Seite zu stehen. Meist blieben auf den Sitzungen des AStA jedoch nur in den Raum gestellte Fragen unbeantwortet, wenn es um die Bibliotheksinitiative ging.

Bibliotheksmitarbeiter fordern derweil insbesondere eine bessere Kommunikation zwischen Bibliothek und Hochschulangehörigen, um Neuanschaffungen besser zu koordinieren. Es gibt für jeden Studenten die Möglichkeit, Anschaffungswünsche zu äußern, doch nur wenige nehmen dies wahr.

Es steht außer Frage: Eine Initiative zur Verbesserung der Situation der Bibliothek ist eine gute Idee. Es ist auch richtig, dass Studenten in die Auswahl und Anschaffung von Büchern und Zeitschriften einbezogen sein sollten. „365 Tage für die Hochschulbibliothek“ ist sicherlich aus vielen Gründen gescheitert: Das Interesse der Studenten war entweder nicht existent oder konnte nicht geweckt werden, das finanzielle Problem der Bibliothek einfach zu groß und leider die Organisation und Struktur der Gruppe nicht ausreichend.

Dennoch: Auch wenn das Ziel am Ende verfehlt wurde, sei festgehalten, dass die Veranstaltungen mit den Pop Symphonics oder im Rathaus eine hohe Qualität hatten. Insofern haben sich diese 365 Tage dann doch gelohnt.

]]>
https://www.studentenpack.de/index.php/2010/01/eine-bilanz-des-scheiterns/feed/ 0
Das Fundbüro ist in Haus 35 https://www.studentenpack.de/index.php/2009/12/das-fundburo-ist-in-haus-35/ https://www.studentenpack.de/index.php/2009/12/das-fundburo-ist-in-haus-35/#respond Mon, 07 Dec 2009 10:00:20 +0000 http://www.studentenpack.uni-luebeck.de/?p=110593 Die Mailinglisten respektive Mailverteiler sind an der Uni Lübeck inzwischen weit verbreitet im Einsatz, vor allem für spontane Veränderungen an Vorlesungen, Ankündigungen von Oberseminar-Vorträgen und anderen universitären Aktivitäten. Inzwischen sind die Verteiler nur noch von internen Adressen aus erreichbar, trotzdem sind in den letzten Jahren einige amüsante E-Mails an die Studenten verteilt worden.

Eher unspektakulär sind Gesuche nach Übungsgruppen, es sei denn, es ist nur von „Tausche B3 gegen Donnerstag Nachmittag“ die Rede. Auch eine Waschmaschine wurde bereits über eine Mailingliste gesucht. Eine richtige Diskussion (die über den Verteiler an und mit allen gesandt bzw. geführt wurde) entstand, nachdem der Informatik-Verteiler für Parteienwerbung genutzt worden war. Die schönste Suche in dem Zusammenhang war nach einem Kommilitonen, um endlich ein Protokoll fertig zu bekommen. Albert K. deckte daraufhin eine Datenschutzlücke auf, sandte aber gleichzeitig vom Gesuchten einige private Daten an alle (die man über die Lücke ohnehin hätte nachschauen können).

Eher unschön sind Anfragen nach Kopien von Skripten oder wenn jemand gleich ein Skript einer Vorlesung an alle Studenten schickt (ohne natürlich die Urheberin oder den Dozenten zu fragen).

Gerne sind Mails auch mehrfach unterwegs, was vor allem daran liegt, dass die Mailinglisten Informatik, MLS, CLS und MIW zwar eigene Namen haben, an sich aber hinter den vier Namen eine gemeinsame Liste aller Studenten der TNF steckt.

Die häufigsten Mails von Studenten handeln von Dingen, vornehmlich USB-Sticks, die dann hier oder dort noch liegen können sollen, entlaufen sind oder gerade aufgefunden wurden. Die Beschreibung ist meist amüsant: Von mittelgrauen Handschuhen, auf einer Treppe gefunden, USB-Sticks mit Papier im Deckel, einem genau spezifizierten Netzteil inklusive Nennleistung bis hin zum Ordner mit allen Aufzeichnungen des Semesters.

Als größter Kritiker von Werbe- und Suchmails, schließt Albert. K. in einer seiner Äußerungen: „Oder, aber das ist wirklich eine vollkommen verrückte und revolutionäre Idee, benutzt das Fundbüro in Haus 35.“

]]>
https://www.studentenpack.de/index.php/2009/12/das-fundburo-ist-in-haus-35/feed/ 0
Einer an Alle https://www.studentenpack.de/index.php/2009/12/einer-an-alle/ https://www.studentenpack.de/index.php/2009/12/einer-an-alle/#respond Mon, 07 Dec 2009 09:00:43 +0000 http://www.studentenpack.uni-luebeck.de/?p=110589 Eine Frage, die der Redaktion des StudentenPACKs gestellt wird, beantwortet mal der Eine und mal die Andere. Das hängt davon ab, wer gerade Zeit und das gefragte Fachwissen griffbereit hat. Technisch gelingt das, weil jeder aus der Redaktion die E-Mails bekommt, die an die Adresse der Redaktion geschickt werden, da diese eine Mailingliste ist. Wir nutzen die Adresse auch für interne Absprachen und Diskussionen, die abseits der Redaktionssitzung aufkommen.

Mailinglisten sind eine relativ alte Technik, zumindest im Vergleich zu den meisten anderen Techniken, die heute im Internet verbreitet sind. Ausgehend von den E-Mails im Jahre 1971 wurde die erste Mailingliste 1975 eingerichtet. Die grundlegende Idee ist dabei, dass eine einzige E-Mail-Adresse existiert, die alle E-Mails empfängt, kopiert und an jeden weitersendet, der dieser Mailingliste angehört. Der Absender kann dabei auf die Adresse der Mailingliste gesetzt werden oder bleibt bei dem eigentlichen Verfasser. Antwortet man auf eine solche E-Mail, muss man darauf achten, wem man antwortet; eine Diskussion sollte stets weiterhin über die Mailingliste laufen, private Kommentare hingegen zum eigentlichen Absender.
Wer darf denn so mitmailen?

Wer zu einer Mailingliste dazugehören möchte, muss sich einmal eintragen. Dazu ist die eigene E-Mail-Adresse anzugeben, ein Name ist optional, dann weiß vor allem derjenige, der die Mitgliederliste pflegt, wer das ist. Das Anmelden nennt man auch eine Mailingliste abonnieren.

Ein solches Abonnement kann für jeden möglich sein, dann spricht man von einer offenen Mailingliste. Andernfalls muss der Mailinglisten-Moderator dem Abonnement zustimmen und man nennt die Mailingliste geschlossen. Das kann sinnvoll sein, wenn etwa eine Gruppe von gewählten Leuten eine Mailingliste nutzt, wie es das Studierendenparlament macht. Die offenen Mailinglisten werden hingegen eher bei Projekten eingesetzt, bei denen die Mithilfe von Vielen gewünscht ist.

Eine weitere Unterscheidung besteht darin, wessen E-Mails an die Abonnenten verschickt werden. Bei öffentlichen Mailinglisten darf jeder der Gruppe Mails schreiben, private Mailinglisten sind nur für interne Unterhaltungen eingerichtet. Dadurch wird zum einen Spam verhindert, andererseits kann dann jemand die Anfragen (an eine andere Adresse gesandt) vorsortieren. Eine Mischung aus diesen beiden Formen ist auch möglich. So muss der Absender einer Mail an den Verteiler für alle Informatik-Studenten über einen Mailserver der Universität versenden, muss jedoch nicht Abonnent der Mailingliste sein.

Chaos verhindern auf Mailinglisten

Auf Mailinglisten ist es häufig der Fall, dass mehrere Diskussionen parallel laufen. Hat man verschiedene Mailinglisten abonniert, entsteht schnell Chaos im eigenen Postfach. Deswegen wird eine E-Mail, die über die Mailingliste zu einem gelangt in ihrem Betreff verändert, ihr wird ein Kürzel vorgesetzt. Die StudentenPACK-Mailingliste hat beispielsweise „[Studentenpack]“, die EDV im AStA „[Computer]“. Die eckigen Klammern helfen einem E-Mail-Programm, zu sortieren. So habe ich einzelne Ordner für die Mailinglisten und lasse nach den Kürzeln einsortieren.

Um bei Diskussionen Ordnung zu halten, sollte auf einen Beitrag stets durch „Antworten“-Button Bezug genommen werden. Die E-Mail merkt sich dann ihren Vorgänger. Außerdem gibt es zwei Möglichkeiten, eine Diskussion fortzuführen:

Man zitiert den vorherigen Beitrag und schreibt seine Antwort darüber (alternativ darunter). Das führt jedoch zu vielen sehr langen Mails voller Zitate. Daher ist es – zumindest bei langen Diskussionen – üblich, in das Zitat hineinzuschreiben und so an den entsprechenden Stellen seine Meinung kund zu tun. Dabei bleibt der zitierte Teil eingerückt, der eigene Kommentar in der Zeile darunter nicht. Teile ohne eigenen Bezug kann man weglassen. Um trotzdem die Diskussionsteilnehmer genannt zu lassen, beginnt man mit einleitenden Worten vor dem Zitat. Diese Diskussionsform nennt sich Inline-Quoting und gehört auf größeren Mailinglisten zu den guten Umgangsformen.

Mailinglisten im AStA

Der AStA bietet allen studentischen Gruppen und Jahrgängen der Studiengänge die Möglichkeit, eigene Mailinglisten zu nutzen. Diese dürfen alle beschriebenen Formen haben. Eine Übersicht findet sich unter http://lists.asta.uniluebeck.de.

So gibt es beispielsweise Jahrgangslisten für die einzelnen Semester der Medizin-Studenten, für die TNF sind diese in Vorbereitung. Wichtig ist, dass jeweils ein Moderator zur Verfügung steht und einige Aufgaben wahrnimmt.

Ansonsten kann man sich über die genannte Adresse auf den Mailinglisten anmelden. Vergibt man dabei auch ein Passwort, so hat man später die Möglichkeit sich auch selbst aus den Listen auszutragen.

Nachteile der Mailinglisten

Diskussionen laufen per E-Mail gut, wenn die diskutierende Gruppe stimmt. Das ist meist ein wenig gewöhnungsbedürftig, da die Argumente geordneter dargelegt werden müssen als in einem mündlichen Diskurs. In jener können nämlich direkte Rückfragen und Dinge wie Ironie besser untergebracht und erkannt werden. Ein Nachteil der Mailinglisten ist, dass man alle Diskussionen in seinem Postfach findet. Die Foren sind dabei eine Verbesserung, man muss jedoch selbst ab und an dort vorbeischauen.

Nutzt man eine Mailingliste als Informationsverteiler, entfällt das Diskussionsproblem. Dann ließe sich auch ein RSS-Feed nutzen, der jedoch bei Interessierten wieder ein eigenes Programm benötigt.

Fazit

Ich denke, Mailinglisten sind für Diskussionen in kleineren Gruppen sehr gut geeignet. So kann man, selbst wenn man sich gerade nicht irgendwo trifft oder das nächste Treffen erst in einer Woche ist, aufkommende Ideen und Gedanken den anderen mitteilen. Man kann sogar den Termin zu einem Treffen absprechen. Außerdem lassen sich Anfragen von Externen sehr gut verarbeiten, da jeweils derjenige, der für den entsprechenden Bereich zuständig ist, die Antwort schreibt. Diese schickt er in Kopie an die Mailingliste, damit die Anfrage als bearbeitet gekennzeichnet ist. Die restlichen Abonnenten wissen dann, dass sie nicht mehr antworten müssen. Trotzdem macht es Sinn, eine darauf aufbauende Rückfrage wieder an die Listenadresse zu schreiben, denn dann kann wiederum derjenige antworten, der Zeit findet und zuständig ist.

Diskussionen auf größeren Mailinglisten sind zu Beginn anstrengend, denn da muss man aus den ganzen E-Mails erstmal herausfiltern, was einen interessiert. Vor allem auf Mailinglisten, die man pflichtmäßig abonniert bekommt, wie dem Studentenverteiler, halte ich deswegen Diskussionen für unangebracht. Auf pflichtmäßig abonnierten Mailinglisten hat man nämlich keine Chance, dem zu „entkommen“. Für Diskussionen wäre vielleicht eine weitere Mailingliste sinnvoll.

Insgesamt gibt es heute einige Software im Internet, die einen guten Ersatz für Mailinglisten bieten und die in ihren Möglichkeiten die Fähigkeiten von Mailinglisten übersteigen. So sind Foren und RSS-Feeds in viele Dingen besser. Für die Pflege von Texten und Wissen eignen sich Mailinglisten nicht, Wikis sind dafür die bessere Wahl. Trotzdem haben Mailinglisten auch ihre Vorteile, vor allem hat fast jeder heute eine Mail-Adresse und kann so sehr einfach an den Listen teilnehmen.

]]>
https://www.studentenpack.de/index.php/2009/12/einer-an-alle/feed/ 0
Filesharing – was ist das eigentlich? https://www.studentenpack.de/index.php/2009/11/filesharing-was-ist-das-eigentlich/ https://www.studentenpack.de/index.php/2009/11/filesharing-was-ist-das-eigentlich/#respond Mon, 02 Nov 2009 10:00:00 +0000 http://www.studentenpack.uni-luebeck.de/?p=111058
Ein reißender Strom.

[media-credit name="freerangestock.com" align="aligncenter" width="645"] Ein reißender Strom.

In „den Medien“ wird viel über Filesharing berichtet, also das Austauschen von Dateien, und darüber, dass dabei Rechte verletzt werden können. Diese Behauptung ist zwar richtig, aber so sinnvoll wie die Aussage, dass Autofahrer zu schnell fahren können.

Filesharing verfolgt das Ziel, eine Datei (etwa den letzten Urlaubsfilm) an alle Interessierten zu verteilen (etwa alle Verwandten und Freunde). Das Problem dabei: Der Film ist vielleicht so lang, dass er eine ganze DVD füllt. Eine Datei dieser Größe auch nur ein einziges Mal an einen Bekannten zu verschicken, dauert mit einem üblichen DSL-Anschluss etwa einen Tag. Auch per E-Mail besteht dieses Problem und zusätzlich streikt nach einer gewissen Menge an Daten das Postfach.

Eine einfache Lösung wäre es, wenn jeder ein wenig mithilft: Nachdem einer – nennen wir ihn Stefan – den ersten Teil erhalten hat, kann er diesen schon an den nächsten – etwa Andrea – weitergeben, während er gleichzeitig den zweiten Teil erhält.

Genau das ist das Grundprinzip von BitTorrent, einem der Protokolle für Filesharing. Protokoll heißt es deswegen, weil es eine Gesprächsgrundlage und -abfolge definiert, in der sich die Computer unterhalten. Zusätzlich sichert das Protokoll, dass die ankommenden Teile nicht verändert wurden und dass sich alle, die die Datei haben wollen und sollen, gegenseitig finden. Der Name „BitTorrent“ setzt sich zusammen aus dem Wort Bit, welches die kleinste Speichereinheit auf dem Computer ist und die Werte 0 oder 1 annehmen kann, und dem Wort Torrent, englisch für einen reißenden Strom; zusammen also ein reißender Datenfluß, der auf die Festplatte strömt.

Wie funktioniert das nun, wenn man es mal praktisch nutzen möchte? Zunächst einmal braucht jeder Teilnehmer einen BitTorrentClient (in den Links sind einige aufgeführt). Dieser Client ist das Programm, das die Unterhaltung zwischen den Computern durchführt.

Zu Beginn erstellt man aus dem Urlaubsfilm, der auf der eigenen Festplatte ist, mit Hilfe dieses Clients eine „Torrent-Datei“. Diese kleine Datei kann man sich als eine Fahrkarte vorstellen, auf der die wichtigsten Informationen stehen – ein Name und vielleicht ein Kommentar dazu. Außerdem noch eine Anzahl Teilstücke und ein wenig technisches Zeug, welches nachher prüft, dass die Datei auch richtig beim Empfänger angekommen ist (sogenannte Prüfsummen). Außerdem wird bei der Erstellung nach einem „Tracker“ gefragt. Das ist ein Computer im Internet, der als Mitfahrzentrale dient. Die Mitfahrzentrale vermittelt die Gespräche zwischen den Computern. Die TorrentDatei, also die Fahrkarte, enthält somit die notwendigen Informationen, um an den Urlaubsfilm zu kommen.

Die Torrent-Datei oder Fahrkarte ist nun so klein, dass sie ohne Probleme per E-Mail als Anhang versandt werden kann. Damit kann man also alle Freunde, Bekannte und sonstige Empfänger des Filmes benachrichtigen. Im Internet gibt es auch ein paar öffentliche Verzeichnisse (etwa Piratebay oder Mininova) für den Fall, dass die Datei, die man verteilen möchte, jedem zugänglich sein soll. Solche Dateien wären etwa die Aufzeichnung einer interessanten Vorlesung, neuste Versionen des Betriebssystems Linux oder ähnliches, das man verbreiten darf.

Jeder, der eine Fahrkarte erhalten hat, kann diese in seinem BitTorrent-Client hinzufügen. Im Falle der E-Mail-Verbreitung ist also sichergestellt, dass nur diejenigen den Urlaubsfilm erhalten, die ihn auch erhalten sollen.

Nehmen wir an, der erste Empfänger, Stefan, hat nun die Fahrkarte in seinem Client geöffnet (das funktioniert ähnlich einfach wie das Öffnen eines PDFs). Sein Client liest zuerst die Adresse des Trackers. Stefan erfährt, dass der Sender den Urlaubsfilm hat und fragt bei dessen Client direkt nach. Dieser antwortet, dass er die Datei vollständig hat und sendet Stefan kurz danach schon die ersten Szenen des Films. Ist ein Teilstück (neudeutsch: Chunk) fertig, wird es darauf kontrolliert, ob es auch korrekt angekommen ist. Damit wird verhindert, dass Stefan nachher Fehler im Film hat.

Hat Stefan ein Teilstück vollständig erhalten, kann Andrea das auch von ihm laden, anstatt von vom ursprünglichen Sender. So hilft jeder ein wenig bei der Verteilung mit. Im Optimalfall lädt der Sender den gesamten Film nur ein einziges Mal komplett hoch und unter den anderen findet die Organisation so statt, dass jeder den Film vollständig erhält.

Der große Vorteil ist also, dass man Dateien an Freunde verteilen kann, ohne dass die eigene Internetleitung wochenlang belegt ist. Neuere Ansätze schaffen das auch schon ohne die Mitfahrzentrale, was allerdings etwas komplizierter ist.

Natürlich lassen sich auf diesem Wege auch illegale Kopien von DVDs verbreiten, was mancherorts umfangreich angeprangert wird. An einigen Stellen wird auch versucht, dies rechtlich zu verfolgen. Es lässt sich nur schwierig Beweismaterial sammeln, aber es ist möglich. Gegen einige Beobachtungsmöglichkeiten gibt s auch wieder Gegenmaßnahmen, die aber schon einiges an Fachwissen voraussetzen.

Meiner Meinung nach lässt sich neben dieser ganzen Diskussion um rechtlich gechütztes Material Filesharing im privaten Bereich – wo legal eigene Daten verteilt werden – hervorragend nutzen.

]]>
https://www.studentenpack.de/index.php/2009/11/filesharing-was-ist-das-eigentlich/feed/ 0