Technik – StudentenPACK. https://www.studentenpack.de Das Magazin der Studenten in Lübeck Sun, 03 Dec 2017 20:20:56 +0000 de-DE hourly 1 Kartenzahlung ohne PIN? https://www.studentenpack.de/index.php/2017/12/kartenzahlung-ohne-pin/ https://www.studentenpack.de/index.php/2017/12/kartenzahlung-ohne-pin/#respond Mon, 04 Dec 2017 09:00:50 +0000 http://www.studentenpack.de/?p=306411
Das PIN Pad an den Automaten in der Mensa wird nicht mehr benötigt.Magnus Bender | StudentenPACK.

Das PIN Pad an den Automaten in der Mensa wird nicht mehr benötigt.

Einigen von euch ist es vielleicht aufgefallen: Das Aufladen der Mensakarten mittels girocard (EC-Karte) ist seit Semesterbeginn ganz ohne PIN oder andere Authentifikation möglich. Im ersten Moment scheint es sinnvoll zu sein, eine solche Änderung durchzuführen, gerade wenn man den Andrang zu manchen Zeiten beobachtet – aber so lange dauert die Eingabe von vier Ziffern nun auch wieder nicht.

Doch wie sieht es mit der Sicherheit aus? Früher wurde jede Aufladung in Echtzeit bei der Bank geprüft. Die PIN und der gewünschte Betrag wurden erst angefragt und danach sofort vom Konto abgebucht.

Mit dem neuen Verfahren erteilt man dem Studentenwerk schlicht die Erlaubnis, das Geld mittels des SEPA-Lastschriftverfahrens einzufordern, von der Aufladung am Automaten bis zur Abbuchung auf dem Konto vergehen so ein paar Tage, in denen man unbezahltes Guthaben verbrauchen kann. Weiterhin kann bei der Aufladung nicht sichergestellt werden, dass das Konto ausreichend gedeckt ist.

Zum Schutz gibt es zwei Limits: Ein Aufladevorgang ist auf 50 Euro beschränkt und eine Mensa-Karte kann maximal ein Guthaben von 100 Euro fassen, ein Tages- oder Wochenlimit für Aufladungen gibt es aber nicht.

Trotzdem wirkt das neue Verfahren wie ein Rückschritt. Das Studentenwerk begründet die Änderung wie folgt: „Für das Fortführen des PIN-Verfahrens wären technische Änderungen notwendig gewesen, die mit sehr hohen Kosten verbunden gewesen wären. Da wir zu einer wirtschaftlichen Förderung der Studierenden laut Gesetz verpflichtet sind und wir uns unter anderem aus den Studentenwerksbeiträgen der Studierenden finanzieren, haben wir uns für […] die Umstellung […] entschieden.“

Sollte eine Abbuchung vom Konto einmal nicht gedeckt sein, wird die Mensakarte gesperrt und muss in bar durch Zahlung des Aufladebetrags und den Kosten für die fehlerhafte Buchung – meist unter zehn Euro – entsperrt werden. Bis dahin bleibt auch die girocard an den Automaten in der Mensa gesperrt.

Die Sorgen vor finanziellen Verlusten bei missbräuchlicher Benutzung der girocard sind übrigens unbegründet. Unrechtmäßige Abbuchung sind zwar durchaus möglich, bei regelmäßigem Blick auf die Kontoauszüge besteht aber bei Lastschriften immer die Möglichkeit, das Geld durch seine Bank zurückbuchen zu lassen.

]]>
https://www.studentenpack.de/index.php/2017/12/kartenzahlung-ohne-pin/feed/ 0
Ein (nützliches) Hillsmitte=l https://www.studentenpack.de/index.php/2017/12/ein-nuetzliches-hillsmittel/ https://www.studentenpack.de/index.php/2017/12/ein-nuetzliches-hillsmittel/#respond Mon, 04 Dec 2017 06:30:54 +0000 http://www.studentenpack.de/?p=306435
Der ScanMarker Air scannt und übersetzt angeblich sogar Zulu!Fabian Schwarze | StudentenPACK.

Der ScanMarker Air scannt und übersetzt angeblich sogar Zulu!

Dies ist eine Rezension für den ScanMarker Air-Stift aus dem Jourists Verlag, der mir als Rezensionsexemplar zur Verfügung gestellt wurde. Er soll gedruckte oder handschriftliche Texte scannen und digitalisieren und Strichcodes lesen. Ich habe eine Rezension verfasst, diese ausgedruckt und mit dem Stift wieder digitalisiert. Das Ergebnis ist im Folgenden abgedruckt.

Keine Lust mehr auf Abschreiben? Der Scanmarker Air könnte dir Abhilfe schaffen! Doch was ist is und wie gut funktioniert err •r ScanMarker ist eine Art Sti£, der Text von Büchern, Zeitschriften, Briefen oder P cannt und auf deinen Computer, dein Handy oder dein Tablet übermittelt Die Spitze des :anMarkers wird auf den Text aufgesetzt und es erscheint ein weißes Licht. In dem Bereich dieses wind nun gescannt. Nun muss man mit etwas Geschick in einer regelmäßigen £ den „Stift“ über den einzuscannenden Text führen. Der Text, der sich mittig in Ti Licht befindet, wird nun gescannt. Nun benötigt man die App oder das Programm, das die ingescannren Daten lesen und in ein Textverarbeitungsprogramm übersetzen kann. Dieses kann ostenlos herunterladen.

Nach dem Scan-Vorgang und einem Moment Veraiteitungszeit erscheint der gescannte Text. Zumindest sollte es so laufen. Etwas benötigt ein paar Stunden der Übung, um die optimale tz t’zJrsasß hscöödöi ort nur wirre Zeichen auf dein Büdsdaua^-äa die. –. Jl i. >i riigkeil noch nicht regelmäßig genug war.

Mittlerweile habe ich den Dreh raus und konnte schon verschiedene Situationen testen. Von iriianem, Zeitschriften und großen Büchern lässt es sich gut abscannen und der Text ist dann fehlerfrei. Jedoch gibt es Schwierigkeiten bei kleineren Büchern, deren Seiten beim ügen zur Mitte hin Wölbungen haben. Auf diesen befindet sich meist auch viel Text und der ;t sich nur sehr schwer einscannen, so dass man oft nachkorrigieren muss. ScanMarker hat verschiedene Optionen Es lasst sich wählen zwischen Text, Bild, Zahlen \md ‚e. Text ist die von mir am häufigsten gewählte Option, denn sie benötigt man zum Text nsc«j nfcht zd groß sdndbc, dfem 9oast kann er nicht sesranTir v,orrion nam trauf achten, dass man nicht zu groß schreibt, denn sonst kann er nicht gescannt werden. Dann erstellt der StÄ«nJU^iUA>r Hawkrhrift. Rpi (W OhhA« 7ahlen werden nur Zahlen erkannt und auch nur die werden eingelesen. Alles andere wird übergangen. Am besten funktioniert die Option Strichcode. Mittels dieser lassen sich ISBN-Codes in Zahlen übersetzen. Letztendlich bedarf es viel Übung, bis man alle Kniffe raushat. Doch trotzdem hat der ScanMarker seine Schwierigkeiten, wie ich finde, vor allem bei kleineren Büchern. Dieser Makel ist schon sehr auffällig und nervtötend, wenn man versucht längere Passagen einzuscannen. Wenn man immer wieder das Gescannte korrigieren muss, weil sich kleine Fehler eingeschlichen haben, was öfter >assiert, erleichtert das die Arbeit nicht sonderlich. Marker USB, der für 80 EUrn 7ll Vmk/w !r+ TW niniJx/i T!ntrtrrc*L,‘«J .‘„L.KaiOil lCt f^Of – USB, der für 80 Euro zu haben ist. Der einzige Unterschied zwischen beiden ist, dass d ScanMarkerAir neben einer USB-Verbindung auch eine Bluetooth-Verbindung aufbauen kann. Meiner Meinung nach ist der ScanMarker seinen Preis nicht wen, denn durch die Korrekturen, die man vornehmen muss, dauert es doch recht lange, Texte zu scannen, so dass es sich vielleicht mehr lohnt, die kostenlose Variante des Abschreibend zu nutzen.

]]>
https://www.studentenpack.de/index.php/2017/12/ein-nuetzliches-hillsmittel/feed/ 0
Improving Matlab – Teil 5 https://www.studentenpack.de/index.php/2015/11/improving-matlab-teil-5/ https://www.studentenpack.de/index.php/2015/11/improving-matlab-teil-5/#respond Mon, 09 Nov 2015 06:30:12 +0000 http://www.studentenpack.de/?p=233654 High five! Frisch im neuen Semester geht es wieder weiter in Runde fünf unserer Reihe zu dem Programm Matlab. Die letzte Ausgabe hat sich mit der speziellen Datenstruktur der sparse-Matrizen beschäftigt, die Berechnungen effizienter machen. In unserem Online-Magazin gibt es die anderen Teile der Reihe auch zum Nachlesen. Dieses Mal soll ein Tool vorgestellt werden, das bei der Fehlersuche im Code und beim Nachvollziehen von fremdem Code sehr hilfreich sein kann: die Breakpoints.

Im seltensten Falle kommt beim ersten Start des frisch geschriebenen Programms das gewünschte Ergebnis. Irgendwo haben sich immer Fehler eingeschlichen und nicht immer sind die ausgegebenen Fehlermeldungen ausreichend erklärend. Naive Herangehensweisen „einfach“ den Code durchzuschauen und auf Fehler abzusuchen sind insbesondere bei längeren Problemen kaum praktikabel und auch nicht immer zielführend, da einige Probleme nicht auf den ersten Blick erkennbar sind.

Matlab bietet einige Möglichkeiten, dieser Sache Herr zu werden. Die sogenannten Breakpoints sind eine einfache und mächtige Option. Mit einem Klick auf die kleinen Striche rechts neben den Code-Zeilennummern lassen sich die kleinen roten Punkte setzen und wieder entfernen. Wird das Programm bei gesetztem Breakpoint gestartet, so startet es im Debug-Modus und läuft genau bis zu dieser Stelle und hält an.

Praktisch ist nun, dass der gesamte Inhalt des Programms „eingefroren“ ist. Insbesondere gilt dies für alle (temporären) Variablen, Arrays und Matrizen. Über das Variablen-Fenster oder durch die Eingabe im Konsolen-Fenster kann auf diesen gearbeitet werden, also auch der aktuelle Inhalt abgefragt werden. Im Konsolen-Fenster ist der Modus durch ein K vor dem >> zu erkennen. Wichtig: alle Berechnungen während des Debuggings werden nur temporär gespeichert und sind danach nicht mehr vorhanden.

Über spezielle Steuerungstasten kann man das Programm weiter kontrolliert ablaufen lassen. In der Debug-Befehlsgruppe, die erscheint, sobald ein Programm im Debug-Modus ist, sind diese gesammelt. Mit der „Continue“-Taste läuft das Programm bis zum nächsten Breakpoint weiter. Möchte man in kleineren Schritten voranschreiten, so helfen die „Step“-Tasten. Die einfache Step-Taste geht genau einen Zeile im Programmcode weiter. Über die Tasten „Step In“ und „Step Out“ wird es ermöglicht, in die in der aktuellen Zeile aufgerufenen Programme rein beziehungsweise raus zu springen und auch innerhalb dieser schrittweise die Berechnungen durchzugehen. Zuletzt ist mit der „Quit Debugging“-Taste die Möglichkeit gegeben, den Debug-Modus abzubrechen und das laufende Programm damit zu unterbrechen.

Mithilfe des schrittweisen Debuggings ist es möglich, sich genau an das Problem heranzutasten. Durch Setzen eines Breakpoints innerhalb einer for-Schleife kann man jeden einzelnen Schleifendurchlauf überprüfen – und im Idealfall erkennen, warum gerade in diesem einen Durchlauf das Programm abbricht. Häufige Fehler wie falsche Indizes oder unabsichtlich entstandene Nullen können damit schnell erkannt werden.

 

]]>
https://www.studentenpack.de/index.php/2015/11/improving-matlab-teil-5/feed/ 0
Improving Matlab – Teil 4 https://www.studentenpack.de/index.php/2015/07/improving-matlab-teil-4/ https://www.studentenpack.de/index.php/2015/07/improving-matlab-teil-4/#respond Wed, 08 Jul 2015 22:10:33 +0000 http://www.studentenpack.de/?p=213499 Diese Antwort hat man schon seit langem befürchtet.

Diese Antwort hat man schon seit langem befürchtet.

Albert Piek

Vier gewinnt – deshalb geht es dieses Mal schon in Runde vier unserer Reihe zu dem Programm Matlab. In der letzten Ausgabe haben wir euch einen Einblick gegeben, worauf ihr beim Visualisieren von Daten in einem Plot achten solltet und was für Informationen wie hinzugefügt werden können.
Nicht nur Griechenland ist zum Sparen angehalten, auch bei der Programmierung ist es wichtig, sowohl Speicherplatz als auch Zeit zu sparen, denn beides ist bekanntlich Geld und macht die Effizienz eines Programmes aus. Matlab bietet für sogenannte spärlich besetzte Matrizen, das sind Matrizen mit einem hohen Anteil an Nulleinträgen, einen besonderen Datentyp, der sowohl speichertechnisch als auch zeitlich für eine starke Effizienzsteigerung sorgen kann.
Der Datentyp sparse ist speziell für diese Matrizen angelegt. Die normale Speicherweise von Matlab speichert Nulleinträge einer Matrix A genauso wie andere Werte, sodass die vollen m × n Einträge der Matrix gespeichert werden. Sparse-Matrizen merken sich nur noch die Indizes und Werte der Einträge, die nicht null sind. Somit hängt deren Speicherplatzbedarf nur noch von der Anzahl nnz(A) der Nichtnulleinträge ab. Das Verhältnis von Nichtnulleinträgen zu Gesamtanzahl an Einträgen wird auch als Dichte der Matrix bezeichnet. Das Gegenteil, also eine voll besetzte Matrix, wird logischerweise full genannt. Matrizen lassen sich mit den Befehlen sparse(A) bzw. full(A) von dem einen in den anderen Datentyp umwandeln.
Spezielle spärlich besetzte Matrizen lassen sich direkt erstellen. Der Begriff speye(n) erstellt eine Sparse-Einheitsmatrix, mithilfe von spdiags lassen sich Diagonalmatrizen erstellen. Die Syntax für diesen Befehl ist A=spdiags(B,d,m,n). Dabei ist B eine Matrix, welche als Spalten die gewünschten Diagonalenelemente enthält. d beschreibt die Positionen der Diagonalen – die Hauptdiagonale hat den Index 0, die oberen Nebendiagonalen positive, die unteren Nebendiagonalen negative Indexeinträge. Die Zahlen m und n beschreiben zuletzt die Dimension der Matrix. Das Ergebnis für die Eingabe A=spdiags(ones(3,1)*(1:4),[-2,-1,0,2],3,3) sieht wie folgt aus:

Für Statistiker gibt es außerdem mit A=sprand(m,n,Dichte) die Möglichkeit eine Sparse-Matrix mit zufällig gleichverteilten Werten zu generieren, welche die vorgegebene Dichte zwischen 0 und 1 besitzt.
Ein zusätzlicher Effizienzschub wird generell durch Präallokation erreicht. Ist die Größe einer Matrix bekannt und nicht von dynamischer Größe, so kann durch das vorherige Festlegen der Matrix (die Präallokation) das Programm noch besser laufen. Bei üblichen Matrizen ist das durch vorherige Definition als Nullmatrix möglich, für Sparse-Matrizen gibt es den spalloc-Befehl: Mit S=spalloc(m,n,nzmax) wird eine m × n Sparse-Matrix S erstellt, welche bis zu nzmax Nichtnulleinträge haben kann. Diese Zahl kann zwar überschritten werden, doch dann muss Matlab wieder dynamisch Speicher hinzufügen und der Effizienzgewinn ist verloren.
Es existieren noch einige weitere Befehle mit denen man Eigenschaften der Sparse-Matrizen abfragen kann. Der Befehl issparse(A) gibt einen boolean-Wert aus, der beschreibt, ob die Matrix im Sparse-Format vorliegt. nzmax(A) gibt den allokierten Speicherplatz, nnz(A) die Anzahl an Nichtnulleinträgen an. Nicht zu verwechseln ist dieser mit dem nonzeros-Befehl, welcher sämtliche Nichtnulleinträge ausgibt.
Die Befehle sind nun klar – doch worin ist nun der tatsächliche Nutzen zu sehen? Der Vergleich zwischen einer zufälligen Sparse-Matrix A=sprand(1000,1000,0.3) und ihrer Darstellung B=full(A) ergibt beim Speicherplatzvergleich 4.1 MB für Matrix A und 8 MB für Matrix B. Auch die Multiplikation ist um einiges schneller: Mit den Vektoren x=sprand(1000,1,0.3) bzw. y=full(x) ergibt sich für die Berechnung A*x eine benötigte Zeit von 0.05 Sekunden, im Vergleich dazu braucht die Berechnung B*y 0.63 Sekunden.
Insbesondere bei der Diskretisierung, beispielsweise von Gradienten oder von partiellen Differentialgleichungen treten solche spärlich besetzten Matrizen, häufig als Band- oder Blockmatrizen auf. Bei diesen Problemen sind damit viel größere Probleme vom Rechner beherrschbar – das Verwenden dieses Datentyps ist daher lohnend. In der nächsten Ausgabe gibt es weitere Tipps und Tricks rund um das Programm Matlab.

]]>
https://www.studentenpack.de/index.php/2015/07/improving-matlab-teil-4/feed/ 0
Improving Matlab – Teil 3 https://www.studentenpack.de/index.php/2015/05/improving-matlab-teil-3/ https://www.studentenpack.de/index.php/2015/05/improving-matlab-teil-3/#respond Mon, 04 May 2015 08:25:19 +0000 http://www.studentenpack.de/index.php/2015/02/improving-matlab-teil-2-2/ Weiter geht es mit dem dritten Teil der Reihe rund um das Programm Matlab. Das letzte Thema war die Wahrheit – und was man mit dem zugehörigen Datentyp Boolean alles anstellen kann.

Dieses Mal soll es um etwas gehen, was in keinem Film und keiner wissenschaftlichen Arbeit fehlen darf: ein guter Plot! Als grafische Darstellung von Daten, Sachverhalten oder Funktionen können Plots Thesen untermauern und Zusammenhänge erklären sowie visualisieren. Dass man dabei auch genug verkehrt machen kann, kann man sich denken. Eine schlechte Visualisierung der Daten kann das Gegenteil vom gewünschten Effekt bewirken. Deshalb an dieser Stelle einige Tipps was überhaupt in Matlab alles möglich ist.

Der wohl am häufigsten verwendete Darstellungstyp ist der Kurvenplot. Mithilfe des Befehls plot(X,Y); lassen sich die Daten X und Y gegeneinander auftragen. Standardmäßig wird er in einer neuen Figur (englisch: Figure) dargestellt. Dabei ist es durch
plot(X1,Y1,X2,Y2,…);
möglich, mehrere Kurven in einen Plot einzuzeichnen. Alternativ kann insbesondere bei vielen Kurven in einem Plot der hold-Befehl übersichtlicher sein. Alles, was zwischen hold on; und hold off; geplottet werden soll, landet in derselben Figure.

Doch eine Kurve alleine sagt wenig aus. Die wohl wichtigsten Informationen, die gerne vergessen werden, sind die Achsenbeschriftungen. Schon zu Schulzeiten gab es für das Weglassen selbiger im Mathematik-Unterricht Punktabzüge. Deshalb sollten sie bei der Abgabe von Übungszetteln und in wissenschaftlichen Arbeiten auf jeden Fall dabei sein. Möglich wird das in Matlab mit den Befehlen xlabel bzw. ylabel. Die Syntax lautet dafür
xlabel('Achsenbezeichnung');.
Neben den Achsen sollte auch noch der gesamte Plot betitelt werden – falls eine zusätzliche Beschreibung des Textes nicht bereits vorgesehen ist. Realisiert wird das durch den title-Befehl, der sich in der Syntax von den vorherigen nicht unterscheidet. Die Bezeichnung ist dabei ein String, also eine Zeichenkette. Neben normalen Buchstaben und Zeichen lässt sich noch einiges mehr verwenden. So ist es möglich, die Zahlwerte von Variablen einzubinden. Dazu muss die Variable vom Zahlenformat durch den num2str-Befehl in das Stringformat umgewandelt werden. Um das Ganze mit Textbausteinen zu kombinieren, können komplexere Strings durch Arrays von Teilstrings realisiert werden. Hat z.B. die Variable x den Wert 2, so ergibt die Eingabe
[ 'Abbildung' ,num2str(x),': Beispielplot' ]
den String
'Abbildung 2: Beispielplot'.
Weiter ist die Verwendung von LaTeX-Code innerhalb von Achsen-Labels und weiteren Beschriftungen möglich. Dazu müssen, wie aus LaTeX bekannt, um die mathematische Formel $-Zeichen gesetzt werden. Zusätzlich muss Matlab gesagt werden, dass es das geschriebene als LaTeX-Code zu interpretieren hat, indem als weitere Argumente an den Befehl folgendes angefügt wird:

xlabel(‘$\mathcal{A}$’,’Interpreter’,’latex’);

Doch die Erwartungen sollten nicht zu hoch sein. Dadurch, dass ohne weiteres keine zusätzlichen LaTeX-Pakete eingebunden werden können, ist die Auswahl an möglichen Formeln beschränkt. Brüche aus Zahlen, griechische Buchstaben und ein paar Formatierungen sind jedoch möglich.

Bei mehreren Plots in einer Figure ist auch die Form und Farbe der Plots wichtig, um die verschiedenen Graphen zu unterscheiden. Matlab bietet eine Vielzahl an Möglichkeiten, das zu gewährleisten. Die Beschreibungsparameter werden dem Plot-Befehl beigefügt:

plot(X,Y,'StyleParameter','Parameterstring');

Davon können beliebig viele nacheinander geschrieben werden. Hier eine Übersicht über die wichtigsten Parameter. Natürlich gibt es noch einige mehr, sie können in der Matlab-Dokumentation nachgeschlagen werden.

  • 'LineStyle' – Linienart: Die Kurven können zum Beispiel durchgehend ('.'), gestrichelt ('--'), gepunktet (':') werden – oder ganz weggelassen werden ('none').
  • 'LineWidth' – Linienbreite: Die Linienbreite lässt sich mithilfe dieses Parameters steuern, der Wert wird in Punktbreite als Zahl angegeben.
  • 'Color' – Farbe: Die Farbe kann auf zweierlei Weise beschrieben werden: Durch ein RGB-Tripel [R G B], wobei die Werte zwischen 0 und 1 angenommen werden. Für einige standardmäßige Farben ist es auch möglich, einen String anzugeben, z.B. 'yellow' oder 'red'.

Zuletzt sollte dem Leser auch beschrieben werden, welcher Plot zu welchem Datenset gehört: Stichwort dafür ist die Legende. Der zugehörige Matlab-Befehl ist legend mit der Syntax

legend('Name1', 'Name2',..., 'NameN','Location','Wert','Orientation','Wert');

Die Reihenfolge der Namen ist dabei diejenige, in der die Graphen geplottet wurden. Der Parameter Location beschreibt die Position der Legende im Plot und wird durch die Himmelsrichtungen beschrieben, z.B. 'west' oder 'northeast'. Der Parameter 'Orientation' beschreibt, ob die Lengendeneinträge 'vertical' oder 'horizontal' angeordnet werden. Der Standardwert ist dabei vertikal.

Es gibt in Matlab noch viele weitere Möglichkeiten, die ermittelten beziehungsweise verwendeten Daten sinnvoll und gut ansehnlich darzustellen. Die äußere Darstellung sollte nicht unterschätzt werden – sie trägt maßgeblich zum Eindruck bei. In der nächsten Ausgabe gibt es weitere Tipps und Tricks rund um das Programm Matlab.

]]>
https://www.studentenpack.de/index.php/2015/05/improving-matlab-teil-3/feed/ 0
Improving Matlab – Teil 2 https://www.studentenpack.de/index.php/2015/02/improving-matlab-teil-2/ https://www.studentenpack.de/index.php/2015/02/improving-matlab-teil-2/#respond Mon, 02 Feb 2015 09:05:19 +0000 http://www.studentenpack.uni-luebeck.de/?p=213158 In der letzten Ausgabe haben wir euch bereits mit einigen der Eigenheiten und der „Denkweise“ von Matlab vertraut gemacht und gezeigt, wie ihr sie zu eurem Vorteil nutzen könnt. Durch die matrix- und vektororientierte Arbeitsweise Matlabs lassen sich elementare Rechnungen schnell auf ganzen Matrizen durchführen – weit schneller als sie elementweise mittels for-Schleifen-Konstrukten durchzugehen. In diesem Artikel soll ein weiterer Aspekt des „Vektordenkens“ vorgestellt werden: der Datentyp Boolean und wie er genutzt werden kann.

Mit ein paar kleinen Tricks sieht Matlab das "Busy"-Feld nicht mehr ganz so lange.

Mit ein paar kleinen Tricks sieht Matlab das “Busy”-Feld nicht mehr ganz so lange.[media-credit id=51 align="aligncenter" width="640"]

Dieser Datentyp ist nach dem englischen Mathematiker und Logiker George Boole benannt und beschreibt eine logische Variable. Sie kann die Werte „wahr“ oder falsch“ annehmen; in Matlab entsprechend 1 oder 0. Soweit wahrscheinlich schon von anderen Programmiersprachen oder diversen Vorlesungen bekannt.

Doch in Matlab hat sie viel Nutzen. Ebenso wie Zahlen können auch Booleans in Form von Matrizen und Vektoren strukturiert werden. Weiter können sie mit Zahlen direkt verrechnet werden. In diesem Falle werden sie wie die „normalen“ Zahlen 0 und 1 behandelt.

Zunächst sollen hier einmal kurz die grundlegenden Operatoren vorgestellt werden, die mit Booleans arbeiten. Dabei unterscheidet man zwischen relationalen und logischen Operatoren.

Relationale Operatoren sind, wie der Name verrät, vergleichende Operatoren: <, <=, >, >=, ==, und ~=. Sie vergleichen zwei Objekte (im Normalfall Zahlen oder Matrizen) und geben das Ergebnis als Boolean aus. So ergibt 3==2 den Wert 0 und [1 2 3]<=2 den Boolean-Vektor [1 1 0]. Wieder können diese elementweise verwendet werden: [1 2 3]>=[3 2 1] ergibt [0 1 1].

Logische Operatoren akzeptieren üblicherweise Booleans als Eingabe und geben wiederum Booleans aus. Sie akzeptieren in Matlab auch gewöhnliche Zahlen, hierbei wird jedoch jeder Eintrag, welcher nicht 0 ist, wie 1 behandelt. Die logischen Operatoren, die Matlab kennt sind UND (&, &&), ODER (|,||), NICHT (~) und XOR (xor(A,B)) und folgen den bekannten Wertetabellen. Sie sind wieder elementweise einsetzbar. Die „doppelten“ Operatoren && und || sind besondere Varianten: Sie sind sogenannte „Short-circuit“-Operatoren und werten bei Eingabe A&&B bzw. A||B die Werte von B gar nicht mehr aus, wenn durch A das Ergebnis bereits feststeht. So ist, wenn A falsch ist auch immer A UND B falsch, ist A wahr, ist auch immer A ODER B wahr. Sie bieten damit eine Steigerung der Effizienz.

Eine praktische Anwendung für Booleans, relationale und logische Operatoren liegt in der Adressierung von Elementen einer Matrix. Matlab akzeptiert nicht nur die bekannte Angabe einzelner oder mehrerer Zeilen und Spalten zur Adressierung von Elementen, sondern auch Booleans: Dabei muss die Boolean Matrix dieselbe Anzahl Elemente wie die abzufragende Matrix haben. Matlab listet dann sämtliche Elemente in einem Spaltenvektor auf, an deren Position die Boolean-Matrix wahr ist.

Ist beispielsweise A=[1 2 3;4 5 6] und B die Boolean-Matrix [0 1 0; 1 1 1] ergibt die Anfrage C=A(B) die Matrix C=[4;2;5;6]. Die Reihenfolge ergibt sich daraus, dass Matlab B intern vektorisiert, also alle Spalten von B untereinander als Spaltenvektor schreibt. Dadurch, dass die Booleans auch als Zahlen funktionieren, funktioniert dieser Trick: D=A.*B. Das ergibt die einfache Möglichkeit, eine Matrix D zu konstruieren, die dieselbe Größe wie A behält und an allen „wahren“ Stellen von B die ursprünglichen Werte, aber an all den Stellen, in denen B „falsch“ ist nur noch eine 0 steht. Statt direkt Boolean-Matrizen zu verwenden, ist es oft praktisch gleich logische Abfragen zu verwenden. A(A>0) liefert zum Beispiel direkt alle positiven Einträge der Matrix A, B(B>=0 & B<=1) liefert alle Elemente von B, die zwischen null und eins liegen.

Durch die Verwendung solcher Konstrukte lassen sich einige relativ ineffiziente if-Abfragen einfach ersetzen. Insbesondere in dem folgenden, häufig auftretenden Fall lässt sich viel Rechenzeit sparen: Wir haben eine Matrix voller Werte. Abhängig von diesen Werten sollen irgendwelche Rechnungen mit selbigen angestellt werden. Als Beispiel wollen wir Werte gewichten. Ist der Wert negativ, so soll er verdoppelt werden, ist er positiv halbiert. Ein einfacher Ansatz wäre:

for i=1:size(A(:))

if A(i)<0

A(i)=2*A(i);

elseif A(i)>0

A(i)=0.5*A(i);

end;

end;

Ein Testlauf mit einer Zufallsmatrix A mit 10000 Werten ergab eine Rechenzeit von 165.35 Sekunden – knapp 2.5 Minuten für eine per se simple Aufgabe. Versuchen wir jetzt, das Ganze mithilfe von Booleans darzustellen. Die einzelnen if-Abfragen lassen sich über A<0 bzw. A>0 matrixwertig realisieren. Alle negativen Einträge lassen sich durch A.*(A<0) bestimmen, alle positiven durch A.*(A>0). Zusammen mit den Multiplikationen ergibt sich folgender Einzeiler:

A=2*A.*(A<0)+0.5*A.*(A>0);

Oder noch kürzer:

A=(2*(A<0)+0.5*(A>0)).*A;

Die Rechenzeit liegt bei 2.8 bzw. 2.38 Sekunden. Das sind nur 1.69 beziehungsweise 1.44 Prozent der Rechenzeit des ersten Versuches – also ein erheblicher Zeitgewinn. So lässt sich durch eine kleine Veränderung des Programmes die Effizienz massiv verbessern. Das hilft nicht nur bei fortgeschrittenen Programmen, sondern sorgt auch so manches Mal bei euren Korrekteuren für großzügigere Bepunktung, wenn die Programme schneller laufen.

In der nächsten Ausgabe gibt es weitere Tipps um eure Matlab-Programme zu verbessern. Teil 1 findet ihr hier.

]]>
https://www.studentenpack.de/index.php/2015/02/improving-matlab-teil-2/feed/ 0
Improving Matlab https://www.studentenpack.de/index.php/2014/12/improving-matlab/ https://www.studentenpack.de/index.php/2014/12/improving-matlab/#respond Mon, 01 Dec 2014 09:30:23 +0000 http://www.studentenpack.uni-luebeck.de/?p=212901 Während des Studiums der mathematisch-technischen Studiengänge an unserer Universität kommt man um ein Programm selten herum: Matlab. Der rechnerische (fast-)Alleskönner ist aus vielen Vorlesungen und insbesondere aus den Übungsbetrieben nicht wegzudenken. Grundvorlesungen wie Numerik 1, Optimierung oder Bild- und Signalverarbeitung, aber auch viele Mastervorlesungen wie Neuroinformatik oder Computer Vision, verlangen meist auf jedem Übungsblatt die Abgabe von Matlab-Programmen oder bauen den Übungsbetrieb komplett auf der Programmierung von Matlab-Algorithmen auf. Doch auch außerhalb des Vorlesungsbetriebes ist Matlab beliebt, sei es bei Projekten oder bei Praktika, die in Richtung Signalverarbeitung gehen. Einer der größten Vorteile Matlabs ist die Vielfalt der Signalarten, mit denen gearbeitet werden kann. Matlab beherrscht sowohl die Verarbeitung von Bildern, Tönen, Funktionen als auch räumlichen Gebilden und ist daher in sämtlichen der oben genannten Fachbereichen sehr beliebt. Zunächst steht man jedoch vor einem großen Problem: Was nützen einem die Funktionen, die Matlab beherrscht, wenn man Matlab selbst nicht beherrscht? Die Einführung in das Programm ist an unserer Uni denkbar schlecht gelungen. Es gibt keine richtige Einführungsveranstaltung. Notgedrungen werden in den früheren Fächern, in denen das Programm benötigt wird, kurze, aber meist wenig zweckdienliche Einweisungen gegeben. Derer gibt es dafür aber umso mehr – einmal in jedem Modul. So wird man kaum richtig warm mit der Programmiersprache, die Matlab nutzt, denn der Wechsel von ständig wiederholter Einführung zur Erwartung, komplexere Algorithmen programmieren zu müssen, geht sehr schnell und abrupt. Das Ergebnis: Es wird sich an den Prinzipien anderer Programmiersprachen irgendwie durchgehangelt – zum Leide der Korrekteure und der Studenten selbst.

Selbst die Frage nach dem Warum kann Matlab treffend beantworten.

Selbst die Frage nach dem Warum kann Matlab treffend beantworten.[media-credit id=51 align="aligncenter" width="640"]

Dabei bietet Matlab, wenn man einmal die Wirkungs- und „Denkweise“ des Programmes begriffen hat, sehr mächtige und effiziente Möglichkeiten. Die größte Stärke von Matlab ist die vektorielle Arbeitsstruktur. Vektoren, Matrizen und Arrays, gefüllt mit den verschiedensten Datentypen (zum Beispiel ganzen Zahlen, Kommazahlen, Buchstaben oder sogar noch komplexeren Typen), sind das A und O bei der Programmierung mit Matlab. Viele Operationen lassen sich gemeinsam auf alle Einträge einer Matrix oder eines Vektors anwenden. Die aus der üblichen Programmierung bekannten for-Schleifen werden dank dieser Rechenweise kaum benötigt. Es gibt sie zwar dennoch, sie werden auch allzu gerne von Studenten genutzt, doch sie sind im Vergleich zur vektoriellen Rechnung um einiges weniger effizient.

Ein kleines einfaches Beispiel: X ist ein Vektor mit 10.000 Einträgen (hier gefüllt mit Zufallszahlen zwischen 0 und 1). In solchen und viel höheren Dimensionen wird in der Realität häufig gearbeitet. Wir entscheiden uns, dass wir lieber Zufallszahlen zwischen -0.5 und 0.5 haben wollen. Eine Möglichkeit, dies zu realisieren ist, jeder Zufallszahl den Wert 0.5 abzuziehen. Mit einer simplen for-Schleife sieht das Ganze so aus:

for i=1:10000

X(i)=X(i)-0.5;

end;

Matlab kann das Ganze aber effizienter berechnen. Addiert oder subtrahiert man nämlich eine Zahl zu einem Vektor oder einer Matrix hinzu, so tut Matlab dies elementweise, also addiert bzw. subtrahiert diese Zahl an jedes einzelne Element der Matrix. Als Code ist es folgender Einzeiler:

X=X-0.5;

Man beachte die fehlende Angabe eines Index i. Das ist gewollt, da so mit ganz X und nicht mit einem Element von X gearbeitet wird. Die Zeitauswertung der beiden Versuche liefert eine Rechendauer im Rahmen <math>10^{-4}</math> für die erste und <math>10^{-5}</math> für die zweite Version. Es mögen beide sehr gering sein; sie unterscheiden sich aber schon bei einer Größe von <math>10^{5}</math> Werten in X um den Faktor 10. Erhöht man die Größe von X auf 10 Millionen Werte, benötigen wir ca. 10 Sekunden für die Version mit for-Schleife und ca. 0.01 Sekunden für den Vektorbefehl. Ein Unterschied um den Faktor 1000.

Eine Rechendauer von 10 Sekunden ist für eine reine Subtraktion offensichtlich unsinnig viel. Dieses leichte Beispiel zeigt, welchen gewaltigen Unterschied es machen kann, mit den Matlab-gedachten Methoden anstatt mit den altbekannten zu arbeiten. Deshalb ist es schon am Anfang lohnend, sich mit der vektoriellen Methodik Matlabs auseinanderzusetzen. Auch wenn es für die Übungszettel im dritten oder vierten Semester kaum einen Unterschied macht, nützt einem das Wissen bei größeren Projekten umso mehr.

Neben der einfachen Addition kennt Matlab einige andere grundlegende Rechenbefehle, die elementweise durchgeführt werden. Sämtliche skalaren Werte können addiert, subtrahiert, multipliziert und dividiert werden. Sogar das Potenzieren ist elementweise machbar. Da der übliche “^“-Befehl jedoch bereits für die Matrixpotenz reserviert ist, muss ein Punkt hinzugefügt werden. Will man zum Beispiel alle Quadrate der Zahlen 1 bis 5 verwenden, so lautet der einfache Befehl

Y=(1:5).^2

und gibt die korrekte Ausgabe

Y = 1 4 9 16 25

Bei der Multiplikation dürfen die normalen Operatoren * bzw. / nicht mit den Operatoren .* beziehungsweise ./ verwechselt werden! Erstere sind nämlich für die Matrizenmultiplikation bzw. die Multiplikation mit der Inversen der Matrix reserviert. Letztere Befehle gibt es ebenfalls. Sie haben aber eine andere, wenn auch nicht weniger praktische Bedeutung. Mit ihnen kann man zwei gleich große Matrizen A und B elementweise multiplizieren oder dividieren – etwas das häufig notwendig ist und gerne auch mit for-Schleifen realisiert wird. Die elementweise Addition zweier Matrizen funktioniert über den einfachen Operator “+“.

Eine Übersicht über die Matlab-Operatoren.

Eine Übersicht über die Matlab-Operatoren.[media-credit id=51 align="aligncenter" width="640"]

Die verschiedenen Operatoren für die einfachen arithmetischen Rechnungen können zum Anfang verwirrend sein. Wann soll welche Multiplikation durchgeführt werden? Will man die Werte wirklich quadrieren oder doch die Matrix mit sich selbst multiplizieren? Um die Übersicht nicht zu verlieren, gibt es hier eine Tabelle, die helfen soll.

Die richtige Wahl des Operators ist dabei wichtig und beeinflusst nicht nur die Korrektheit der Berechnung, auch kann man mit dem richtigen Operator ineffiziente for-Schleifen umgehen, falls diese nur für elementweise Berechnungen genutzt werden. Es gibt natürlich viele andere Situationen, in denen for-Schleifen nicht vermieden werden können. Wo es aber machbar ist und nicht zu sehr zu Lasten der Lesbarkeit fällt, sollten sie so wenig wie möglich verwendet werden.

In der nächsten Ausgabe unserer Zeitung gibt es ein paar Tipps zum Datentyp Boolean und wie man mit diesem if-Abfragen als Matrix-Vektor-Operationen effizienter programmieren kann.

]]>
https://www.studentenpack.de/index.php/2014/12/improving-matlab/feed/ 0
Eine Karte für alle https://www.studentenpack.de/index.php/2013/05/eine-karte-fur-alle/ https://www.studentenpack.de/index.php/2013/05/eine-karte-fur-alle/#respond Mon, 13 May 2013 09:00:39 +0000 http://www.studentenpack.uni-luebeck.de/?p=137439 Aktueller Ausschnitt vom Campus

 Aktueller Ausschnitt vom Campus

CC-BY-SA OpenSteetMap

Was sind die ersten Dinge, die man wissen muss, wenn man sich auf den Weg in eine neue Stadt macht, um zu studieren? Man muss wissen, wo die Uni ist, wo der Bahnhof ist, wo der Bus fährt, und als AutofahrerIn – wie komme ich da und dort hin. Heute wie früher wird „die Karte“ die erste Wahl sein, auch wenn diese heute vermutlich nicht die klassische Karte aus Papier ist, sondern das Handy oder der Kartendienst des großen G. Wer allerdings denkt, dass die heutigen elektronischen Kartendienste alles aktuell bereitstellen, der wird schnell eines Besseren belehrt. Nur weil das Medium moderner ist, müssen die Daten nicht unbedingt besser sein! Es gibt aber dennoch eine Karte, die euch helfen kann, euch in Lübeck und der Welt mit aktuellen Daten zurecht zu finden – OpenStreetMap [1] (kurz OSM). Wenn dann doch einmal etwas fehlt oder ein Fehler vorhanden sein sollte, dann könnt ihr das selber berichtigen – oder zumindest einfach melden.

Dieses Kartenprojekt möchte ich euch hier vorstellen. OSM wurde 2004 in England ins Leben gerufen – mit dem Ziel, eine frei verfügbare Straßenkarte zu erstellen. Man sollte nämlich wissen, dass das Kopieren anderer Karten zwar sehr einfach möglich ist – rauf auf den Kopierer oder via copy/paste und fertig – aber das kann teuer werden, denn im elektronischen Zeitalter hat eine Heerschar Fahnder es darauf abgesehen, möglichst jeden Urheberrechtsverstoß abzumahnen. Zudem ist es so, dass diese Karten in der Regel nicht „leben“. Sie geben nur das wieder, was optisch sichtbar ist. Anders ist dies bei OSM, denn hier kann jeder alles beitragen, was decodiert (lagebezogene Informationen) erfasst werden kann; auch wenn eine einzige Karte dies gar nicht alles anzeigen kann. In den OSM-Daten selbst – und darauf hat jeder kostenfrei Zugriff – stecken sehr viel mehr Informationen und diese kann man z.B. für beliebige eigene Projektarbeiten nutzen. Schon lange ist OSM keine reine „StreetMap“ mehr!

Wie funktioniert OSM denn nun?

Das Projekt organisiert sich nach dem Wiki-Prinzip. Jeder kann Daten einpflegen, berichtigen und löschen. Es herrscht auf der einen Seite ein Chaos, auf der anderen Seite kommt hier die „Intelligenz des Schwarms“ zum Tragen. Als Ronny Bergmann zuletzt über OSM in der Ausgabe 6/2009 vom StudentenPACK geschrieben hat [2], begann er damit, dass ein GPS-Gerät erforderlich wäre, um Wege datentechnisch erfassen zu können. Zwischenzeitlich ist viel Zeit ins Land gegangen und dem Projekt stehen andere Datenquellen zur Verfügung. So dürfen jetzt unter anderem die Luftbilder von Microsoft Bing für die Auswertung herangezogen werden. Man muss dazu wissen, dass einer der Grundsätze von OSM ist: „Zeichne nicht von Datenquellen ab, für die keine Genehmigung vorliegt!“ – noch besser: „Überzeuge Dich selbst vor Ort davon, dass die Daten noch aktuell sind!“. So könnte jetzt zwar der Eindruck entstehen, dass die gesamte Datenerfassung vom Schreibtisch aus gemacht werden kann; dem ist aber bei weitem nicht so! Ständig unterliegt unsere Umgebung Veränderungen und die Daten müssen kontrolliert und ergänzt werden. Gerade darin liegt aber der Reiz des Projektes für jeden der freiwillig Mitwirkenden. Man muss raus und gleichzeitig entdeckt man seine Umgebung.

Ich schreibe diesen Artikel nun nicht ganz uneigennützig. Ich bin selber seit 2008 bei OSM engagiert und zusammen mit anderen Lübecker Mappern (so heißen die bei OSM mitwirkenden Personen) bilden wir die Lübecker Community von OSM, die sich auch immer am ersten Donnerstag im Monat im Feuerwerk [3] (beim ZOB) zum Stammtisch trifft. Zum einen möchten wir natürlich gerne auf unser Projekt hinweisen und auf der anderen Seite suchen wir immer Mitstreiter für das Projekt. Es geht dabei nicht darum, massenhaft Daten zu erfassen. Vielmehr ist uns daran gelegen, die Veränderungen in unserer Umgebung auf dem Laufenden zu halten, denn schließlich können wir in unserer Freizeit nicht immer überall sein.

Es soll an dieser Stelle nicht zu detailliert werden und deshalb möchte ich nachfolgend lediglich noch zwei kleine Aspekte näher beleuchten.

Wie kann man einfach Fehler melden?

Hierzu gibt es eine eigene Webseite namens OpenStreetBugs [11], auf der man mit einem Linksklick an der betreffenden Stelle einen Marker setzen und in einer sich öffnenden Sprechblase dann eine kurze Fehlerbeschreibung und einen Namen angeben kann. Letzteres muss man aber nicht (Kleiner Hinweis: bei komplexen Fehlern sollte man später nochmal nachschauen, ob noch eine Rückfrage gekommen ist). Die Meldungen aus dieser Seite werden dann von anderen Mappern in das Projekt übernommen. Diese Mitwirkung ist die einfachste Art, sich bei OSM ein wenig einzubringen.

Wie kann man einfach die Daten nutzen?

Wo soll ich da anfangen? So vielfältig wie unsere Umgebung, so vielfältig ist auch die Nutzung. Fangen wir an mit der klassischen Karte, die eigentlich gar nicht die Hauptnutzung von OSM ist – hier gibt es für Lübeck den Fahrradstadtplan vom ADFC (zu beziehen in der ADFC-Geschäftsstelle im Werkhof, Kanalstraße 70 und im Buchhandel), der in Zusammenarbeit mit der Lübecker Community entstanden ist. Dieser Fahrradstadtplan gehört zur idealen Erstausstattung für den/die Neu-LübeckerIn, um die Stadt per Drahtesel zu erkundigen. Wer es etwas historischer mag kann die Geschichtskarte [4] nutzen. Weitere Sonderkarten [5 bis 9] und die OSM-Standardkarte [1] seinen an dieser Stelle beispielhaft genannt. Nicht vergessen werden sollte noch für den Nutzer/die Nutzerin eines Android-Smartphones die App OsmAnd [10], mit der man Fußgänger-, Fahrrad und Pkw-Routing betreiben kann. Diese App kann auch eine Vielzahl von weiteren Daten aus dem OSM-Projekt (Öffnungszeiten etc.) bereitstellen.

Komme ich nun wieder zum Anfang zurück – OpenStreetMap, das Kartenprojekt von Jedermann für Jedermann. Ihr seid also alle eingeladen mitzuwirken an dem Projekt und wenn es nur darum geht, den Plan vom Campus aktuell zu halten, um anderen so eine Hilfestellung zu geben. Wenn darüber hinaus Fragen sind, so würden wir uns freuen, den einen oder die eine andere bei uns auf dem Stammtisch mal zu begrüßen!

]]>
https://www.studentenpack.de/index.php/2013/05/eine-karte-fur-alle/feed/ 0
Kampf der Ameisen https://www.studentenpack.de/index.php/2012/02/kampf-der-ameisen/ https://www.studentenpack.de/index.php/2012/02/kampf-der-ameisen/#comments Fri, 10 Feb 2012 13:00:04 +0000 http://www.studentenpack.uni-luebeck.de/?p=2458
Mathis Lichtenberger | StudentenPACK.

Digitale Ameisen auf der Jagd.

AI (Artificial Intelligence) steht für künstliche Intelligenz. Dabei handelt es sich hier nicht unbedingt um Roboter, die es auf die Weltherrschaft abgesehen haben, eher um KI-Spieler, wie wir sie aus Computerspielen kennen.

Genau darum geht es bei der von Google gesposerten AI Challenge (http://aichallenge.org), einem internationalen Programmier-Wettbewerb, der vor 4 Jahren an der Universität Waterloo entstanden ist und mittlerweile unentgeltlich von Freiwilligen organisiert wird. Der Wettbewerb findet in unregelmäßigen Abständen statt. Jedes Mal wird ein anderes Spiel bereitgestellt und KI-begeisterte Programmierer aus der ganzen Welt können Computerspieler schreiben, die dann gegeneinander um den ersten Platz in der Rangliste kämpfen. Einen Preis gibt es dabei nicht zu gewinnen, der vorletzte Gewinner konnte sich jedoch so seinen Job bei Google sichern.

In dem aktuellen Spiel ging es darum, eine Ameisen-Kolonie zu kontrollieren. Jeder Spieler startet mit einem oder mehreren Ameisenhügeln in den labyrinthartigen Karten, auf denen sich zu Beginn je eine Ameise befindet. Die Aufgabe des Computerspielers besteht nun darin, in jedem Zug für jede eigene Ameise anzugeben, in welche Himmelsrichtung sie sich ein Feld weiter bewegen soll. Gelangt eine Ameise zu einem der während des Spiels zufällig verteilten Futterstückchen, so bekommt der Spieler eine weitere Ameise, die aus einem der eigenen Hügel kriecht. Im Laufe eines Spiels wächst die Größe der Kolonie meist auf mehrere hundert Ameisen an, je mehr desto besser. Interessant wird es nun, wenn sich feindliche Ameisen sehr nahe kommen, denn dann werden diese automatisch in einen Kampf verstrickt. In einer Eins-gegen-Eins-Situation sterben beide, bei Zwei-gegen-Eins stirbt nur die allein kämpfende. Für mehr Ameisen gibt es ein komplizierteres System, so dass es zu komplexen Kampfformationen im Spiel kommt. Ziel des Spiels ist es, die meisten Punkte zu sammeln. Dabei bekommt man zwei Punkte für jede Vernichtung eines gegnerischen Hügels (Vernichten bedeutet, mit einer eigenen Ameise auf das Feld zu treten), jeder Verlust eines Hügels verringert den Score um einen Punkt. Ein Spiel wird mit bis zu 10 Spielern gleichzeitig gespielt und es dauert maximal 1000 Züge bis der Gewinner fest steht. Die Computerspieler haben pro Zug nur eine halbe Sekunde Bedenkzeit.

Für mich (im 3. Semester Informatik) begann alles schon im Juli des letzten Jahres. Auf der Suche nach Ablenkung, um bloß nicht für die bevorstehenden Klausuren lernen zu müssen, bin ich auf die AI Challenge gestoßen. Zum damaligen Zeitpunkt befand sich der Wettbewerb noch in der Vorbereitungsphase, etwa 200 Beta-Tester hatten schon Computerspieler hochgeladen. Ich war von dem Spiel begeistert und habe es schon nach wenigen Versionen geschafft, recht weit oben in der Rangliste vertreten zu sein.

Mitte August, während ich an der Wakenitz saß und mit den kleinen Robotik-Segelbooten von Professor Schläfer beschäftigt war, schafften es meine Ameisen zum ersten Mal ganz nach oben und blieben auch mehrere Wochen an der Spitze der Rangliste. Erst im Oktober waren die Organisatoren endlich soweit, dass der Wettbewerb offiziell starten konnte. Zum Entsetzen der meisten Beta-Tester hatten die Organisatoren aber überraschenderweise eine gravierende Regeländerung ausgeheckt. Bis dahin gab es noch keine Hügel, jeder Spieler startete mit einer Ameise und neue Ameisen sind direkt beim Futter entsprungen. Und plötzlich waren die Hügel da, wenige Tage bevor es offiziell los ging! Im Nachhinein war diese Änderung sehr sinnvoll, das Spiel wurde dadurch deutlich interessanter, die Punktevergabe einfacher und außerdem hatten die Beta-Tester nicht mehr so einen großen Vorteil gegenüber Neueinsteigern.

Nur wenige Tage nach dem offiziellen Start hatten sich bereits mehrere tausend Programmierer angemeldet und der Wettbewerb war in vollem Gange. Und ich, immer noch geschockt von der Regeländerung, hatte meine KI noch nicht auf die Hügel angepasst. Eine Woche nach dem Start war meine erste Version dann endlich einsatzbereit. Beim Hochladen hätte ich niemals erwartet, dass sie über einen Monat lang alle anderen Spieler dominieren würde, aber so kam es. Mein Bot, unter dem Benutzernamen xathis (sehr kreativ, Mathis mit X statt M) verharrte auf Platz #1, jeden Tag unterhielten sich meine Konkurrenten im Chat über meine Spiele und urteilten über meine Strategien, im AI-Challenge-Forum wurden eigene Themen über meinen Spieler erstellt.

Ich könnte Ewigkeiten über die Implentierung meiner Strategie erzählen (habe ich auch, in meinem englischen AI Challenge Post Mortem auf http://xathis.com), aber hier werde ich mich kurz fassen, um nicht allzu technisch zu werden. Allgemein habe ich kaum eine globale Strategie. Stattdessen hängt die Bewegung der meisten Ameisen ausschließlich von der lokalen Umgebung ab, aus dem Zusammenspiel ergibt sich aber ein insgesamt komplexes Gesamtverhalten.

Für fast alle Aufgaben im Spiel, wie die Erforschung der Karte, das Futtersammeln und die Verteidigung, waren Algorithmen zur Pfadfindung wichtig. Die Algorithmen, die Professor Linnemann in der überaus spannenden Vorlesung Algorithmen und Datenstrukturen erklärt, wie zum Beispiel die Breitensuche oder die Suche mit dem gerichteten A*-Algorithmus, sind also tatsächlig zu etwas zu gebrauchen! Dabei kann man sich das karogitterähnliche Spielfeld als Graph vorstellen, bei dem jedes besuchbare Feld ein Knoten im Graph ist und je zwei benachbarte Felder mit einer Kante verbunden sind. Das Futtersammeln etwa lässt sich nun realisieren, indem wir eine Breitensuche von dem Feld jedes Futterteilchens aus starten, die gleichmäßig in alle Richtungen nach einer eigenen Ameise sucht und diese Richtung Futter schickt.

Die Kampftaktik erwies sich als die größte Herausforderung, hier gibt mehrere mögliche Herangehensweisen. Ich habe mich in Kampfsituationen dafür entschieden, die Ameisen in Gruppen einzuteilen und für diese Grüppchen einen Zug voraus zu berechnen. Da eigene und gegnerische Züge gleichzeitig stattfinden, reicht es nicht, nur zu überlegen, welche eigenen Züge am sinnvollsten sind, man muss auch bedenken, wie die gegnerischen Ameisen im nächsten Zug stehen könnten. Umgesetzt habe ich die Vorausberechnung mit dem Minimax bzw. Alphabeta Algorithmus, auf dem auch moderne Schachcomputer basieren. Dabei wird zur Laufzeit ein Baum der möglichen Züge erstellt und per Tiefensuche durchlaufen. Der Verzweigungsgrad dieses Baumes ist abhängig von der Anzahl an Ameisen für die wir vorausberechnen. So müssen schon bei 8 Ameisen, die jeweils 4 mögliche Züge haben, über 65000 Kombinationen betrachtet und ausgewertet werden.

Der Wettbewerb bietet eine große Palette an möglichen Programmiersprachen: von C++, C#, Java über Python und Ruby bis hin zu PHP, JavaScript und sogar Pascal sowie Visual Basic sind unterstützt. Ich habe für meinen Bot Java gewählt, da Java recht schnell ist und ich mit der Sprache und der Entwicklungsumgebung Eclipse schon länger gut vertraut bin. Mein Code ist nicht sehr schön, er widerspricht vermutlichen allen Maßstäben der sauberen Programmierung, die wir Informatiker im Softwaretechnik-Praktikum in unserem 4. Semester über uns ergehen lassen müssen. Die Hauptklasse Strategy.java hat 1800 Zeilen Code, was vergleichsweise wenig ist, wenn man bedenkt, dass das Softwaretechnik-Praktikum um die 12000 Zeilen beinhaltet. Wie die meisten anderen Top-Platzierten, habe auch ich meinen Code nach dem Wettbewerb veröffentlicht, ihr könnt ihn euch auf http://github.com/xathis ansehen.

Die Uni Lübeck war bei der AI Challenge gut vertreten, neben mir haben noch 20 weitere Studenten einen Computerspieler hochgeladen. Während des Wettbewerbs haben wir ein Treffen im Keller der Metameute organisiert, um unsere Spieler lokal gegeneinander antreten zu lassen und uns über Strategien auszutauschen. Einer der Kommilitonen ist Ruben Beyer, der es auch in die Top 50 geschafft hat. Er sicherte sich Platz #39 und ist damit drittbester Deutscher geworden.

Nach der anfangs starken Führung meiner ersten Version im offiziellen Wettbewerb und über einem Monat auf Platz #1, kam unweigerlich der Zeitpunkt, an dem mich einer nach dem anderen in der Rangliste überholte. Ich war natürlich eifrig dabei, meine Version 2 zu entwickeln, aber jeder Versuch einer Verbesserung führte in anderen Situationen zu einer Verschlechterung des Spielverhaltens. Auf meinem Computer konnte ich meine verschiedenen Versionen gegeneinander antreten lassen, es ist mir nicht gelungen, eine KI zu schreiben, die fast immer gegen meine erste Version gewann. Trotzdem war ich mir dann eine Woche vor Ende des Wettbewerbs sicher genug und traute mich, die zweite Version hochzuladen, die von meinen Konkurrenten mit hohen Erwartungen angenommen wurde. Und tatsächlich gelang es meinem Spieler die Erwartungen zu erfüllen, ich schoss wieder an die Spitze! In den letzten Tagen vor Ende des Wettbewerbs und Beginn des Finales herrschte viel Wirbel in der Rangliste, da viele der Teilnehmer neue Versionen bereit hatten.

Am 19. Dezember wurde dann das Einsenden neuer Versionen gesperrt und das 5-tägige Finale begann. Ab diesem Zeitpunkt hatte keiner der Teilnehmer mehr einen Einfluss, Daumen drücken und hoffen war alles, was ihnen blieb. Mittlerweile hatten knapp 8000 Leute ihre Computerspieler hochgeladen. Fairerweise muss man dazu sagen, dass nur zwei- bis dreitausend davon ernsthaft etwas programmiert hatten, die meisten restlichen hatten Starter-Pakete hochgeladen, die nur zufällige Züge machten. Ich hatte kurz vor Beginn des Finales noch eine dritte Version meines Spielers hochgeladen, die allerdings nur kleine Bugfixes enthielt, sodass kaum ein Unterschied zur 2. Version festzustellen war.

Im Finale wurden um die 170 Spiele mit jeder KI gespielt, die nach einigen Tagen innerhalb der ersten 500 Platzierungen lag, die Spiele konnten online angesehen werden und auch die Veränderungen in der Rangliste waren jederzeit abrufbar. Nach wenigen Spielen war ich auf meinem Stammplatz an der Spitze der Rangliste angekommen, doch es sollte noch sehr spannend werden.

Das Finale war zeitlich ausgerechnet so gelegt, dass es nach deutscher Zeit um 3 Uhr morgens am 24. Dezember (Heiligabend!) endete. Um 0:00 Uhr war noch alles in Ordnung, doch der Benutzer GreenTea aus Russland kam mit seinem Punktestand in der Rangliste immer dichter an mich heran. Ich lenkte mich ab, indem ich meinem Post Mortem (ein Artikel, in dem ich erkläre, was mein Code tut) den letzten Schliff verlieh, doch alle paar Minuten war die Spannung zu groß und ich aktualisierte die Rangliste. Gegen halb eins, 150 Minuten vor dem Ende, geschah es dann tatsächlich: GreenTea übernahm den ersten Platz und ich rutschte auf die #2. Shit, ich war so dicht dran! Innerlich hatte ich die Hoffnung schon fast aufgegeben, aber dann endlich ließ seine Glückssträhne nach und ich kam wieder dichter an ihn heran. Nervenaufreibender hätte es nicht sein können. Um 2:30 waren wir gleichauf, jedes einzelne Spiel war entscheidend.

Ich starrte auf den Countdown auf der Website. 00:00:03… 2… 1… Endlich stand der Stundenzeiger der Uhr waagerecht und der Countdown bliebt bei null stehen. 3 Uhr nachts und ich war immer noch über GreenTea an der Spitze der Rangliste.

Erleichtert, aber immer noch leicht zitternd, änderte ich den Anfang meines Post Mortems auf die obligatorischen zwei Sätze, die bereits von den Gewinnern der beiden vorigen Wettbewerbe genutzt worden waren:

„I can’t believe I won.

I can’t believe I won decisively at all.“

]]>
https://www.studentenpack.de/index.php/2012/02/kampf-der-ameisen/feed/ 1
Frischer Wind für grüne Unis https://www.studentenpack.de/index.php/2011/12/frischer-wind-fur-grune-unis/ https://www.studentenpack.de/index.php/2011/12/frischer-wind-fur-grune-unis/#respond Tue, 13 Dec 2011 06:00:06 +0000 http://www.studentenpack.uni-luebeck.de/?p=2189 Mit einem ambitionierten Plan macht die Universität Greifswald derzeit Schlagzeilen: Dem Senat der Universität wurde bereits im Juni der Plan vorgestellt, dass die Universität bis 2015 Klimaneutral werden soll. Angestoßen hatte die Idee Professor Martin Wilmking. Wie die Studentische Website “WebMoritz” berichtete unterstützte nach einer Diskussion der Senat die Umsetzung des Planes welcher z.B. den Einsatz einer eigenen Windkraftanlage, Biomasse und Energiesparmaßnahmen an der Uni beinhaltet.

Die Universität zu Greifswald mit ihren 12.000 Studenten erzeugt 8000 Tonnen an Kohlendioxid pro Jahr. Dieser Herr zu werden ist nicht einfach, doch die Universität verfügt über einen Vorteil: Sie ist die Universität mit den meisten Wald-, Acker- und Grünlandflächen in ganz Deutschland. Ca. 5000 der 8000 Tonnen CO2 werden dadurch bereits kompensiert.

Inzwischen hat das Rektorat sich ebenfalls hinter den Plan gestellt und eine Koordinationsstelle eingerichtet. “Bei dem Datum 2015 oder 2016 handelt es sich um eine umsetzbare Möglichkeit” betont Professor Wilmking. “Das ist ein Fahrplan, den man erreichen kann, das hängt aber auch davon ab wie schnell das Planungsverfahren abgeschlossen wird, ob alle Teile für die Windkraftanlage lieferbar sind, und vielen mehr.”

Eine weitere Hürde ist natürlich immer das Geld. Eine Windkraftanlage ist eine Investition von fünf Millionen Euro, die ersteinmal getätigt werden muss. Zwar amortisiert sich eine solche Anlage nach einigen Jahren doch dafür muss das Geld vorhanden sein.

Gelingt eine Umsetzung bis 2015 wäre die Universität Greifswald die erste eigenständig CO2 neutrale Universität. Mit gutem Beispiel geht die Leuphana Universität Lüneburg voran, einer ihrer Campi ist bereits klimaneutral. Die Organisation setzt insbesondere auf die Nutzung externer, klimaneutraler Angebote: Sie kauft ausschließlich Ökostrom, verschickt Briefe lediglich mit dem GoGreen-Angebot der deutschen Post. Bei Sanierungen versucht man nachhaltig zu denken. Die Verbleibenden Emissionen werden durch CO2-Zertifikate ausgeglichen. Eine Möglichkeit die jeder Uni offen steht. “Theoretisch”, so Wilmking “könnte jede Uni morgen CO2-neutral sein, wenn man einfach Verschmutzungszertifikate einkauft.”

Emissionshandel beinhaltet der Plan von Wilmking nicht, und auch den Strom möchte er langfristig nicht Einkäufen. “Ein einziges neues Windrat kann die gesamte Universität in der Summe mit Strom versorgen”

Auch auf dem Standortvorteil möchte sich Professor Wilmking nicht ausruhen. “Ländereien sind eine Brückentechnologie” betont der Landschaftsökologe “selbst wenn wir einen Wald nutzen um CO2 zu binden, bindet dieser ja auch nicht ewig.” Langfristig muss es natürlich möglich sein, unabhängig von der Größe bewaldeter Flächen CO2-neutral zu agieren. Das Team um Professor Wilmking hofft in der Zukunft einen Blueprint für andere Universitäten zu entwickeln.

Klar sei, dass es zuerst darum gehen muss, den ökologischen Fußabdruck der eigenen Universität zu erfassen. Dieser setzt sich insbesondere aus drei Faktoren zusammen, dem Stromverbrauch, welcher allein meist für die hältfe des CO2-Ausstoßes verantwortlich ist, der Beheizung sowie Dienstreisen.

Der Campus der Universität zu Lübeck und des UKSH haben für die Jahre 2008 bis 2012 jeweils Emissionszertifikate für 11.555 Tonnen CO2 gekauft, davon ist der mit Abstand größere Verbraucher das Krankenhaus. Für eine Universität lübscher Größe schätzt Professor Wilmking grob auf einen Ausstoß zwischen 3000 und 5000 Tonnen CO2 pro Jahr. Die ersten Schritte, die jede Uni gehen kann, unabhängig von ihrer Lage, ist der Wechsel zu Ökostrom. Im weiteren kann man mit den Stadtwerken in einen Dialog bezüglich der Wärmeversorgung treten und eventuell Emissionzertifikate kaufen. Zudem sollte bei Bauvorhaben und Sanierungen darauf geachtet werden, dass die Gebäude energieeffizient sind.

Der AStA der Universität zu Lübeck, der eine Nachhaltigkeitswoche durchführte, hat sich bisher nicht mit der Leitung der Universität zusammengesetzt um auf solche Projekte hinzuwirken. Bei den Aktionen ginge es ersteinmal darum, unter den Studenten nachhaltigen Konsum und politische Verantwortung zu fördern. Langfristig kann das Referat für Kultur, Umwelt und Sport sich aber gut Vorstellen auch in die Richtung der Leitung der Universität in Aktion zu treten.

Für Wilmking ist die CO2-Neutralität nur der erste Schritt, “Ob man diese Neutralität dann wirklich exakt erreicht ist gar nicht so wichtig, Hauptsache die Menschen fangen an zu denken.” Ein Bewusstsein für den Einfluss auf die Umwelt zu Entwickeln sei von großer Bedeutung. “Es geht darum eine Bewegung zu initiieren” ist Professor Wilmking überzeugt, “und CO2-Neutralität ist nicht das Ende der Fahnenstange, das Ziel ist eine komplett nachhaltige Hochschule”, also eine Universität in der man sich auch der Umweltschädigung durch Abfall oder Abwasser annimmt. Dabei setzt das Greifswalder Team auch auf die Studenten in Deutschland: “In den alten Bundesländern gibt es bereits viele Studenteninitiativen, die dieses Thema bearbeiten.”

]]>
https://www.studentenpack.de/index.php/2011/12/frischer-wind-fur-grune-unis/feed/ 0
Bilder nachbauen mit Bauklötzen https://www.studentenpack.de/index.php/2011/06/bilder-nachbauen-mit-bauklotzen/ https://www.studentenpack.de/index.php/2011/06/bilder-nachbauen-mit-bauklotzen/#respond Mon, 13 Jun 2011 07:00:02 +0000 http://www.studentenpack.uni-luebeck.de/?p=1264 Überträgt man ein Bild im Internet, etwa eines, das man per E-Mail verschickt, kann man sich das vorstellen, wie das Erzählen einer Geschichte. Der Computer überträgt Stück für Stück die Details des Bildes, so wie ein Autor eine Geschichte erzählt. Dabei darf natürlich nichts verloren gehen. Was der Computer sich dabei jedoch wünscht, ist, dass er wenig erzählt. Denn je weniger er erzählt, desto kleiner ist die E-Mail, desto kürzer muss er selbst das Bild versenden bzw. der Empfänger zuhören. Ein Bild auf einem Computer besteht aus vielen Pixeln, also einzelnen Bildpunkten. Eine übliche Kamera produziert heute Bilder mit 12 Megapixeln, also 12 Millionen mal die 3 Werte für den Blau-, Rot- und Grünanteil. Ohne das zusammenzufassen – auch komprimieren genannt – zu einer kürzeren Form, würde das niemand per E-Mail bekommen wollen.

Eine Möglichkeit, die „Geschichte des Bildes“ zusammenzufassen, sind Wavelets, namentlich eine französisch-englische Mischung, die „kleine Welle“ bedeutet. Um deren Idee zu verstehen, betrachten wir unser Bild zunächst aus einer anderen Perspektive. Zunächst beschränken wir uns auf ein Schwarz-weiß-Bild, die Idee lässt sich später auf die 3 Farbkanäle einzeln anwenden. Legt man dieses Bild nun auf den Boden und baut darauf ein Gebirge, in dem ein Punkt umso höher liegt, je heller er ist, dann wird eine Kante im Bild – wie etwa an den Rändern der Buchstaben auf dieser Seite – in diesem Gebirge zu einer Klippe, der Teppich im Wohnzimmer zu einem Plateau. Beschreibt man das Bild nun über die Höhen der einzelnen Pixel im Gebirge, hat man die alte Beschreibung wieder.

Die Idee der Wavelets ist nun, das Gebirge mit Bauklötzen nachzubauen, die in allen unterschiedlichen Größen vorliegen. Der Einfachheit halber nehmen wir hier auch erstmal nur rechteckige Klötze, also etwa Lego-Steine, nur dass wir auch die Duplo-Größe dabei haben und eine feinere Variante von Lego und noch viele andere Größen. Zum Nachbauen gibt es zwei Regeln: Einen Stein, den man setzte, wählt man so groß wie möglich, dass er noch nicht über das eigentliche Bildgebirge hinausragt. Außerdem darf die Kante des Klotzes nicht nur halb auf einem Pixel liegen oder zu einem Viertel, sondern nur ganz oder gar nicht. Das schränkt sowohl die Größen der Klötze als auch die Positionen ein, an die diese gelegt werden können. Die Größe des Klotzes lässt sich also in Länge und Breite in Pixeln und in der Höhe in Anzahl Farbstufen angeben. Die Verschiebung kann immer in ganzen Pixelschritten angegeben werden.

Ein weißer Strich in einem Bild lässt sich also durch einen schmalen, sehr hohen (weiß waren die Bergspitzen im Gebirge) Klotz beschreiben. Weite Flächen können dann durch wenige große Steine beschrieben werden, nur an ihren Rändern benötigt man für die Details wieder mehr Steine. Den Plan schreibt man dann – beginnend bei den großen Steinen – auf. Kennen beide Computer die Menge aller möglichen Bausteine, muss nur noch der Plan ausgetauscht werden.

Durch die Anordnung im Plan ergibt sich, dass bereits dann, wenn der Empfänger einen kleinen Teil empfangen hat, er die ersten Teile des Bildes anzeigen kann. Je mehr er empfängt, desto mehr Details kann er anzeigen. Das ist auch praktisch für Handys, die mit ihrer knappen Empfangsrate einfach bei genügend Details für ihr Display aufhören können. Vielleicht laden sie dann bei Bedarf nach, wenn jemand ins Bild hineinzoomt.

Die Menge der Bausteine muss gut gewählt werden, denn sind es zu viele, benötigt man zum Erzählen, welchen Baustein man denn meint, wieder zu viel Zeit. Daher beschränkt man sich auf ganz wenige Bausteine und gibt ihnen zusätzlich eine Skalierung (um wie viel vergrößert, üblicherweise beschränkt auf die Werte 2, 4, 8, …) und eine Rotation mit. Bei den obigen also, ob sie horizontal oder vertikal liegen, denn mehr lässt die zweite Regel nicht zu.

Großer Nachteil dieser Art Bauklötze ist, dass sie sehr auf horizontale und vertikale Linien im Bild „abfahren“, diese also zwar schnell erfassen können, aber auch erzeugen, wenn man nur den Anfang des Plans hat. Dadurch nähern sie ein Bild erst dann gut an, wenn der Empfänger viele Detailstufen des Plans kennt. Dem kann man abhelfen, indem man den Stein rundherum ein wenig größer macht – dann verletzt er an sich die zweite Regel – und dann geschickt die Kanten anschrägt, vielleicht sogar nette Kurvenformen an den Kanten fräst. So entstehen glatte Bausteine. Allerdings hakt dann an dieser Stelle das Bild der Bauklötze, denn man kann sie nun nicht mehr so schön stapeln wie bisher, sondern muss sich vorstellen, dass die Bausteine wie kleine Nägel gebaut sind. Auf einer Ebene haben sie ihre Bauklotzform (mit den kurvigen Rändern), stellt man sie aufeinander, sacken die Nägel hinunter auf die Oberfläche der Bausteine unter sich und bilden so das Gebirge.

Möchte man diese Idee für ein gegebenes Bild und eine Menge von Bauklötzen auf dem Computer umsetzen, so gelangt man mathematisch in tiefe Raumtheorie, spätestens dann, wenn es darum geht, sowohl das Zerlegen eines Bildes als auch das Anzeigen schnell zu berechnen.

Das Erste ist die Analyse des Bildes und beschäftigt sich also zum Einen damit, wie gut die Bauklötze bestimmte Formen annähern können, die sogenannte Approximationsgüte. Zum Anderen aber damit, den Plan zu erzeugen, also Form und Position einzelner Bauklötze im Bild zu finden. Um das zu berechnen, müssen die Grundformen weitere – mathematische – Eigenschaften erfüllen. Ähnliche Probleme ergeben sich mathematisch auch beim – an sich gar nicht so kompliziert klingenden – Zusammenbau, der Synthese, des Bildes, vor allem, wenn diese schnell berechenbar sein soll.

Seinen Ursprung hat die Wavelet-Theorie zu Beginn der 1990er Jahre in der Verarbeitung von Audio-Signalen. Die Bauklötze waren zu Beginn Formen, die nur einen kleinen Bereich beschrieben und aus trickreich gewählten Sinus- und Kosinus-Summen gebildet wurden. Kleine – lokale – Wellen. Für Bilder ergibt sich die zusätzliche Herausforderung, den Bauklötzen Richtungspräferenzen mitzugeben. Wenn man beispielsweise ein Meer von oben fotografiert, wird es Wellen in eine bestimmte Richtung geben. Wählt man seine Grundformen so, dass sie diese berücksichtigen und kann diese kurz beschreiben, so wird der Plan zum Nachbauen sehr kurz. Denkt man weiter an 3D-Daten wie Videos, 4D-Daten wie Raumtemperaturvideos, so lässt sich das Prinzip auch da anwenden. Oder auf noch höheren Daten – das stelle man sich aber lieber nicht mehr vor. Auch hier liegt die Herausforderung darin, schnelle Algorithmen zu entwickeln, die kleine Beschreibungen der Daten erzeugen.

 

]]>
https://www.studentenpack.de/index.php/2011/06/bilder-nachbauen-mit-bauklotzen/feed/ 0
Antworten auf (fast) alle Fragen https://www.studentenpack.de/index.php/2011/01/antworten-auf-fast-alle-fragen/ https://www.studentenpack.de/index.php/2011/01/antworten-auf-fast-alle-fragen/#respond Mon, 17 Jan 2011 19:24:04 +0000 http://www.studentenpack.uni-luebeck.de/?p=1905 Wir leben im Informationszeitalter. Kommunikationsnetzwerke umspannen den Planeten und ermöglichen auch in den entlegensten Winkeln der Welt Zugriff auf das World Wide Web und damit – vereinfacht gesagt – unter anderem auf das gesammelte Wissen der Menschheit. Doch beinhaltet diese immense Informationsansammlung wirklich Antworten auf alle Fragen? Und ist das überhaupt möglich? Wohl eher nicht.
Das Web in seiner derzeitigen Form und viele andere Informationsquellen sind wie eine riesige Bibliothek, deren Bücher zwar zumeist Verweise auf andere Bücher, in denen man mehr erfahren kann, enthalten – die dem eigentlichen Inhalt zugrunde liegenden Daten verbleiben jedoch im Verborgenen. Die Bibliothek kann zu Fragen, die andere Personen bereits gestellt haben, Antworten geben. Was ist, wenn man eine Frage hat, die nie gestellt wurde? Was, wenn man Zweifel an einer Antwort hat und nachvollziehen möchte, wie sie entstanden ist?

Befreit die Daten!

Open Data nennt sich eine Bewegung, die das Ziel verfolgt, freien Zugriff auf möglichst viele Rohdaten und damit deren uneingeschränkte Nutzung, Interpretation und Weiterverarbeitung für jeden, der daran Interesse hat, zu ermöglichen. Die Bewegung ist verwandt mit der Praxis des Open Access, also der freien Veröffentlichung wissenschaftlicher Artikel – zusätzlich oder gar an Stelle der Veröffentlichung über einen Verlag. Anders als Open Access, wofür es bereits einige ausgearbeitete Definitionen und Strategien in der wissenschaftlichen Gemeinschaft gibt, ist der Begriff Open Data aber noch eher schwammig gefasst und derzeit mehr eine übergeordnete Philosophie verschiedener Bestrebungen und Projekte.

Rohdaten können z.B. Ergebnisse wissenschaftlicher Experimente, staatlich erhobene Statistiken, Geodaten, also Positionsangaben zu bestimmten Objekten, oder auch Fahrpläne von öffentlichen Verkehrsmitten sein.

Viele solche Daten sind nur einem eingeschränkten Personenkreis oder nur gegen Zahlung zugänglich, sie werden abgeschottet aufbewahrt und die Nutzungsrechte eingeschränkt. Dafür kann es verschiedene Gründe geben: datenschutzrechtliche Bedenken, staatliche oder betriebliche Geheimnisse, der Wunsch, die Deutungshoheit über bestimmte Daten zu behalten, finanzielle Vorteile, etc. Doch ebenso einfach lassen sich Argumente für die Aufhebung von Schranken und die Freigabe zum Nutzen der Allgemeinheit finden: Rohdaten sind Fakten und sollten niemandem „gehören“. Insbesondere Daten aus Medizin- und Umweltforschung sollten schon aus moralischen Gründen jedem zugänglich sein. Hinzu kommt, dass sowohl wissenschaftliche als auch staatlich erhobene Daten mit öffentlichen Geldern finanziert wurden. Zu guter Letzt steigt die Geschwindigkeit der Gewinnung neuer Erkenntnisse mit der Anzahl der Personen, die einen Datenbestand betrachten.

Das Recht auf Information

Ein Begriff, der im Zusammenhang mit Open Data immer wieder fällt, ist Open Government. Auch dies ist ein Sammelbegriff verschiedener Konzepte, die Offenheit und Nachvollziehbarkeit staatlichen Handelns in Regierung und Verwaltung fördern sollen. Neben der Offenlegung von Handlungsgrundlagen umfasst dies auch verstärkte Beteiligung der Bevölkerung an Entscheidungsprozessen, etwa bei Großprojekten.
Selbst wenn die Philosophie des Open Government sich nur allmählich durchsetzen wird, so gibt es immerhin mittlerweile in vielen Ländern Gesetze, die der Bevölkerung – teilweise gegen Gebühr – ein Recht auf Einsicht in Regierungsdokumente gewähren; angefangen in Schweden, wo dies bereits im 18. Jahrhundert eingeführt wurde, über den seit 1966 bestehenden „Freedom of Information Act“ in den USA bis hin zum deutschen Informationsfreiheitsgesetz, welches am 1. Januar 2006 in Kraft trat. Es gibt zwar weiterhin Ausnahmen, etwa bei personenbezogenen Daten oder militärischen Geheimnissen, und Ablehnungen, die Kritik hervorriefen, jedoch stellen die Gesetze eine Abkehr vom Amtsgeheimnis dar: Anstatt den Antrag auf die Erteilung einer Information speziell begründen zu müssen, bedarf nun die Ablehnung eines solchen Antrags einer Begründung.

maschinenlesbare Regierung

Bereits Ende der 80er Jahre forderte der Chaos Computer Club eine „maschinenlesbare Regierung“. Der Staat soll also nicht nur allerhand Information freigeben, dies soll auch noch in einer Form geschehen, die eine einfache computergestützte Verarbeitung ermöglicht und nicht nur Dokumente darstellt, welche von Menschen gelesen werden können.

Mehr als 20 Jahre später hat sich der Wunsch des CCC leider noch nicht wirklich erfüllt. Allzu oft kommt es vor, dass Daten zwar verfügbar sind, jedoch z.B. als Tabelle in einer PDF-Datei oder als Fließtext auf Webseiten vorliegen und in mühevoller Handarbeit oder mit fehleranfälligen automatisierten Verfahren in eine Form überführt werden müssen, in der sie weiterverarbeitet werden können. Gerade bei Rohdaten, die heutzutage ohnehin in irgendeinem standardisierten Format vorliegen dürften, ein eigentlich überflüssiger Aufwand.

Dennoch gibt es glücklicherweise Personen, die Zeit und Mühe investieren und einen Vorgeschmack auf das geben, was möglich ist. So sind unter anderem interaktive Visualisierungen des Bundeshaushaltes (bund.offenerhaushalt.de) und der Parteispenden (labs.vis4.net/parteispenden) entstanden.

Wohin geht die Reise?

Wie es besser geht, beweisen die USA und Großbritannien mit ihren Websites www.data.gov und data.gov.uk, die eine große Vielfalt an Daten in verschiedenen Formaten bereitstellen – von der Wasserqualität einzelner Flüsse bis hin zur Anzahl der ausgesprochenen Bußgelder für Graffitis oder nicht beseitigte Hundehaufen, aufgelistet nach Stadtteilen. Entsprechende Lizenzen garantieren dabei die freie Nutzung. Darüberhinaus bieten die Websites Diskussionsplattformen wo Verbesserungsvorschläge geäußert und auch erwünschte Daten angefordert werden können und ermöglichen es Nutzern, die mit Hilfe der Daten entstandenen Anwendungen zu präsentieren.

Am Aufbau der britischen Website war unter anderem kein geringerer als Tim Berners-Lee beteiligt, der Anfang der 90er Jahre das World Wide Web aus der Taufe hob. Er prägt derzeit einen neuen Begriff: Linked Data. Die Daten sollen nicht für sich alleine stehen. So wie Websites mit Links untereinander verknüpft sind, sollen einzelne Datensätze Adressen haben und über diese Beziehungen untereinander ausdrücken können. Auf diese Weise werden sich größere Zusammenhänge maschinell erkunden lassen, ähnlich wie wir Menschen beispielsweise durch die Wikipedia navigieren. Die Reise hat begonnen und aus Linked Data entsteht die nächste Generation des World Wide Web: das Semantic Web.

]]>
https://www.studentenpack.de/index.php/2011/01/antworten-auf-fast-alle-fragen/feed/ 0
Was tun gegen Produktpiraterie? https://www.studentenpack.de/index.php/2011/01/was-tun-gegen-produktpiraterie/ https://www.studentenpack.de/index.php/2011/01/was-tun-gegen-produktpiraterie/#respond Mon, 17 Jan 2011 19:00:43 +0000 http://www.studentenpack.uni-luebeck.de/?p=106018 Und da ist es wieder: das Wort Produktpiraterie. Nur geht es diesmal nicht ausschließlich um die direkte Materie, sondern eher um Urheberrechtsverletzungen (noch so ein Wort) im Internet.

Wie kann man im World Wide Web die Rechte der Produzenten, Autoren und Musiker sichern?

Diese Frage versuchen seit 2007 einige Länder unter Ausschluss der Öffentlichkeit zu beantworten, um untereinander ein Abkommen zu schließen, welches eben diese Rechte stärkt. Es geht also um die Rechte am geistigem Eigentum.

Hintergrund

Zu den Teilnehmern gehören die Vereinigten Staaten von Amerika, Kanada, Südkorea, Schweiz, Singapur, Australien, Neuseeland, Mexiko, Marokko und Jordanien. Außerdem sind die Europäische Union und die Vereinigten Arabischen Emirate vertreten.

Das Ziel ist es, ein internationales Rahmenkonzept zu finden, welches die Durchsetzung der Gesetze zu den Urheberrechten verbessern soll. Die Übereinkunft soll die Zusammenarbeit und gegenseitige Hilfe der Teilnehmerstaaten stärken, die Strafverfolgung vereinfachen und die Durchsetzung der Urheberrechte legalisieren.

Der endgültige Vertragstext wurde am 3. Dezember 2010 vorgelegt und kann nun ab dem 31. Dezember 2010 im europäischen Parlament abgestimmt werden.

Beispiel

In Zukunft sollen Dritte für Internet-Inhalte haftbar gemacht werden, das heißt, stiftet man auf der eigenen Seite zu Copyright Verletzungen an und tun dies andere auf der eigenen Plattform nachweislich auch, macht man sich schuldig.

Internetdienstanbieter können sich dem nur entziehen, wenn sie die Handlungen ihrer Kunden überwachen, ihnen Fristen zum Löschen von Inhalten setzen (sogenannte Notice-and-Takedown-Systeme) und das Three-Strikes-Modell (Warnung-Mahnung- Sperrung oder abgestufte Erwiderung) zum Aussperren von Raubkopieren umsetzten. Das heißt, wird man dreimal im Sinne des ACTA straffällig, dann wird einem der Internetzugang gesperrt.

Argumente der Befürworter

Die Europäische Wirtschaft leidet sehr unter dem Handel mit gefälschten europäischen Produkten und streicht Jahr um Jahr immer mehr spürbare Verluste im Zusammenhang damit ein.

Auch nimmt die Anzahl der gefälschten Produkte zu, die so mangelhaft angefertigt wurden, dass sie gefährlich für die Verbraucher werden. Sei es durch fehlerhafte Konstruktion oder durch schädliche Inhaltsstoffe.

Wirtschaftlich gesehen ist klar, dass etwas passieren muss.

Da beim Vertrieb jeglicher Produkte das Internet mit all seinen Verstecken und Weiten eine große Rolle einnimmt, erschließt sich auch, dass ein Abkommen gefunden werden muss, welches auch das Internet einschließt. Auch wird es immer schwieriger, Fälschungen vom Original zu unterscheiden und ein weltweit ausgetragenes Katz und Maus Spiel macht es sinnvoll eine international geltende Übereinkunft zu finden.

Dabei darf man nicht vergessen, wie gefährlich die ganze Angelegenheit sein kann, so stecken hinter den Produktpiraten oft mafiöse Verbindungen, die vor Gewalt und Mord nicht zurückschrecken.

Auch ist das ACTA offen für jeden Nachwuchs. Es soll ersteinmal eine Grundlage schaffen, auf die aufgebaut werden soll. Am Ende soll das ACTA auch attraktiv für Länder wie Russland und China gestaltet sein.

Kritik

Bei dem ACTA geht es um sensible Themen, die jeden einzelnen angehen. Daher stoßt es vielen auf, dass die meisten Dinge unter Ausschluss der Öffentlichkeit besprochen wurden. So liegt nun ein fertiges Produkt in den Händen der europäischen Union. An diesem kann nicht mehr gerüttelt werden, erst recht nicht, wenn sie es unterzeichnen.

Kritik besteht vor allem darin, dass die Besprechungen um das ACTA vor allem durch wirtschaftliche Interessen geprägt wurden. Dabei hat es Anschein, dass weniger ein Auge auf bürgerliche Rechte geworfen wurde noch die Auswirkungen auf die Verbraucher gründlich geprüft wurden.
So zum Beispiel das Three-Strikes-Modell. Umgesetzt für Urheberrechtverstöße ist das Prinzip mittlerweile in Neuseeland, Südkorea, Frankreich, Taiwan und dem Vereinigten Königreich. Dabei folgen auf die ersten zwei Vergehen kleine Strafen (meist Verwarnungen), danach die Internetsperre für eine bestimmte Zeit. Dabei ist der Beschuldigte meistens in der Bringschuld. Kann er nicht beweisen, dass jemand anderes seine Zugangsdaten missbraucht hat, wird er bestraft.

Deutschland

Was sich für uns in Deutschland ändert ist nicht klar. Auf die Anfrage von der Linken (Frage: Inwieweit wird das ACTA Auswirkungen auf die Rechtsetzung in Deutschland bezüglich des Urheberrechtes und anderer Schutzrechte haben?) an die Bundesregierung bezüglich ACTA antwortete diese, dass die Politik der Bundesregierung darauf abzielt, dass die Fortentwicklung des Urheberrechts und anderer Schutzrechte in Deutschland nicht durch ACTA präjudiziert wird.

Das ACTA greift also keiner Entscheidung vor, kann jedoch für Gesetzesänderungen als Grundlage oder Hilfestellung genutzt werden.
Es bleibt also spannend, die Entwicklung von ACTA weiter zu verfolgen, auch im Hinblick auf Deutschland.

]]>
https://www.studentenpack.de/index.php/2011/01/was-tun-gegen-produktpiraterie/feed/ 0
Schluss mit der Katze im Sack! https://www.studentenpack.de/index.php/2011/01/schluss-mit-der-katze-im-sack/ https://www.studentenpack.de/index.php/2011/01/schluss-mit-der-katze-im-sack/#respond Mon, 17 Jan 2011 19:00:39 +0000 http://www.studentenpack.uni-luebeck.de/?p=106010
Flattr

Peter Sunde Kolmisoppi (4.v.l.) und Linus Olsson (2.v.l.) mit dem Flattr-Team.

Hast du dir schon einmal ein Buch gekauft, bei dem du dich später geärgert hast, dass du Geld dafür ausgegeben hast, weil das Buch gleich nach oder beinahe schon während des Lesens im Altpapier gelandet ist? Oder hast du dir vielleicht eine CD gekauft, die beim ersten Reinhören im Laden ganz gut klang, die jetzt aber nur noch im Regal steht und einstaubt? Hättest du das vorher gewusst, hättest du dein Geld dafür nicht ausgegeben. Aber was soll man machen – man weiß eben erst hinterher, was man bekommt. Oder geht es auch anders? Ja, es geht. Im Internet entwickeln sich gerade verschiedene Systeme, um dieses Problem zu lösen.

Zu den weltweit größten dieser Bezahlsystemen gehört Flattr von den Schweden Peter Sunde und Linus Olsson. Flattr ist ein Kunstwort aus dem Begriff Flatrate (engl. für Pauschalgebühr) und dem Verb to flatter (engl. für jemandem schmeicheln) und beschreibt einen Micropayment-Service. Die einfache Idee hinter einem solchen Service ist, dass ein Nutzer von Flattr auf sein Konto einen monatlichen Betrag einzahlt, den er für Inhalte ausgeben möchte. Der Anbieter von Inhalten platziert Flattr-Buttons an seinen Inhalten, auf die die Nutzer klicken können, wenn ihnen der jeweilige Inhalt gefällt. Am Monatsende wird der der eingezahlte Betrag entsprechend den geflattrten Inhalten verteilt. Flattr startete 2010 zunächst eine geschlossene Testphase, seit dem 11. August kann sich jeder bei Flattr anmelden.

Flattr ist eine kleine Revolution des Bezahlens, denn anstatt wie bisher erst für ein Produkt zu zahlen und es dann zu erhalten, ist die Idee von Flattr, dass man zuerst das Produkt erhält und dann bezahlt. Um zu verstehen, warum das sinnvoll ist, müssen wir aber ein bisschen weiter ausholen.

Wert und Preis sind zwei verschiedene Dinge.

Ein Problem bei den oben genannten Käufen des Buches oder der CD ist, dass Wert und Preis des gekauften Produkts nicht zusammenpassen. Der Wert eines Produkts ergibt sich – so haben wir es in der Schule gelernt – aus den Produktionskosten und der Nachfrage. Oft ergibt sich der Wert für uns aber größtenteils auf eine andere Weise: Er beruht auf unserer subjektiven Wertschätzung. Wenn du abends dein Buch nicht zu Seite legen konntest, weil es so spannend war, und du, nachdem du es durchgelesen hast, gleich noch einmal lesen könntest, dann hat das Buch für dich einen hohen Wert. Wenn du die CD nach dem Anhören des ersten Titels gleich wieder aus dem CD-Spieler nimmst, weil du die Musik doch nicht magst, so hat sie für dich einen geringen Wert.

Je höher der Wert eines Produkt, desto höhere Preise bist du bereit, für das Produkt zu zahlen. Der Preis eines Produkts ist sein in Geldeinheiten gemessener Wert. Leider handelt es sich bei diesem Wert nicht um den deines subjektiven Wertgefühls, sondern um den Wert aus der Schule; eine Zahl, die sich aus Produktionskosten und Nachfrage ergibt. Es ist klar, dass diese beiden Dinge, der Preis und der subjektive Wert, nicht viel miteinander zu tun haben – es sei denn, du bist Sammler und suchst gerade die Dinge, die besonders schwer zu bekommen sind.

Der Preis einer Tageszeitung ergibt sich fast ausschließlich aus den Kosten, die für die Distribution des Inhalts. Hierzu gehört der Druck und die Lieferung des gedruckten Materials. Die Kosten für die Produktion der Inhalte, also die Bezahlung der Journalisten werden zumeist durch Werbung gedeckt. Jeff Sonderman hat für sein Blog NewsFuturist ermittelt, dass der Inhalt einer durch Werbung finanzierten US-Tageszeitung den Leser 20–25 US-Cent kostet, während eine Zeitung ohne Werbung 120–150 US-Cent kosten würde. Durch die Distributionskosten erhöht sich der Preis der meisten werbefinanzierten Tageszeitungen auf 2 bis 4 US-Dollar. Wenn man nur den Inhalt bezahlen möchte, ist das ziemlich viel. Bei Büchern und CDs ist dies ähnlich. Deren Inhalt wird zwar nicht in dem Maße durch Werbung finanziert, wie es bei Tageszeitungen der Fall ist, aber der Anteil der durch den Druck oder die Pressung und die Lieferung anfallenden Kosten bleibt hoch.

Mit dem Internet kann sich das nun ändern. Für Bücher, CDs und Tageszeitungen gehen die Distributionskosten gegen Null, da keine Rohstoffe für den Druck oder das Pressen der CDs benötigt werden und auch durch den Transport der Produkte (fast) keine Kosten mehr entstehen. Informationen können zum Nulltarif an Millionen Menschen verteilt werden. Damit ist klar, dass das Konzept des Wertes, der sich aus den Produktionskosten und der Nachfrage ergibt, für digitale Informationen nicht mehr ganz zu funktionieren scheint. Während ein vergriffenes Buch nicht mehr oder nur noch für einen höheren Preis zu kaufen ist, kann die Nachfrage nach einem digitalen Inhalt immer befriedigt werden – egal, wie groß sie ist.

Heute kann jeder publizieren.

Früher haben hohe Kosten das Publizieren teuer gemacht und man musste sich genau überlegen, was man publizieren wollte, um die entstehenden Kosten durch den Verkauf decken zu können. Das Internet trennt diese Verbindung zwischen Publizieren und kostenintensiver Distribution. Jeder kann mit wenigen Klicks publizieren: Blogs, E-Mail, Twitter, Facebook machen es möglich. Die Filterung der Informationen, die bisher vor der Publikation durch einige wenige Menschen stattgefunden hat, wird auf Millionen von Menschen nach der Publikation verschoben. Jeder kann selbst entscheiden, was er für wichtig oder interessant hält, und überlässt dies nicht den Chefs der großen Tageszeitungen oder Sendeanstalten. Es geht sogar noch weiter: Der Leser hilft bei der Distribution. Wenn dir eine Information wertvoll erscheint und du der Meinung bist, dass sie auch für deinen Freund Benedikt wertvoll ist, dann kannst du sie einfach per E-Mail, über Twitter oder Facebook an ihn weiterleiten und weil Benedikt dich kennt, wird er sich diese Information wahrscheinlich angucken. Ein Produzent kann im Internet gar nicht so eine gute Distribution sicherstellen, wie die Konsumenten es können, – und das hat einen Vorteil: Will der Produzent, dass sich seine Inhalte verbreiten, so muss er Inhalte produzieren, die seine Konsumenten haben wollen, und wenn er das macht, dann verbreiten sich die Inhalte fast von alleine.

Damit das klappt, müssen die Inhalte frei verfügbar sein, – wie aber kommt der Produzent jetzt an das Geld, das er für die Produktion der Inhalte benötigt? Mit Flattr.

Flattr

Je nachdem, wie oft du auf einen Flattr-Button klickst, wird dein Kuchen in größere oder kleinere Stücke geteilt, die du dann verschenkst. – So erklären die Erfinder Flattr.

Flattr macht Spaß und lohnt sich.

Vor allem in Deutschland verbreitete sich Flattr rasend. Die taz begann als erste deutsche Tageszeitung am 20. Mai mit der Nutzung des Dienstes. Bis zum Ende des Monats hat die taz 143,55 Euro verdient. Im Juni waren es, noch immer in der geschlossenen Testphase, schon 988,50 Euro. Mittlerweile sind die Einnahmen der taz auf 1.846 Euro im November angestiegen. Die taz gehört als Tageszeitung zu den Großverdienern in der Flattr-Welt, aber auch der kleine Mann kann damit verdienen: Udo Vetter, Rechtsanwalt und Autor des empfehlenswerten Lawblog hat im Oktober 372,79 Euro verdient – für Inhalte, die er kostenfrei und für jeden im Netz veröffentlicht. Markus Beckedahl und seine Coautoren verdienen mit netzpolitik.org, einem Blog über Freiheit und Offenheit im digitalen Zeitalter, rund 700 Euro im Monat – ebenfalls für Inhalte, die sie frei zugänglich publizieren. Die Leser bezahlen also für etwas, was sie auch umsonst haben können. Vor Flattr wurde eine solche Bezahlung über Spendenkonten realisiert, was mit erheblichem Aufwand verbunden war: Für Spenden an Blogger mussten Bankverbindungen herausgesucht und einzelne Überweisungen geschrieben werden. Für monatliche Spenden an Blogs mag das für Einige noch vertretbar gewesen sein, aber das Spenden für einzelne Inhalte ist zu aufwändig. Durch Flattr ist das Bezahlen deutlich einfacher und präziser geworden. Ist einmal der monatliche Betrag überwiesen, lassen sich nach Herzenslust Blogs und sogar einzelne Inhalte flattrn, indem einfach auf den zugehörigen Flattr-Button geklickt wird. Blogger können dann anhand der Abrechnung von Flattr ermitteln, welche ihrer Inhalte besonders oft oder wenig geflattrt wurden. Weiter bietet Flattr volle Kostenkontrolle, denn man gibt in jedem Monat den gleichen Betrag aus, wodurch auch die Hemmschwelle für einzelne Inhalte zu zahlen sinkt. Und: Flattr macht Spaß. Es fühlt sich gut an, wenn man einem Autor mit einem Klick auf den Flattr-Button für einen tollen Text, ein schönes Stück Musik oder ein hübsches Foto danken kann.

Die Bezahlung durch einen Dienst wie Flattr hat wichtige Effekte: Du bezahlst einen Inhalt nach dem Konsum – also nachdem du den subjektiven Wert festgestellt hast. Damit bekommt deine Bezahlung eine ganz andere Wirkung: Du bezahlst eigentlich gar nicht mehr für das, was du bekommen hast, sondern für das, was du bekommen wirst. Hat dir ein Buch eines Autors oder ein Lied eines Musikers gefallen, so kannst du ihn dafür bezahlen, ein neues Buch zu schreiben oder ein neues Lied zu komponieren. Das Bezahlen von Informationsgütern, bevor man überhaupt wusste, ob diese die erwartete Qualität hatten, war früher die einzige Möglichkeit, an Informationen zu gelangen, da sie an physische Güter und zugehörigen Kosten gekoppelt waren. Durch das Internet sind Informationen von physischen Gütern entkoppelt – und das ist gut so.

Wenn sich Bezahlsysteme wie Flattr durchsetzen, kannst du dir in Zukunft ein Buch oder ein Album über das Internet herunterladen, es lesen oder anhören und bezahlen, wenn es dir gefällt. Dann ist es vorbei mit dem Kauf der Katze im Sack.

]]>
https://www.studentenpack.de/index.php/2011/01/schluss-mit-der-katze-im-sack/feed/ 0
Das Internet vergisst nicht – oder doch? https://www.studentenpack.de/index.php/2011/01/das-internet-vergisst-nicht-oder-doch/ https://www.studentenpack.de/index.php/2011/01/das-internet-vergisst-nicht-oder-doch/#respond Mon, 17 Jan 2011 19:00:25 +0000 http://www.studentenpack.uni-luebeck.de/?p=106022 Das Internet – es ist voller Informationen: Dinge, die wir wissen wollen, Dinge, die wir lieber gleich wieder vergessen, Dinge, die wir so über uns nie lesen wollten und Dinge, die uns bei wissenschaftlichen Arbeiten weiterbringen. Alles in allem ist das Internet ein großer, bunter Blumenstrauß, in den zwar immer neue Blüten gesteckt werden, aus dem aber die alten nur sehr schwierig oder gar nicht zu entfernen sind.

Doch seit noch gar nicht all zu langer Zeit gibt es eine neue Bewegung: Es wird depubliziert. Das Wort scheint aus dem Lateinischen zu kommen, ist jedoch eine Wortneuschöpfung, die sich selbst widerspricht. Etwas, das publiziert ist, kann nun mal nicht aus der Welt geschaffen werden. Genau das wurde aber gefordert und wird derzeit in filigraner Kleinarbeit auch durchgeführt. Wie aber konnte es dazu überhaupt kommen?

Mit dem 12. Rundfunkänderungsstaatsvertrag soll alles anders werden

Die deutsche Medienlandschaft schreibt den Juli 2008, die Ausarbeitung des 12. Rundfunkänderungsstaatsvertrags steht bevor. Dieser legt fest, was die Medien dürfen und vor allem auch, was sie müssen. Wichtigster Adressat sind dabei die öffentlich-rechtlichen Rundfunkanstalten, allen voran die ARD und das ZDF. Diese haben einen Bildungsauftrag zu erfüllen, bekommen dafür aber auch Geld, das die GEZ in Form von Rundfunkgebühren eintreibt. Das Geld wird benötigt, um wirtschaften zu können, ohne die Sendungen durch Werbepausen zu unterbrechen oder ständig Etiketten und Markenzeichen ins Bild zu rücken. Dass es den Öffentlich-Rechtlichen aber so leicht gemacht wird, dagegen gibt es Einwände von Seiten der Privatsender und seit erstere ihr Online-Angebot an Nachrichten und Informationsmaterial immer weiter ausbauen, werden auch Stimmen von Zeitungsverlegern laut. Was hier geschehe, sei staatlich subventionierte Wettbewerbsverzerrung, die Rundfunkpolitik der Länder eine Lobbyveranstaltung. Außerdem würden die öffentlich-rechtlichen Sender unter der „permanenten Alimentation“ des Geldes ohne Wettbewerb ermatten und darunter leide die Kreativität, so die Vorwürfe. Dass die so finanziell unterstützten Sender nun auch verstärkt auf den Internet-Markt drängen, hat das Fass wohl zum Überlaufen gebracht. Eine freie und unabhängige Entwicklung der Presse sei durch die Expansion nicht möglich.

Zudem wird bemängelt, die Rundfunkgesetze seien viel zu kompliziert und undurchsichtig. Klare Regeln werden gefordert, Gesetze, die unmissverständlich und vor allem auch einklagbar sind. Gesetze, die den öffentlich-rechtlichen Sendern ihre Grenzen aufweisen. Diese sollen keine Onlinebeiträge mehr produzieren und auch den sendungsbezogenen Beiträgen soll Einhalt geboten werden. Zudem sollen die Angebote durch Dritte geprüft werden.

Drei Stufen, die die Lösung bringen?

Große Anschuldigungen also und große Forderungen, die in den Raum gestellt wurden. So ist es fast klar, dass große Taten folgen mussten. Seit Juni des gerade vergangenen Jahres existiert der 12. Rundfunkänderungsstaatsvertrag und hat es geschafft, die Medienlandschaft komplett über den Haufen zu werfen. Seither muss vor der Veröffentlichung eines Beitrags mit dem so genannten Drei-Stufen-Test geprüft werden, ob damit der Auftrag der Öffentlich-Rechtlichen erfüllt ist. Stufe 1 fragt, ob der Beitrag den demokratischen, sozialen und kulturellen Bedürfnissen der Gesellschaft entspricht. Stufe 2 will wissen, in welchem Umfang er in qualitativer Hinsicht zum publizistischen Wert beiträgt und Stufe 3 fordert die Rechtfertigung über den erforderlichen finanziellen Aufwand. Nur wenn der Beitrag über alle drei Stufen zu rechtfertigen ist, darf er auch online gestellt werden. Neben den neuen Informationen gilt dieser Test aber auch rückwirkend für alte Formate. Immerhin geht es hier um 8 Milliarden Euro pro Jahr – so viel Geld wie die Rettung Griechenlands gekostet hat oder wie Luxemburg jährlich als Staatshaushalt aufwendet.

Doch mit dem Depublizieren der Inhalte wird nicht etwa Geld gespart, beispielsweise durch gesparten Platz auf Servern oder verkürzte Rechnerlaufzeiten. De Facto entstehen erstmal Kosten, die die Produktionskosten der Beiträge teilweise noch übersteigen. Die Redaktionen von ARD, ZDF und der Dritten mussten Leitlinien erstellen, mussten Beiträge beurteilen, mussten Techniker einstellen, die die Programme schreiben, wann welcher Beitrag vom Netz genommen werden soll. Denn die Regelung ist keinesfalls einheitlich. Die Standardverweildauer eines kompletten Beitrags beträgt sieben Tage, Inhalte von Nachrichtensendungen und Eigenproduktionen dürfen ein Jahr lang im Internet abrufbar sein und Beiträge die kulturell oder sozial von besonderer Bedeutung sind, können noch bis zu fünf Jahre betrachtet werden. Inhalte, die sich mit Wahlen befassen dürfen während der laufenden Legislatur zugänglich sein und einige wenige Beiträge, wie etwa die Tagesschau um 20 Uhr gelten als fortlaufende zeitgeschichtliche Archive und dürfen – so sie denn gesondert dafür ausgewiesen sind – dauerhaft gespeichert werden. Alles andere muss erstmal von der Bildfläche verschwinden und da die Abläufe hier noch nicht ganz rund sind, geschieht vieles manuell. Dabei werden die Inhalte nicht einfach gelöscht, sie sind lediglich nicht mehr von extern verfügbar und lagern nun in den verborgenen Archiven der Rundfunkanstalten. Die Kosten, die durch den Aufwand von Personal und Zeit anfallen, gehen dabei auf die Rechnung der Gebührenzahler oder werden vom Etat für neue Produktionen abgezogen.

„Kreative Anarchie“ führt Gesetze ad absurdum

Der Aufschrei ist groß, nicht nur in der Bevölkerung, Auch das Echo der Medien ist bezeichnend. Während die ARD versucht, ihren Konsumenten zu erklären, warum sie Inhalte bald nicht mehr finden, melden sich nun erneut andere Herausgeber und Verleger zu Wort. Die Stoßrichtung ist nun nicht mehr so eindeutig. Auf FAZ.net war beispielsweise im Juli 2010 zu lesen, was der neue Vertrag für einen Mehraufwand bedeutet. Außerdem wurde bemängelt, dass nun die Querverweise unzähliger Informationsplattformen ins Leere verliefen, weil viele die öffentlich-rechtlichen Sender als glaubwürdige Quelle angegeben und verlinkt haben.

Viel größer ist jedoch das öffentliche Interesse an der Internetseite depub.org. Wem diese gehört und wer alles dahinter steht, ist nicht bekannt. Alles was man weiß, ist dass der zugehörige Server in Kanada steht und dass auf der Seite die verschwunden Inhalte von tagesschau.de wieder auferstanden sind – minutiös aufgelistet in einem umfassenden Medienarchiv. Und das ist nicht alles. Wie eine anonyme Person, die sich aber als auf depub.org zugriffsbefugt ausweisen konnte, in einem Interview mit Zeitonline erklärte, sei geplant, in naher Zukunft auch die Inhalte der Seiten der übrigen öffentlich-rechtlichen Rundfunkanstalten zu konservieren. Demnach werde derzeit an einer Automatisierung der vollständigen Speicherung der Internetauftritte gearbeitet, um für die Zukunft eine einfachere Archivierung zu ermöglichen. Doch auch alte Daten, die nicht mehr online abrufbar sind, sollen beschafft werden. Der anonym Interviewte bekundete hier, er hoffe, dass sich einige Mutige aus den verschiedenen Redaktionen fänden, die die benötigten Daten transferieren könnten.

Damit ist die gesamte Diskussion ad absurdum geführt, findet nicht nur Dagmar Gräfin Kerssenbrock, Vorsitzende des NDR-Rundfunkrates, im September 2010 im NDR Presseportal. Eine ähnliche Aussage findet sich im Tagessschau-Blog. Kerssenbrock bezeichnet depub.org als Beleg für die Fragwürdigkeit des „bürokratischen Monstrums 3-Stufen-Test“ und als Beispiel für kreative Anarchie im Internet. Tatsächlich bewegen sich die Betreiber der Domain in einem illegalen Bereich, sind sich dessen aber durchaus bewusst. Man nehme in Kauf, Urheberrechte zu verletzen, denn das Recht der Nutzer auf fundiert recherchierte, unabhängige Informationen, die sie mit ihren Gebühren bezahlt haben, stehe an höherer Stelle. Und dass man damit nicht gänzlich falsch liege, bestätigt die Haltung der ARD, die bislang keine Anstalten macht, Rechtsschritte zum Erhalt der Urheberrechte einzuleiten.

Was bringt die Zukunft?

Wie die Diskussion endet, wird die Zukunft zeigen. Momentan liegt einfach noch zu viel im Ungewissen, die Emotionen kochen noch zu hoch.

Und wer derzeit auf depub.org klicken will, findet die schlichte Aussage: „depub.org zieht gerade um…“ Wohin und in welchem Gewand die Seite wieder aufersteht – lassen wir uns überraschen. Denn klar ist nur eins: So schnell verblüht der Blumenstrauß Internet nicht!

]]>
https://www.studentenpack.de/index.php/2011/01/das-internet-vergisst-nicht-oder-doch/feed/ 0
Reich und berühmt durch MySpace, DeviantART oder Blogger? https://www.studentenpack.de/index.php/2011/01/reich-und-beruhmt-durch-myspace-deviantart-oder-blogger/ https://www.studentenpack.de/index.php/2011/01/reich-und-beruhmt-durch-myspace-deviantart-oder-blogger/#respond Mon, 17 Jan 2011 19:00:20 +0000 http://www.studentenpack.uni-luebeck.de/?p=106028 Es gibt Plattformen im World Wide Web, die es Musikern, Zeichnern, Photographen, Schriftstellern, Poeten oder anderen Künstlern ermöglichen, ihre Kunstwerke zu veröffentlichen, in den meisten Fällen sogar kostenlos. Bekannte Vertreter solcher Plattformen sind MySpace, DeviantART und Blogger. Diese gestatten es den Künstlern, nicht nur ihre Arbeiten bekannt zu machen, sondern sich auch mit anderen auszutauschen oder ein Feedback zu bekommen mittels Privatnachrichten, Kommentar- oder Follower-Funktion. DeviantART zielt außerdem darauf ab, Künstler rund um den Globus für gemeinsame Projekte zu vernetzen. Natürlich stehen die Plattformen nicht nur Profi-Künstlern zur Verfügung, sondern auch Hobby-Künstlern und Kunstliebhabern. Jeder kann sich anmelden. Deshalb stellt sich die Frage, ob man als Netzkünstler etwas verdienen oder sogar davon leben kann oder eher in der Masse untergeht. Die ständig wachsenden Communitys machen es dem Benutzer nicht gerade einfach, sich gegen seine Konkurrenz durchzusetzen. Deshalb sollte der Künstler nicht sofort mit Profit rechnen und auch nur bedingt über die großen genannten Plattformen. Diese sind durchaus ein guter Einstieg, um entdeckt zu werden, machen es aber schwer, sich von der Masse abzuheben und Geld zu verdienen. Deshalb sollte sich der Künstler schon zu Beginn überlegen, sich eine eigene Website anzulegen. Nachdem ein gewisser Bekanntheitsgrad erreicht ist – circa  100 User pro Tag – ist der einfachste Weg, ein wenig Geld nebenher zu verdienen, Werbung auf seiner Seite einzubinden. Dafür eignet sich zunächst beispielsweise AdSense hervorragend, wirft aber kein komplettes Gehalt im Monat ab. Außerdem kommt es sehr auf die Platzierung der Werbung auf der Website an. Zuviel Werbung wird die meisten Besucher abschrecken, versteckt platzierte Werbung hingegen bringt kaum Klicks und somit wenig Geld. Der nächste Schritt sind Partnerverträge, beispielsweise mit Amazon. Diese bringen zwar deutlich mehr Geld ein, allerdings auch nur dann, wenn der Besucher nach dem Klick der Werbung auf der Künstler-Homepage auch ein Produkt des Partners kauft. Diese Form des Profits ist besonders für Blogger geeignet. Für Fotografen ist es sehr einfach, über Fotoagenturen im Netz eigene Fotografien zu verkaufen. Ein Beispiel dafür ist Fotolia. Hierbei bekommt der Künstler eine Provision für jedes Bild, das von einem anderen Benutzer heruntergeladen wurde.

Eine weitere Alternative zu der vielfach auch als störend empfundenen Werbung stellt der Micropaymentdienst Flattr dar. Bei diesem Angebot geht es in erster Linie um die allgemeine Bereitschaft der Internetuser, kostenfreie Angebote wie Blogeinträge oder Bilder auch mit Kleinstbeträgen finanziell zu entlohnen.  Dabei zahlen teilnehmende Benutzer einmal im Monat einen beliebigen Betrag auf ihr Flattr-Konto ein und klicken im Laufe des Monats auf die Flattr-Buttons der teilnehmenden Seiten, wenn ihnen beispielsweise ein Blogeintrag besonders gut gefällt. Am Ende des Monats wird der anfangs eingezahlte Geldbetrag dann anteilig auf die vom Benutzer getätigten Klicks aufgeteilt und die daraus resultierenden Beträge an die entsprechenden Künstler ausgezahlt.

Unabhängig von der Art der Publikation eigener Werke nimmt mit steigendem Bekanntheitsgrad die Wahrscheinlichkeit zu, dass man als Künstler konkrete Anfragen erhält. Für die meisten Künstler jedoch ist die Website nur ein Aushängeschild für die hauptberufliche Arbeit außerhalb des Netzes, ähnlich einer Visitenkarte.

Auch wenn es einem nicht ums Geldverdienen geht, kann man sich im World Wide Web als Künstler kreativ ausleben. Das beste Beispiel für nichtkommerzielle Kunst ist 4chan. Bei dieser Website handelt es sich um eine Mischung aus Forum und Imageboard, die schon oft Geburtsstätte einiger der bekanntesten Internet-Phänomene war. Hier treffen Künstler aus den verschiedensten Bereichen aufeinander, um Spaß zu haben und über die eingestellten Beiträge zu diskutieren. Den Künstlern ist es dabei selbst überlassen, ob sie die Kunstwerke mit ihrem Namen versehen oder lieber anonym veröffentlichen möchten. Letztere Möglichkeit wird relativ häufig genutzt, da es nicht darum geht, eigene Werke möglichst lange online zu halten; vielmehr sind die Beiträge relativ kurzlebig, da ältere Beiträge durch das Einstellen neuer Beiträge verdrängt und automatisch gelöscht werden.

Das World Wide Web bietet Künstlern zahlreiche Möglichkeiten, ihrer Kreativität freien Lauf zu lassen – sie müssen nur genutzt werden.

]]>
https://www.studentenpack.de/index.php/2011/01/reich-und-beruhmt-durch-myspace-deviantart-oder-blogger/feed/ 0
Alle Daten sind gleich? Nicht alle… https://www.studentenpack.de/index.php/2011/01/alle-daten-sind-gleich-nicht-alle/ https://www.studentenpack.de/index.php/2011/01/alle-daten-sind-gleich-nicht-alle/#respond Mon, 17 Jan 2011 19:00:10 +0000 http://www.studentenpack.uni-luebeck.de/?p=106024
CC-BY-NC Friedemann Wulff-Woesten

Ist eine Zweiteilung, wie beim Internet mit „Überholspur“ noch neutral?

Im frühen ARPA-Net, dem Vorgänger des Internets, gab es eine einfache Handhabung von Daten: Alle Daten werden gleich behandelt und nach bestem Können weitergesandt. Ist also auf dem Wege ein Router (etwa vergleichbar mit einer Postsortierstation) stark ausgelastet, arbeitet er so schnell er kann. Dabei wird die Infrastruktur so ausgelegt, dass sie mit dem normalen Datenaufkommen zurechtkommt. Wichtig ist dabei, dass alle Datenpakete gleich behandelt werden. Diese Maxime hat sich relativ lange gehalten. Sie heißt Netzneutralität. Das Netz verhält sich allen Daten gegenüber neutral. Die Anbieter von Internetanschlüssen (Internet Service Provider, kurz ISP) handeln untereinander aus, auf welchen Wegen und wie viel Kapazität sie dem anderen zum Austausch oder zum Durchleiten von Daten bereitstellen. So entsteht ein großes Netz aus verschiedenen Netzen, die jedoch alle nach der ursprünglichen Maxime Daten weitersenden.

Mit der Zeit, also etwa seit dem Jahr 2000, tauchen mehr und mehr Dienste auf, die neue Anforderungen an das Netz stellen: Bis dahin war wichtig, dass Daten in der richtigen Reihenfolge und unverfälscht ankommen, etwa beim Empfang, dem Versand einer E-Mail oder beim Surfen im World Wide Web. Eine Verzögerung ist dabei kaum wichtig. In vielen neuen Diensten, wie Telefonieren, Videokonferenz oder Spielen übers Internet, ist die Zeit jedoch der viel wichtigere Faktor. Geht während eines Telefonates ein Datenpaket verloren, knackt es in der Leitung, benötigen die Pakete jedoch zwei Sekunden, ist ein Gespräch unmöglich. Abgesehen von dieser Anforderung ist auch die Veränderung der Laufzeit von Paketen – das sogenannte Jitter – wichtig. All diese Anforderungen fasst man auch unter dem Begriff „Quality of Service“ – kurz QoS – zusammen. Eine QoS-Garantie gibt es im Internet nicht.

Netzneutralität ist Gleichbehandlung aller Daten

Die Gleichbehandlung von Daten ist vergleichbar mit einer Autobahn: Im Allgemeinen kann man dort so schnell fahren, wie das eigene Auto es zulässt, wenn man mal von Geschwindigkeitsbegrenzungen absieht, die ja aber auch für alle gelten. Ist gerade Ferienbeginn, kann es mal zu Stau kommen. Auch hier wird niemand bevorzugt behandelt und es gibt keine Qualitätsgarantie. Es ist aber auch der Garant dafür, dass sich neue Ideen verbreiten können: Nur dadurch, dass alle Daten gleich verbreitet werden, kann eine neue Suchmaschine in Konkurrenz zu einer anderen treten, so geschehen etwa 1998 mit dem Beginn von Google oder im Aufkommen neuer Seiten im Internet. Ginge ein Betreiber einen Vertrag mit einer Suchmaschine ein, nur noch diese auszuliefern, wäre nicht nur die Gleichbehandlung arg verletzt, sondern auch die Informations- und Meinungsfreiheit.

Beschäftigt man nun zuhause seinen Computer mit mehreren Dingen gleichzeitig, kann man für seine eigene Leitung Präferenzen setzen: Während man Telefoniert, pausiert man eben den Download der neusten Linux-Distribution, oder drosselt ihn zumindest so weit, dass er das Telefonat nicht behindert. Doch inzwischen fordern einige ISPs, das Prinzip der Netzneutralität abzuschaffen, um verschiedene Qualitätsdienste realisieren zu können. Als Beispiel werden dann kritische Anwendungen genannt, wie etwa Telemedizin, also aus der Ferne von einem Arzt getätigte Operationen oder Telefonate. Dazu fordern diese, dass die Router im Internet die Möglichkeit erhalten sollen, bestimmte Pakete bevorzugt zu behandeln und dafür andere zu verzögern oder eventuell ganz zu verwerfen. Kritiker werfen den ISPs hingegen vor, mit einem Ausbau der Infrastruktur ist dies ebenso möglich, und fordern genau diesen anstelle eines Mangelmanagements.

Briefgeheimnis auch für Datenpakete

Eine Regelung der Datenströme hat einen wesentlichen Nachteil: Um zu entscheiden, ob ein Datenpaket zu einem Dienst (etwa der Telemedizin oder doch zu einem Youtube-Video) gehört, ist es nötig, die Datenpakete genauer zu betrachten. Üblicherweise wird von einem Datenpaket lediglich der erste Teil des Empfängers gelesen, der zum Weiterleiten notwendig ist. Der Inhalt des Pakets ist – analog zum Briefgeheimnis oder bei Postpaketen – tabu. Das genauere Betrachten des Pakets – im Fachjargon Deep Packet Inspection (kurz: DPI) genannt – kann im positiven Fall in der Tat dazu genutzt werden, eine E-Mail ein klein wenig zu verzögern und der Telemedizin ihren Vorrang zu lassen. Jedoch bietet diese Technik sofort den Nachteil, dass Benutzerprofile angelegt werden können: Wer spricht wann wie oft mit wem, wer ruft von wo welche Seiten auf und wie oft nutzt jemand eigentlich Internettelefonie eines anderen Anbieters als die seines ISP? All dies hebt nicht nur die Netzneutralität, sondern auch die Privatsphäre auf. Zusätzlich wird es schwierig sein, hier Transparenz zu erzeugen, also zu erfahren, welcher Anbieter wann und wo welche Dienste bevorzugt oder benachteiligt.

Doch auch im Internet selbst sind die Meinungen zur Netzneutralität gespalten: Ein denkbares Modell ist, jedem Benutzer in den zwei Datenklassen „wenig Verzögerung“ und „viele Daten“ Kontingente zur Verfügung zu stellen, und dann diejenigen mit wenig Verzögerung schneller zu behandeln, um eben Dinge wie Telefonate zu ermöglichen. Die Masse an Daten, wie der letzte Urlaubsfilm, bleiben in der zweiten Klasse, denn dort ist die Zeit nicht so kritisch. Vergleichbar ist dieses Modell mit normalen Paketen und den teureren Expresspaketen bei der Post. Technisch gibt es zwar die Möglichkeit, den Datenpaketen eine solche Kennzeichnung mitzugeben, dass dies auch berücksichtigt wird, ist jedoch schwierig durchzusetzen und noch schwieriger zu kontrollieren. Diese „Überholspur für eilige Daten“ ist spätestens über verschiedene ISPs nicht realisierbar.

Kein Datenpaket ist illegal

Daher fordern viele eine Selbstverpflichtung der ISPs zur Investition in den Ausbau der Infrastruktur, etwa zu mehr Glasfaser-Anschlüssen und die Festlegung eines Grundsatzes für das Internet. In den USA hat die FCC, vergleichbar mit der Bundesnetzagentur und somit zuständig für die Regelung von Kommunikationswegen, ein Papier ausgearbeitet, das die Netzneutralität fordert, jedoch mit der kleinen Hintertür, dass dies nur für legale Daten gelte. Eine Einschätzung, welche Daten nicht legal sind, ist jedoch schwierig, da ein einzelnes Datenpaket keinen Rückschluss auf etwa das Video gibt, zu dem es gehören könnte.

Was passiert, wenn Netzneutralität nicht gegeben ist, kann man momentan auf dem Markt der Mobiltelefone sehen: Dort werden bestimmte Dienste blockiert, aus dem einfachen Grund, weil sie in Konkurrenz zum eigentlichen Telefonieren stehen. Beispielsweise ist Voice-over-IP (Internettelefonie) auf einem internetfähigen Mobiltelefon nicht unbedingt nutzbar. Der Grund liegt darin, dass, betrachtet man die Kosten pro Daten, die SMS das teuerste, dann Mobiltelefonate und schließlich die Internetnutzung folgt. Somit stellt VoIP eine günstige Alternative dar, die der ISP nur deswegen zu verhindern versucht, da er selbst mit dem Angebot von Mobilfunktelefonaten dazu in Konkurrenz steht. Außerdem wird bei vielen mobilen Internetangeboten nach einem bestimmten Datenvolumen die Bandbreite reduziert und es wird versucht, eine Nutzung des mobilen Internets durch einen Computer, das sogenannte Tethering, zu verbieten und zu unterbinden. All dies widerspricht der Gleichbehandlung von Daten und schränkt damit den (hier mobilen) Internetnutzer stark ein. An diesem Beispiel sieht man deutlich, dass die Gleichbehandlung wichtig ist, um einen freien Zugang zum Internet zu haben.

Netzneutralität – eine Herausforderung

Neben der Privatsphäre ist die Aufrechterhaltung der Netzneutralität also auch für die Informations- und Meinungsfreiheit von großer Bedeutung. Noch fehlt es jedoch an einer allgemeinen, zum heutigen Internet passenden Definition: Während einige fordern, dass eine Drosselung von Daten nur vom Benutzer selbst geschehen darf, sehen andere die Transparenz, was gedrosselt wird und wie stark, als wichtig an. Einig sind sich jedoch alle, dass Techniken, wie DPI absolut tabu sind und ein Recht auf Datenpaketgeheimnis notwendig ist. Auch wenn es schon einige Ideen zur Handhabung der unterschiedlichen Arten von Datenströmen im Internet gibt, noch beruht – bis auf im mobilen Internet – das Internet auf dem Prinzip der Gleichbehandlung und es bleibt eine große Herausforderung, diese zu erhalten. Dazu ist die Einigung auf Kernpunkte der Netzneutralität notwendig und eine Selbstverpflichtung aller an der Infrastruktur Beteiligten, diese Kernpunkte einzuhalten.

]]>
https://www.studentenpack.de/index.php/2011/01/alle-daten-sind-gleich-nicht-alle/feed/ 0
Der erste Cyberwar? https://www.studentenpack.de/index.php/2010/12/der-erste-cyberwar/ https://www.studentenpack.de/index.php/2010/12/der-erste-cyberwar/#respond Sun, 05 Dec 2010 23:00:34 +0000 http://www.studentenpack.uni-luebeck.de/?p=107735 Von Computerviren erfahren wir im Alltag nicht viel: Ein Antivirusprogramm meldet sich einmal die Woche, um aktualisiert zu werden und landet doch mal ein Virus auf dem Computer hilft oft eben jenes Programm bei der Beseitigung. Während ein Virus sich auf einem System einnistet, infiziert ein Wurm lediglich Programme. Werden diese ausgeführt oder der Wurm direkt (unabsichtlich) gestartet, kann er sich weiter verbreiten. Dazu kann er etwa das E-Mail-Adressbuch auslesen und sich selbst verschicken. Einige Würmer schaffen es auch, nach der Verbreitung die neue Kopie selbst zu starten. Der Wurm nutzt Lücken, die man sich wie Hintertüren vorstellen kann, durch die der Wurm auf die Computer gelangt.
Neben der eigenen Verbreitung kann ein Wurm noch verschiedene weitere Dinge umsetzen: Einige kommunizieren untereinander, um Angriffe ausführen, etwa je eine Nachricht an einen bestimmten Computer im Netzwerk verschicken. Dieser wird ist dann so beschäftigt, dass er andere Anfragen, wie etwa „schicke mir die Homepage des StudentenPACKs“ nicht mehr erfüllen kann. Dann spricht man von einer Denial-of-Service-Attacke, denn der Server kann seinen eigentlichen Dienst nicht mehr erfüllen.

Was macht Stuxnet?

Im Juni tauchte der Wurm Stuxnet auf. Zunächst sah er aus, wie andere Würmer auch, er nutzte allerdings eine Sicherheitslücke, die bis dahin noch nicht bekannt war. So eine Lücke heißt auch „Zero Day Exploit“, da erst nach Bekanntwerden des Wurmes die Schwachstellen durch Aktualisierung behoben werden kann. In diesem Falle wurde eine Lücke genutzt, die beim Anstecken eunes USB-Sticks Programme ausführt, ohne dass der Benutzer dieses bemerkt. Die Sicherheitslücke war nicht nur komplett unbekannt, sie betraf auch noch viele Systeme, vom schon etwas älteren Windows 2000 bis hin zu neusten Systemen mit Windows 7. Da der Wurm sonst nichts zu machen schien, war es merkwürdig, dass für so ein kleines Programm so einen Vorschlaghammer als Angriff nutzt.

Für Sicherheitslücken gibt es einen eigenen Markt, diejenigen, die Schwachstellen herausfinden verkaufen diese an Virus-Programmierer. Je mehr Systeme mit dieser Lücke überwunden werden können, um so mehr kostet die Information. Ebenso variiert der Preis je nach Umfang der Kontrolle, die man über andere Computer gewinnen kann, also ob man nur das Adressbuch auslesen kann, oder ob man sogar beliebige Programme starten kann. Dass ein auf den ersten Blick so unscheinbarer Wurm so eine große Sicherheitslücke ausnutzt, weckte das Interesse der Experten.
Bei genauerer Analyse stellte sich dann heraus, dass in dem Wurm versteckt noch ein zweiter Wurm enthalten ist, der ebenfalls mit einem weiteren „Zero Day Exploit“ arbeitet, um sich im System festzusetzen. Insgesamt enthält Stuxnet vier solcher Exploits, die schlussendlich ermöglichen, dass der Wurm auf Computern, die Großindustrieanlagen steuern, genau diese Steuerung verändern kann. Bei einem Computer im industriellen Herstellungsprozess kommt es darauf an, bis auf wenige Mikrometer oder bei einer ganz exakten Temperatur zu arbeiten, damit die Produktion gelingt. Wird dies verfälscht, dem Computer aber trotzdem vorgespielt, die Temperatur stimme, schlägt die Herstellung fehl, im schlimmsten Fall wird die Produktionsanlage beschädigt.

Wen betrifft das?

Solche Industrieanlagen sind zwar hochspezialisiert, können aber bei einem Hersteller aus Einzelkomponenten zusammengestellt werden, ähnlich dem Lego-Prinzip. Dazu ist die Software ebenfalls mit standardisierten Anzeigen entworfen, die kombinierbar sind. Genau auf eine solche Software zielt Stuxnet ab, er kann sich sogar auf einer dieser Anlagen direkt einnisten. Um exakt zu arbeiten bestehen solche Anlagen aus kleinen Minicomputern, den speicherprogrammierbaren Steuerungen, kurz SPS, auf dessen Speicher nur das kleine Programm mit den aktuellen Einstellungen liegt. Der Virus sucht dort spezielle Komponenten, um festzustellen, was die Anlage steuert. Auf allen anderen Computern, also etwa auf dem eigenen Laptop „schläft“ der Wurm bzw. verbreitet sich lediglich weiter.

Woher weiß man, was Stuxnet macht?

Woher Stuxnet kommt und welche Industrieanlage das Ziel war beziehungsweise ist, steht noch nicht vollständig fest und sein Urheber wird vielleicht nie ermittelt werden können. Einige Experten arbeiten gerade daran, das Programm vollständig zu verstehen. Das ist allerdings recht kompliziert, denn während jeder Programmierer Quelltext lesen kann, liegt der Virus ja nur in der Sprache, die ein Computer versteht vor. Darin noch zu verstehen, was ein Programm macht, erfordert forensische Fähigkeiten und viel Detailwissen.

Eine andere Möglichkeit ist, aus gewissen Daten und Meldungen auf die Funktion von Stuxnet zu schließen. So sind etwa 60% des „Vorkommens“ von Stuxnet im Iran Dort stehen Anlagen, die von dem Virus manipuliert werden können. Ein Ziel von Stuxnet ist, von einer großen Menge gleichartiger Baugruppen nur einige wenige in einzelnen Werten zu verändern, etwa die Drehzahl elektronischer Motoren, die dann anstelle einer Konstanten Drehzahl ein zufälig aussehendes Muster ablaufen lassen. Einige Daten aus der Analyse bestätigen dies und fallen zusammen mit dem Ausfall einer Uran-Anreicherungsanlage im Iran. Bei der Anreicherung von Uran werden die beiden Isotope – Uran-235 und Uran-238 – durch Zentrifugen voneinander getrennt. Bei einem so geringen Unterschied im Gewicht ist eine sehr präzise Arbeit notwendig, um Innen ein Gas mit ein klein wenig höherem Uran-235-Anteil abzusaugen. Bei einer Staffelung der Zentrifugen, die je mit bis zu hunderttausend Umdrehungen pro Minute arbeiten, ist schon eine einzige leicht veränderte Drehzahl verheerend, da dann etwa die Lager stärker abnutzen.

Cyberwar – Kriegsführer unbekannt

Wer jedoch den Virus programmiert hat, ist noch unklar. Bei dem Aufwand, sowohl zur Verbreitung, finanziell, aber auch vom technische Wissen her, kann es sich nur um eine staatliche Aktion handeln. Obwohl der Wurm seit Juni bekannt ist, werden einige Details erst jetzt bekannt. Der Wurm ist nur 400kB groß, passt also auf eine alte 51⁄4-Zoll-Diskette, die man vielleicht noch vom C64 kennt.

Somit ist Stuxnet der erste große Angriff auf digitalem Wege, der aufgrund der vielen Details nur den Anreicherungsanlagen im Iran gegolten haben kann. Dass weder ein Sicherheitsmechanismus gegriffen hat, noch jetzt welche verfügbar sind, ist die eigentliche Sorge daran. Es muss viel Aufwand in die Entwicklung investiert worden sein. Weder Staaten noch die Industrie haben bisher Pläne, wie sie mit derartigen Szenarien umgehen. Es liegen zumindest keine Äußerungen dazu vor, so dass der Umgang mit Szenarien dieser ein spannendes Thema bleibt.

]]>
https://www.studentenpack.de/index.php/2010/12/der-erste-cyberwar/feed/ 0
Digitale Sicherheit für gläserne Bürger? https://www.studentenpack.de/index.php/2010/11/digitale-sicherheit-fur-glaserne-burger/ https://www.studentenpack.de/index.php/2010/11/digitale-sicherheit-fur-glaserne-burger/#respond Mon, 01 Nov 2010 09:00:43 +0000 http://www.studentenpack.uni-luebeck.de/?p=108196
Bundesamt für Sicherheit in der Informationstechnik

Frau Mustermann macht vor, wie’s geht.

Bereits seit 2005 finden sich RFID-Chips in den deutschen Reisepässen. Ab dem 1. November dieses Jahres wird nun auch auf dem Personalausweis ein RFID-Chip integriert sein, auf dem in digitaler Form persönliche Daten gespeichert werden. Zunächst klingt das ganz vernünftig, im Zuge der zunehmenden Digitalisierung, auch die staatsrechtliche Identifizierung digital zu realisieren. Dazu wird auch das Format des Personalausweises auf die Größe einer Scheckkarte verringert. Eventuell lässt sich damit auch auf Ämtern oder bei internationalen Reisen ein wenig Zeit sparen. Dazu werden auch verschiedene neue Daten und Möglichkeiten durch den Personalausweis abgedeckt.

RFID – kontaktlose Identifikation

Die grundlegende Technologie ist der RFID- Chip. Dieser besteht aus einer Antenne, die bei dem Personalausweis in der gesamten Karte liegt und einem kleinen elektronischen Chip, auf dem Daten gespeichert sind. Mit einem Lesegerät können diese Daten ausgelesen werden, ohne dass ein direkter Kontakt notwendig ist, wie etwa bei aktuellen Bankkarten. Das Lesegerät erzeugt dazu ein magnetisches Feld, das vergleichbar ist mit dem der Mikrowelle, nur mit bei weitem kleinerer Energie. Diese Energie wird – durch Induktion – von der Karte genutzt, um die Daten zurückzusenden. Zum Einsatz kommen die RFID-Chips heutzutage bereits in der Logistik bei vollautomatischen Lagern.

Welche Daten stehen auf dem Chip?

Auf dem Personalausweis werden in der bisherigen Form die gleichen Daten erhoben wie vorher auch, lediglich ein Feld für die Postleitzahl und eine zusätzliche Nummer werden neu auf dem Personalausweis zu lesen sein.

Digital werden all diese Daten ebenso gespeichert, zusammen mit einer digitalen Version des Bildes und zwei Fingerabdrücken, die jedoch nicht, wie beim Reisepass, Pflicht sind, sondern freiwillig abgegeben werden können.

Wer gelangt an meine Daten?

Das größte Problem bei dem RFID-Chip ist, dass die Daten kontaktlos, auch aus kurzer Entfernung ausgelesen werden können. Außerdem werden die Daten vom Chip zurückgefunkt, sie könnten also auch von anderen Geräten in der Gegend aufgezeichnet werden. Die Informationen, mit denen der Chip zum Einsatz kommt, dienen einerseits als Personaldokument, also der eigentlichen hoheitlichen Funktion, können aber auch als elektronischer Identitätsnachweis gegenüber Drittanbietern genutzt werden.

Auf dem Personalausweis wird also zusätzlich eine PIN gespeichert, die sicherstellt, dass man nur die Daten auslesen kann, wenn man die Vorderseite sieht. Die abgedruckte PIN hat ihren Grund darin, dass die hoheitliche Identifikation, etwa seitens der Polizei, möglich ist, sobald diese den Ausweis in den Händen hält. Zusätzlich werden die Lesegeräte lizensiert und lesen die Daten erst nach Aufbau einer verschlüsselten Verbindung aus. Etwa die biometrischen Daten – also das Bild und die Fingerabdrücke – dürfen lediglich von einigen staatlichen Stellen ausgelesen werden. In Meldeämtern können außerdem einige Daten verändert werden: Die eID-Funktion kann ein- und ausgeschaltet werden, die Adresse und die eigene Geheimnummer können verändert werden. So muss nicht zu jedem Wohnortwechsel ein neuer Ausweis beantragt werden.

Bevor man auf dem Personalausweis Daten lesen oder schreiben kann, baut ein solches Lesegerät eine Verbindung auf, die verschlüsselt ist. So wird, obwohl die Daten per Funk übertragen werden, sichergestellt, dass kein weiteres Lesegerät „mitlesen“ kann.

Für die authentische Ausweismöglichkeit, die man etwa beim Einkaufen benötigt, kann mit dem neuen Personalausweis die eID genutzt werden. Dazu werden sogenannte Bürger-Clients zur Verfügung gestellt, die dann im Internet die Ausweismöglichkeit realisieren. Dazu wird bei Aktivierung der eID eine weitere PIN festgelegt, die dann die personenbezogenen Daten freischalten. So hat der Bürger stets die Kontrolle darüber, wann er die Daten freigibt. Auf welche Daten ein Drittanbieter zugreifen kann, entscheidet die Behörde bei Vergabe des Berechtigungszertifikates. Damit kann also etwa auch nur das Geburtsdatum abgefragt werden, ohne dass Name oder Adresse herausgegeben werden.

Zusätzlich kann mit einem weiteren Zertifikat eine elektronische Signatur mit dem Personalausweis vollzogen werden, die rechtsverbindlich ist. Dieses Zertifikat muss allerdings gesondert beantragt werden.

Mehr Sicherheit?

Die Bundesregierung nennt eine höhere Sicherheit als Merkmal des neuen Ausweises. Allerdings ist der Ausweis weiterhin gültig, wenn der RFID-Chip kaputt ist. Das ist bereits mit einfachsten Mitteln möglich und Anleitungen zu „RFID-Zappern“ existieren einige. Eine Mikrowelle verursacht unschöne Brandflecken auf dem Dokument, das der Bundesrepublik gehört und dessen „nichtamtliche Veränderung“ strafbar ist. Trotzdem kann schon aus der Nähe mit dem Zapper, vielleicht sogar für den Inhaber unbemerkt, der Chip zerstört werden. So ist die erhöhte Sicherheit gar nicht gegeben.

Gefahren und Nachteile

Während einige Bequemlichkeit über die eID-Funktion auf den ersten Blick einen Vorteil bringen mag, hat sie den Nachteil, dass man diese Identifikation die meiste Zeit mit sich herumträgt. Findet sich etwa ein Weg die Daten „im Vorbeigehen“ zu kopieren und dann zu missbrauchen. Außerdem sind die einfachsten Geräte für die Nutzung der eID am eigenen Rechner lediglich Lesegeräte. Dadurch muss die PIN auf dem Computer eingegeben werden. Auf den ersten Blick ist es nur ein kleiner Unterschied, ob man an dem Lesegerät oder am Computer die Nummer eingibt, jedoch kann der Computer mit einem Trojaner infiziert sein, der diese Eingabe anderweitig weiterleitet.

Allgemein sind die biometrischen Daten weiter ein Kritikpunkt: Das Passbild muss in ein Muster passen, bei dem es sein kann, dass einige Menschen in dieses Muster gar nicht passen. Ebenso gibt es Berufsgruppen, bei denen die Fingerabdrücke nicht ausreichend ausgeprägt sind. Das führt diese Daten ad absurdum. Auch wenn die Fingerabdrücke optional sind, kann es passieren, dass man ohne diese etwa am Flughafen mit einer längeren Abwicklungszeit rechnen muss, oder ähnliche Nachteile erfährt.

Fazit

Der neue Personalausweis mag ein Schritt in Richtung des digitalen Zeitalters sein und etwa am Zigarettenautomaten die Identifikation erleichtern, ob dies aber das Risiko rechtfertigt, dem die Daten damit ebenso ausgesetzt sind, bleibt fraglich. Die noch rein analogen Daten des bisherigen Ausweises waren vor einer direkten Massenverarbeitung noch geschützt, bei den elektronischen bleibt es wichtig, auf Schutzmechanismen zu achten. Gibt es eventuell irgendwann eine allgemeine Möglichkeit, die Identität festzustellen, ohne dass dies vom Staat lizensiert ist, also etwa durch eine Sicherheitslücke, wird man zu einem gläsernen Bürger, da dann jederzeit ein Lesegerät den eigenen Standpunkt feststellen könnte. Wie weit man heute schon nachverfolgbar ist, wenn man Bonuskarten nutzt, sei dahingestellt, aber denen kann man sich ja zumindest verweigern.

Allerdings bleibt nicht nur der neue Ausweis ohne RFID gültig, sondern natürlich auch alle bisher ausgestellten Ausweise. Ich habe also die nächsten 9 Jahre eh noch keine elektronischen persönlichen Daten im Portemonnaie.

]]>
https://www.studentenpack.de/index.php/2010/11/digitale-sicherheit-fur-glaserne-burger/feed/ 0
Kein Internet in der Fußgängerzone? https://www.studentenpack.de/index.php/2010/06/kein-internet-in-der-fusgangerzone/ https://www.studentenpack.de/index.php/2010/06/kein-internet-in-der-fusgangerzone/#respond Mon, 07 Jun 2010 09:00:22 +0000 http://www.studentenpack.uni-luebeck.de/?p=108316 Die heutige Verbreitung von drahtlosen Netzwerken (wireless local area networks, kurz: WLANs) zusammen mit ihrer inzwischen einfachen Nutzung bringt viele Vorteile mit sich:

An einem Sommertag mal nicht im Büro sitzen und arbeiten, sondern in einem Café um die Ecke aus dem Urlaub von dem letzten Ausflug im eigenen Blog berichten oder einfach unterwegs bei Bekannten E-Mails abfragen können. Für eine eilige Orientierung kurz in OpenStreetMap auf die Karte schauen oder in der Fußgängerzone kurz etwas bei Wikipedia nachschlagen, sind ebenfalls nette Vorzüge freier Datennetze, wenn man unterwegs auf ein offenes WLAN trifft.

Drahtlose Netzwerke werden dabei zu einer Infrastruktur, die – ähnlich den Straßen, wenn man die Analogie zur „Datenautobahn“ verwendet – von den Menschen genutzt wird. Diese Analogie trifft zwar in vielen technischen Details nicht zu, für einige Vergleiche ist sie allerdings ganz nützlich.

Der Bundesgerichtshof hat nun im Urteil vom 12. Mai entschieden, dass das eigene WLAN durch „angemessene Sicherungsmaßnahmen vor der Gefahr [davor] geschützt ist, von unberechtigten Dritten zur Begehung von Urheberrechtsverletzungen missbraucht zu werden.“ In dem verhandelten Fall hatte ein Unbekannter ein WLAN genutzt, um einen Musiktitel im Internet anzubieten – wahrscheinlich in einer Tauschbörse –, während der Inhaber im Urlaub war. Von einer Haftung als Täter wurde der Beklagte freigesprochen, allerdings unterliegt er der sogenannten Störerhaftung; er muss also das WLAN zukünftig schützen, dem Kläger steht die auf Erstattung der Abmahnkosten (jedoch max. 100 €) zu, jedoch keine Klage auf Schadenersatz.

Zusätzlich hebt der BGH hervor, dass es nicht genügt, die Standardeinstellungen des Routers unverändert zu lassen, man muss zusätzlich ein persönliches, ausreichend langes Passwort verwenden.

Praktisch bedeutet dies, dass ältere Verfahren wie WEP (Web Equivalent Privacy) nicht verwendet werden sollten, denn WEP kann – wie auch WPA (Wi-Fi Protected Access) – durch einen Angriff in teilweise unter einer Minute überwunden werden. Standardmäßig werden heutige WLAN-Router der Telekommunikationsanbieter aber auch schon mit voreingerichtetem WPA2, dem Nachfolger von WPA, ausgeliefert. Auch das lässt sich bei kurzem oder einem üblichen Standardpasswort schnell überwinden, sorgt aber ansonsten auch für eine verschlüsselte Verbindung. Es werden also keine Daten im Klartext (quasi direkt zum Mitlesen) versandt. Zusätzlich haben heute ausgelieferte Router ein recht langes Passwort vorgegeben, das auf der Unterseite notiert ist. Ob das schon persönlich genug ist, ist nicht ganz klar. Wirklich betroffen sind hier also ältere Geräte, auf denen die geforderte Sicherung gar nicht möglich ist.

Neben diesen Auswirkungen auf das eigene WLAN zu Hause sind die Folgen eventuell viel weitreichender: In Cafés und Bibliotheken gibt es inzwischen häufig offene Netzwerke für all diejenigen, die mit ihrem Laptop oder Smartphones dort auch das Internet benutzen wollen. Für diese offenen Netze schafft das Urteil den bisherigen Informationen aus der Pressemitteilung nach keine Klarheit. Der einzig sichere Weg eines Geschäftes, das ein drahtloses Netzwerk für seine Kunden anbietet, ist wahrscheinlich, deren Daten aufzunehmen und den Zeitraum zu notieren, in dem sie da waren. Das grenzt dann zumindest die möglichen Nutzer zu einer Zeit ein. Neben der Frage, ob dieser Aufwand nicht schon zu groß ist, bleibt weiterhin offen, wessen Geschäftsinteressen dabei überwiegen, diejenigen der Musikindustrie oder diejenigen der Anbieter öffentlicher Netze, so Jürgen Neumann in der ZEIT.

Größere Folgen hat das Urteil jedoch in der „digitalen Nachbarschaftshilfe“: Viele möchten gestrandeten Nomaden der digitalen Welt Hilfe anbieten, sei es zum Abfragen von E-Mails in einer fremden Stadt, zur Orientierung auf einer Karte oder zur Planung des Urlaubstages. Dazu könnte ja jeder ein klein wenig seines Internet-Anschlusses zur Verfügung stellen, so dass die eigenen Aktivitäten nicht darunter leiden, und so helfen. Das ist rein rechtlich nun nicht mehr möglich, ein Schutz des eigenen WLANs ist nun notwendig. Man darf die Daten anderer im eigenen Netzwerk nicht protokollieren und kann somit gar nicht der Pflicht nachkommen, die notwendig wäre, um anderen ein drahtloses Netz anzubieten. Auf der eigenen Straße darf man nur noch selbst fahren.

Noch stärker betroffen ist jedoch die Freifunk-Community. Ziel der Freifunk-Projekte ist es, ein freies drahtloses Netzwerk in einer Stadt oder einer Gegend zu etablieren, indem viele Benutzer ihre eigenen WLAN-Router zu einem große Netzwerk verbinden und in diesem großen Netzwerk dann Dienste anbieten, wie etwa Internet. In Lübeck begann 2008 die MetaMeute mit Freifunk Lübeck und hat bereits eine Kooperation mit Karstadt begonnen. Es sei in der gesamten Freifunk-Bewegung längst nicht klar, wie ein solches offenes, nichtkommerzielles Netzwerk rechtlich stehe, so Linus, Mitinitiator von Freifunk Lübeck. Helfende und Interessierte werden allerdings durch das Urteil verunsichert, denn eine Interpretation ist, dass jeder für seinen Router und eventuell bereitgestelltes Internet verantwortlich ist, obwohl das nur ein kleiner Teil des gesamten Freifunk-Netzes ist. Das sieht auch der Rest der Community so, die sich gerade Mitte Mai in Berlin auf dem Wireless Community Weekend getroffen hatten. Eine dort viel diskutierte Fragestellung war außerdem, ob ein anonymer Internetzugang überhaupt noch gestattet bleibt.

Zwar sind per UTMS auch für Mobiltelefone inzwischen Internetzugänge erschwinglich und auch darüber ließe sich ein Computer mit dem Internet verbinden. In der Spezifikation sind dabei theoretisch Geschwindigkeiten möglich, die an die weit verbreiteten drahtlosen Netzwerke herankommen: 10mBit/s im 811.2b gegen- über 7.2mBit/s im UTMS mit HSDPA. Praktisch bietet jedoch nicht jeder Anbieter HSDPA an; vor allem jedoch wird diese Geschwindigkeit in Ballungszentren zwischen allen Nutzern in Reichweite eines Funkturmes zumindest teilweise aufgeteilt. Dadurch ist für normale Internet-Inhalte – über das mobile Angebot für Smartphones hinaus – in der praktischen Nutzung jedoch eine UTMS-Verbindung zu langsam. Davon abgesehen bleiben auch viele andere Möglichkeiten im Internet weitestgehend anonym zu agieren, etwa im TOR-Netzwerk. Das Urteil schließt mit seinem Misstrauen der allgemeinen Netzkultur gegenüber wohl vorerst die freie Infrastruktur von drahtlosen Netzwerken. Das führt eher zu einem Rück-, denn zu einem Fortschritt im Umgang mit neuen Techniken und der Medienkompetenz. Die Ursache liegt lediglich im rückständigen Umgang mit digitalen Inhalten und dem Beharren auf veralteten Geschäftsmodellen einiger Weniger. Hier ist ein freierer Umgang mit moderner Infrastruktur wünschenswert, der die Chancen der aktuellen Technologie nutzt und diese nicht weiter und weiter beschränkt.

]]>
https://www.studentenpack.de/index.php/2010/06/kein-internet-in-der-fusgangerzone/feed/ 0