Seminarausarbeitung Filesharing
Transcription
Seminarausarbeitung Filesharing
Seminarausarbeitung Filesharing Seminararbeit im Seminar Neue Technologien in Internet und WWW Wintersemester 2003/04 Universität Jena vorgelegt von Marcus Lenzner Februar 2004 Abstract Gerade in den letzten Jahren, in der sich das Internet dank neuer Technologien bei der breiten Masse etablieren konnte, erlangten viele neue Entwicklungen an Bedeutsamkeit. Allesamt entspringen diese im Grunde genommen den Bedürfnissen der Personen, die sich Tag für Tag im Internet bewegen. Dazu gehören auch die ständig zunehmenden Benutzer von so genannten Peer-to-Peer-Systemen. Eben diese Systeme sollen anhand einiger ausgewählter Beispiele näher betrachtet werden. Dazu gehört zum einen die Erläuterung deren Funktionweisen, als auch die Möglichkeiten, die Sie im Bezug auf den Informationsaustausch bieten. Ebenfalls behandelt werden weiterführende Aspekt in Richtung Wirtschaft, Recht und Gesellschaft, denn neue Entwicklungen ziehen ebenso neue Konsequenzen in dieser Hinsicht nach sich. Die vorliegende Seminararbeit soll lediglich einen Einblick gewähren, jedoch keine Referenz darstellen für technische oder rechtliche Gesichtspunkte. 1 Inhaltsverzeichnis 1 2 Das Internet - Wurzeln des Peer-to-Peer................................................ 3 Was ist Peer-to-Peer ? ............................................................................ 5 2.1 Grundlagen..................................................................................... 5 2.1.1 Aber was ist nun dieses P2P eigentlich? ................................ 5 2.1.2 Technische Herausforderungen.............................................. 6 2.1.3 Vergleich zu Client/Server-basierten Systemen..................... 8 2.1.4 Was wird getauscht ................................................................ 8 2.2 Hybrides Peer-to-Peer / Zentrale Systeme ..................................... 9 2.2.1 Napster ................................................................................. 11 2.2.2 Audiogalaxy ......................................................................... 12 2.2.3 Edonkey ............................................................................... 13 2.2.4 Emule ................................................................................... 15 2.2.5 Alternativen.......................................................................... 16 2.3 Pures Peer-to-Peer / Dezentrale Systeme..................................... 20 2.3.1 Gnutella................................................................................ 21 2.3.2 FastTrack.............................................................................. 23 2.3.3 Overnet................................................................................. 25 2.3.4 Alternativen.......................................................................... 26 3 Auswirkungen auf die Gesellschaft ..................................................... 29 3.1 Raubkopieren - ein Kavaliersdelikt ?!.......................................... 29 3.2 Rechtliche Aspekte....................................................................... 31 3.3 Wirtschaftliche Aspekte ............................................................... 33 3.3.1 Schadensreport ..................................................................... 33 3.3.2 Möge die Jagd beginnen ...................................................... 33 3.3.3 Sonstige Maßnahmen ........................................................... 34 4 Abschließende Bewertung beider P2P- Systeme ................................. 36 A Glossar ................................................................................................. 37 B Weiterführende Literatur...................................................................... 39 C Abkürzungen und Akronyme............................................................... 41 D Literatur................................................................................................ 42 E Index..................................................................................................... 44 2 1 Das Internet - Wurzeln des Peer-to-Peer Bevor ich in meiner Arbeit nun zur genaueren Beschreibung verschiedener P2P-Systeme kommen will, möchte ich einige Gedanken zur zugrunde liegenden Vorraussetzung erklären - konkret: zum Internet. In den 60er Jahren sollte die ARPA (Advanced Research Projects Agency) herausfinden, wie man Computer miteinander vernetzten kann (um auf evtl. Atomangriffe reagieren zu können). Als Lösung entschied man sich für ein "Dynamic Rerouting". Das heißt nichts anderes, als dass ein System eingesetzt wurde, das trotz der partiellen Zerstörung einiger Datenleitungen weiterhin operabel sein konnte. Um zudem noch die nötige Zuverlässigkeit gewährleisten zu können, fiel die Wahl auf ein "packet-switched network". Das erste solcher Netzwerke wurde von Bolt Beranek & Newman Inc. installiert (das sog. ARPANET). Darin waren die ersten 4 Hosts als gleichberechtigte Teilnehmer zusammengeschaltet und nicht als Client/Server bzw. Master/ Slave [MH01]. Mitte der 70er waren dann schließlich aufgrund Kapazitätsmangels - bis jetzt umfasste das Netz etwa 50 Rechner - neue Netzwerke nötig. Außerdem kam es 1983 zur Aufspaltung des ARPANET in das MILNET (Militär) und das zivile ARPANET. Ab Mitte der 70er übernahm dann die U.S. Defense Communication Agency (DCA) die Kontrolle über das ARPANET und entwickelt das heute weitverbreitete und bekannte TCP/IP, welches Mitte der 80er schlussendlich zum Standart avancierte. Das wichtigste Netzwerk neben dem ARPANET war das NSFnet, welches zudem noch schneller war und eine preiswertere und unkompliziertere Infrastruktur besaß - weshalb das ARPANET schließlich 1989 abgeschaltet wurde. Im großen und ganzen sollte damit das entstanden sein, was heute als Internet bezeichnet wird. Natürlich stoppte die Entwicklung nicht an diesem Punkt. Weitere Netzwerke entstanden, die alle per TCP/IP verbunden wurden. Ich möchte hier nur einige anführen: • Computer Science Network • High Energy Physics Network • National Science Foundation Network • Japanese Computer Network usw. Leider wird heutzutage oftmals das Internet mit dem World-Wide-Web (WWW) gleichgesetzt. Letzteres ist im Grunde genommen lediglich das, was der Großteil der Benutzer in Form von HTML-Seiten zu sehen bekommt. Das dies ganz offensichtlich nicht der Fall ist, soll diese Arbeit hier auch noch einmal verdeutlichen. Das Internet in Form von HTML-Seiten 3 kennt mit Sicherheit der Großteil der Bevölkerung. Einer weiteren Facette das Filesharing in P2P-Systemen - soll die Aufmerksamkeit dieser Arbeit gelten. Eng damit verbunden ist auch das sogenannte Grid Computing. Wer sich für diese Art des P2P-Computing interessiert, der sei an die Arbeit von André Hoffmann verwiesen, welche ebenfalls in diesem Seminar angefertigt wurde. In meiner Arbeit möchte ich nun in Abschnitt 2 erklären, inwiefern das Peer-to-Peer im Internet eine Rolle spielt. Dabei gehe ich zunächst auf den grundlegenden Aufbau dieser Netze ein, und erläutere dann die beiden großen Systemen anhand von Beispielen näher. Natürlich bringen die Möglichkeiten solcher Systeme auch Folgen mit sich, die unmittelbar mit der Gesellschaft und Wirtschaft zu tun haben. Darauf werde ich in Abschnitt 3 näher eingehen. Ein Überblick bzw. eine abschließende Bewertung ist in Abschnitt 4 zu finden. 4 2 Was ist Peer-to-Peer ? Wie im vorigen Abschnitt schon erwähnt, bestand das damalige ARPANET anfangs aus gleichberechtigt zusammen geschalteten Teilnehmern. Wie wir noch sehen werden, ist gerade das eine grundlegende Eigenschaft des Peerto-Peer-Prinzips (im folgenden P2P genannt). Offenbar ist P2P also ein "alter Hut". Seine Renaissance, wenn man das so sagen kann, erlebte es aber erst in Verbindung mit der massentauglich gewordenen Umsetzung namens Napster. Doch dazu später mehr. In Abschnitt 1 hatte ich bereits erwähnt, dass P2P keinesfalls nur für Filesharing interessant ist. Weitere Anwendungsgebiete wären etwa: • Instant Messaging (alle kennen ICQ, AOL Messenger...) • P2P Groupware (Software zur Unterstützung von Arbeitsgruppen) • Grid Computing (DNET, SETI@home...), siehe Arbeit von André Hoffmann 2.1 Grundlagen 2.1.1 Aber was ist nun dieses P2P eigentlich? Bezug nehmend auf die eben angeführten Beispiele scheint folgendes offensichtlich: Daten, Speicher, Informationen, CPU-Rechenzeit usw. werden getauscht. Dazu folgendes Zitat: Intel P2P Working Group: P2P ist … "[…]the sharing of computer resources and services by direct exchange between systems [...] " [UOI]. Nach dieser Definition wäre also P2P das Teilen von Ressourcen und Dienstleistungen in einem direkten Austausch zwischen den Systemen. Weiterhin kann offensichtlich jeder quasi "geben und nehmen". Alex Weytsel: P2P ist … “[…]the use of devices on the internet periphery in a non client capacity […]” [UOI]. Laut Alex Weytsel steht also das "Nicht-Client"- Verhältnis im Mittelpunkt. 5 Außerdem ist zu beachten, dass die IP- Adressen der Internetuser, die zur "Navigation" im Internet von Nöten sind, nicht zwingend statisch sein müssen (Dial-Up-User). Von daher muss das P2P-System außerhalb des DNSSystems operieren, da nicht gewährleistet werden kann, dass User zum einen ständig online sind, und zum anderen auch immer dieselbe IP- Adresse haben. Clay Shirky: P2P ist … "[…]a class of applications that takes advantage of resources – storage, cycles, content, human presence – available at the edges of the Internet. Because accessing these decentralized resources means operating in an environment of unstable connectivity and unpredictable IP addresses, P2P nodes must operate outside the DNS system and have significant or total autonomy from central servers […]” [UOI]. Clay Shirky betont damit die Nutzung von dezentralisierten Ressourcen in einem System, dass unabhängig von zentralen Servern operiert. Als Fazit bleibt somit folgendes: 1. P2P-Anwendungen tauschen Daten direkt aus, d.h. ohne verzögernde/ filternde/ zensierende Zwischenserver. Eventuelle Server dienen lediglich zur Hilfestellung als Vermittler. 2. P2P-Anwendungen sind gleichzeitig Client und Server, d.h. jeder nimmt und gibt Ressourcen. Damit sind alle Knoten im Idealfall gleichberechtigt. 3. P2P-Anwendungen sind autonom, d.h. sie bestimmen was sie in welchem Umfang wann wohin übertragen. Um das angesprochene Problem des DNS lösen zu können, muss das P2P- Netzwerk das Kommen und Gehen einzelner Knoten in Echtzeit tolerieren und verarbeiten. Im Falle des Filesharing kann man sich ein solches Netz im Idealfall als vollständig verbundenen Graphen vorstellen, in dem jeder mit jedem Daten tauscht. Zu einem späteren Zeitpunkt möchte ich dies jedoch wieder etwas relativieren - eine Unterscheidung in hybrides und pures Peer-to-Peer wird nötig werden. 2.1.2 Technische Herausforderungen Gerade diese "Ungebundenheit" stellt ein nicht zu unterschätzendes Problem dar. Im Großen und Ganzen lassen sich 5 zentrale Herausforderungen finden, denen sich ein P2P- Netz stellen muss. 6 1. Adressierung Wie nun schon mehrmals erwähnt, sind die IP-Adressen bei "eingewählten" Teilnehmern (Modem, DSL) nicht statisch. Momentan steht als Lösung eigentlich nur ein statischer Zugangsknoten zum P2P- Netz zur Verfügung. Das heißt dieser muss eine feste IP- Adresse haben. Damit ist er immer lokalisierbar. In Zukunft wird aber wahrscheinlich dank IPv6 ohnehin jeder User eine statische IP haben, da die Adressierung auf einem 128Bit Schlüssel basiert, welcher mehr als genug Kombinationen bietet, ohne dass sich Adressbereiche zu Überschneiden drohen. 2. Routing Dies übernehmen entweder Server (hybrides/zentrales P2P) oder alle Knoten (pures/dezentrales P2P) gleichermaßen. Es gibt diverse verschiedene Routingverfahren. Deren Behandlung würde aber jetzt hier zu weit führen. Vor- und Nachteile betreffend Geschwindigkeit und Bandbreite haben sie alle. Beim Gnutella- Netz unter Punkt 2.3.1 werde ich kurz darauf zurückkommen. 3. Suchfunktion Hier offenbaren sich ähnliche Problematiken wie beim Routing. Übernimmt in den zentralen Systemen noch ein Server die Suchaufgaben, so sind im dezentralen System alle Knoten dafür zuständig. Damit liegt sofort auf der Hand, dass die Implementierung in beiden System auch grundlegend verschieden ist. Später auch hierzu mehr beim GnutellaNetz. 4. Bandbreite Zwar haben Breitbandsysteme wie DSL, Cable oder ähnlich mittlerweile eine ganz gute Verbreitung erreicht, aber trotzdem sind noch einige User mit Modems unterwegs. Auch dies ist nicht zu unterschätzen. Die stärkste Kette ist immer nur so stark wie ihr schwächstes Glied - das ist hier nicht anders. Auch wenn man selbst ausreichend Bandbreite hat, so können die geringen Bandbreiten von Modem- Usern doch zu erheblichen Performanceeinbrüchen führen, schließlich müssen sie unter Umständen dieselben "bandbreitenbedürftigen" Routing- und Suchfunktionen ausführen wie DSL- User. 5. Sicherheit Damit ist zum einen die Stabilität gemeint, zum anderen auch die Sicherheit vor Hackern oder gar zu neugierigen Teilnehmern. In diesem Zusammenhang spielt Verschlüsselung und der nicht zu freigiebige Umgang mit IP- Adressen und ähnlichen empfindlichen Daten eine Rolle. 7 2.1.3 Vergleich zu Client/Server-basierten Systemen Unter dem Client-Server-System (oder Paradigma) versteht man folgendes: der Server ist ein Prozess, der auf eine Verbindung wartet (meist in einer Endlosschleife), der Client hingegen übernimmt den aktiven Teil des Verbindungsaufbaus und bestimmt dessen Zeitpunkt. Offenbar sind die Autonomie und der direkte Datenaustausch allerdings nicht die Schlüsselkomponente von P2P-Anwendungen. Das Besondere ist die Funktionalität, gleichzeitig Client und Server sein zu können. Am Beispiel FTP ist das Client-Server-Modell deutlich zu erkennen. Der Server wartet, dass Clients zu ihm verbinden. Der Client selbst gibt zu einem von ihm gewählten Zeitpunkt das Signal, nun verbinden zu wollen. Nicht ganz so eindeutig ist das Beispiel IRC: Internet Relay Chat. Zwar existieren Server und Clients, wobei der Server gerade Filter- und Vermittlungsaufgaben übernimmt, und auch der Chat rel. eindeutig als Client-Server-Modell zu identifizieren ist - die Unterstützung von Fileservern/ Filetransfers ist aber P2P-typisch. Dateiangebote werden im Chat gezeigt, die Dateiübertragung erfolgt per DCC (Direct Client to Client Protocol) und sogenanntem Trigger in Verbindung mit der Nummer der gewünschten Datei und dem Namen des Benutzers. Das Prinzip ähnelt dem später noch besprochenen Direct Connect. Es besteht lediglich immer die Notwendigkeit die entsprechende IP bzw. Server bzw. Channel zu kennen und zu finden. Dies geschieht z.B. per Links auf Seiten wie www.packetnews.com (enthält eine große Liste von Dateien/ Channels). Grundsätzlich übernimmt beim Client-Server-System der Server die Rolle des Anbietenden, der Client ist hingegen der Suchende. Der Server ist dabei nicht in der Lage, sich selbständig Daten vom Client zu holen, welcher wiederum nicht selbständig Daten anbieten kann. Client und Server haben unterschiedlich Aufgaben, sie sind nicht gleichberechtigt. Dort setzt das P2P-Prinzip an. Jeder Knoten/Anwender bietet Dienste/Daten an und nimmt sie gleichzeitig in Anspruch. Alle Knoten sind gleichberechtigt. In den folgenden Abschnitten wird es nun nicht mehr allgemein um P2P gehen, sondern um Filesharing. Dazu gehört vor allem die Erläuterung der zentralen und dezentralen Systeme anhand von Beispielen. 2.1.4 Was wird getauscht Schon an den Filtern der Suchfunktionen erkennt man die einschlägigen Tauschformate: • Musik/Audio • Filme/Video • Bilder • Programme • Archive usw. 8 Da unkomprimierte Bilder, Musik, Archive und Filme viel zu groß sind, sind gerade die bekannten Formate mp3, DivX, SVCD(MPEG4), jpeg usw. sehr beliebt (nähere Informationen zu diesen Formaten sind in den entsprechenden anderen Vorträgen dieses Seminars zu finden). Aus der langjährigen Erfahrung im Umgang mit Filesharingtools postuliere ich folgendes: getauscht werden meist illegale Inhalte (sog. Warez) wie Musikalben, DVD-Rips, Kinomitschnitte (sog. Screener) oder Software jeder Art (Spiele, Betriebssysteme ...), sowie gescannte Bücher usw. Der Anteil legaler Inhalte ist verschwindend gering. 2.2 Hybrides Peer-to-Peer / Zentrale Systeme Grundlage sind ein oder mehrere zentrale Server, die Dateien indexieren. Meist dienen sie auch als Login. Der geführte Dateiindex dient als Übersicht der Ressourcen für die Clients, stellt also quasi eine Art Inhaltsverzeichnis aller vorhandenen Daten dar. Die Übertragung der Daten findet aber P2Ptypisch auch hier letztendlich direkt zwischen den Clients statt, ohne dass sich der Server weiter darum kümmern muss. Hybride P2P- Systeme sind also eine Art Zwischenstück zwischen purem P2P und Client/ServerSystemen. Als Beispiel für so ein zentrales System sei hier Napster genannt (siehe 2.2.1), deren zentraler Server später einige Umstände bereiten sollte, als es Probleme mit dem Gesetz gab. Die Problematik zentraler Server im Hinblick auf die Jurisdiktion wird noch in Abschnitt 3 zur Sprache kommen. Der Ablauf der Kommunikation in solchen zentralen Systemen sieht prinzipiell so aus. Ein Client verbindet zu einem der Server und übermittelt ihm seinen Metadaten-Bestand (Metadaten = Daten über Daten). Dieser trägt die Metadaten in seinen Index ein. Erreicht den Server nun zu einem späteren Zeitpunkt eine Suchanfrage, so durchsucht er seine Datenbank (also den Index) und erzeugt eine Liste, welche die gewünschten Dateien als Ergebnis enthält. Natürlich nicht die Dateien an sich, sondern sozusagen die Quellen (also andere Clients). Diese Liste bekommt nun der suchende Client zugeschickt und kann sich mittels derer die Dateien direkt vom entsprechenden Client laden, ohne dass ihn der Server ab jetzt weiter unterstützen müsste. Beim Verbindungsabbruch eines Clients werden seine Metadaten aus dem Index wieder gelöscht. Anschaulich muss sich das Netz etwa folgendermaßen vorstellen (siehe Abb. 1). 9 Abbildung 1: Grundlegender Aufbau zentraler/ hybrider Systeme Der Index ist meist als so genannter inverser Index aufgebaut. Man muss sich das so vorstellen, dass zu jedem Wort (zum Beispiel ein Wort aus dem Name einer mp3-Datei, eben die Metadaten) eine Liste erstellt wird, welche die Orte enthält, an denen das Wort zu finden ist (und ggf. noch die Stelle an jenem Ort). Dies entspricht quasi dem Aufbau einer Hash-Tabelle, in der an jedem Feld der Tabelle (das sind die Wörter) eine Liste (das sind die Orte) hängt. Sind sehr viele User im Filesharing-Netz aktiv, dann kann es aus Performancegründen nötig sein, mehrere Server zu betreiben, die ggf. miteinander kommunizieren müssen, um die Indexdaten auszutauschen. Die verschiedenen Kommunikationsarten möchte ich hier auch nur am Rande erwähnen: • Chained/Unchained Architecture • Full Replication Architiecture • Hash Architecture Ein ganz offensichtlicher Vorteil und gleichzeitig Nachteil solcher zentralen Systeme ist der zentrale Server. Durch ihn wird zwar eine effiziente Suche dank der Indexdatei möglich, und eine zentrale Kontrolle ist auch möglich (z.B. ist damit das Einschleusen manipulierter Server unmöglich oder ein kostenkontrolliertes System ist denkbar), jedoch bezahlt man dies mit einem erhöhten Bandbreitenbedarf für Suchanfragen und der Anfälligkeit für Hackerangriffe und Juristen. 10 2.2.1 Napster (a) Allgemeines Napster hat das Kind P2P gesellschaftsfähig gemacht. Zu Bestzeiten benutzten es bis zu 50 Mio. User. Die 1999 von Shawn Fanning entwickelte mp3Tauschbörse sollte aber bald Probleme mit der RIAA (Recording Industry Association of America) bekommen aufgrund von Urheberrechtsverletzungen. Diverse Klagen und Berufungen folgten, schließlich versuchte man dem drohenden Aus mit einer Kooperation im November 2000 mit der Bertelsmann eCommerce Group zu entgehen. Ohne Erfolg. Mitte 2001 verschwand Napster mehr oder weniger von der Bildfläche, nachdem es die Auflage erhalten hatte, nur noch online sein zu dürfen, wenn keine urheberrechtlich geschützten Lieder mehr im Netz sind (Filter scheiterten) [SF]. (b) Funktionsweise Zunächst versucht man zu einem festen Reconnect- Server zu verbinden, welcher einen dann auf einen der Indexserver weiterleitet, auf denen dann erst der Dateiindex liegt. Eine manuelle Auswahl der Indexserver ist hingegen nicht möglich. Das ist eines der Probleme. Ein anderes ist, dass die Indexserver nicht synchronisiert sind, d.h. Napster besteht quasi aus mehreren Teilnetzen, die nicht miteinander kommunizieren. Damit sind Dateien, die auf einem Server verfügbar sind, dies vielleicht nicht auf einem anderen. Gemäß dem P2P-Prinzip werden die Dateien aus der zurückgelieferten Indexliste dann direkt von einem Benutzer zum anderen geladen. Genutzt wird dazu Port 6699. (c) Kommentare Sicherheitstechnisch ist es um Napster nicht allzu gut bestellt. Das eingesetzte Protokoll überträgt Logins und Passwörter unverschlüsselt, bei der Suche wird der Benutzername zusammen mit der IP-Adresse übertragen. Dies macht das System für Attacken auf Server und Clients anfällig. Das in Verbindung mit den zentralen Reconnect- und Indexservern hat es der Justiz ebenfalls leicht gemacht, Napster zu zerschlagen, sodass es heute eigentlich keine Bedeutung mehr hat. Allerdings erschienen nach Offenlegung des Protokolls einige Erweiterungen, die das System komfortabler machen sollten. Diese sind noch nicht alle von der Bildfläche verschwunden. Zum Beispiel ermöglichte Napigator ab diesem Zeitpunkt die freie Auswahl der Indexserver, außerdem schossen einige freie napsterkompatible Indexserver wie OpenNap oder Jnerve aus dem Boden. Weiterhin gab es neue Clients mit mehr Funktionalität. Hier sei Aimster und WinMX erwähnt. Letzteres funktioniert momentan auch noch recht gut und bietet neben mp3 auch noch andere Formate an. Komfortabler ist es allein schon deshalb, weil jetzt eine Datei gleichzeitig von mehreren Benutzern geladen werden kann. Die Datei 11 wird dabei in kleine Teile zerlegt, wobei nun jedes dieser Teile von einem unterschiedlichen Benutzer geladen werden kann. Dies bringt angenehme Geschwindigkeitszuwächse mit sich. Außerdem sind mehrere Suchanfragen gleichzeitig möglich. Allerdings muss man erwähnen, dass später zum eigenen "WinMX Peer Network" gewechselt wurde, auf dem das System auch jetzt noch basiert. WinMX ist nicht nur auf Port 6699 beschränkt, sondern erlaubt auf das Firewall- taugliche Tunneling . 2.2.2 Audiogalaxy (a) Allgemeines Nach dem Aus von Napster wurde Audiogalaxy zum beliebten Tool für mp3-Downloads. Ursprünglich sollte es nur wie www.mp3.com eine Tauschbörse für unbekannte Musiker sein. 2001 wurde auch Audiogalaxy, ähnlich wie Napster, von der RIAA verklagt, da die Filter nicht richtig funktionierten, d.h. urheberrechtlich geschützte Werke wurden nicht zufriedenstellend aussortiert. Nach verschärften Restriktionen waren bald kaum noch Titel erhältlich. (b) Funktionsweise Hauptsächlich wird Audiogalaxy über ein Webinterface (also eine Benutzeroberfläche auf HTML-Basis) auf www.audiogalaxy.com gesteuert. Nach dem Login sucht man sich auf der Seite das gewünschte Lied und legt es damit in eine Downloadwarteschlange. Auf dem eigenen Rechner startet man nun das kleine Programm "Satellite", dieses sorgt dann für die Downund Uploads (hat nur geringe Funktionalität). Das Gute an dem Webinterface ist, dass Suche und Download getrennt bedient werden können. Damit wird die Steuerung von unterschiedlichen Rechnern möglich, ohne per Fernzugriff auf dem Heimrechner arbeiten zu müssen. Als Audiogalaxy noch aktuell war sprachen gute und schnelle Suchergebnisse, sowie die für damalige gängige ISDN-Leitungen ausreichende Transfergeschwindigkeit für die große Beliebtheit. Weiterhin behielten die Server auch Offline- Angebote im Index, womit man ein ggf. später wieder online stehendes Angebot bereits in die Downloadqueue legen konnte. (c) Kommentare Probleme bereitete jedoch die mitinstallierte Adware Gator. Wie auch bei weiteren Tauschbörsen stieß dies nicht auf Zustimmung bei den Usern. Momentan ist das Audiogalaxy Peer-to-Peer-Netzwerk für den Satellite ganz abgeschaltet. Stattdessen ist der kostenpflichtige "on demand music subscription service" Rhapsody online. Dort kann man jetzt für ca. 10$ (monatliche Pauschalkosten) Lieder herunterladen. Einige Titel können auf CD gebrannt werden für 0,79$ pro Lied, allerdings existiert dieser Client 12 momentan nur für Windows und auch nur in den USA wegen der Copyright-Problematik [AG]. 2.2.3 Edonkey (a) Allgemeines Sehr beliebt unter den Tauschbörsen ist momentan Edonkey2000 (im folgenden als ED2k bezeichnet). Besonders geeignet für große Dateien wie DivX- Filme, Programme, Spiele, Musikalben usw. ist eine große Bandbreite sehr förderlich, um die großen Datenmenge zu bewältigen. Für kleine Dateien wie mp3-Dateien eignet sich WinMX oder Kazaa nämlich um einiges besser, da derartige Dateien dort stärker verbreitet sind. (b) Funktionsweise ED2k verwendet das Protokoll MFTP (Multisource File Transfer Protocol). Die Verbindung zum Server wird über TCP- Port 4661 hergestellt, die Verbindung zu den Clients über TCP- Port 4662 und für den Messagetransfer wird letztendlich UDP-Port 4665 genutzt. Die Ports können jedoch auch frei gewählt werden. Ein Tunneling für Firewalls gibt es jedoch nicht, hierfür müssen die Ports freigeschalten werden, ansonsten macht ED2k Probleme. ED2k enthält übrigens auch den Overnet-Kern (siehe 2.3.3) - damit kann gleichzeitig auf das eDonkey- und das Overnet- Netz zugegriffen werden. Um freigegebene Dateien eindeutig identifizieren zu können, werden HashWerte generiert. Bei den heutigen Festplattenkapazitäten stellt sich folgendes Problem jedoch nicht mehr wirklich: begonnene Dateien werden sofort in voller Größe auf der Platte angelegt. Beim Download einer Datei kann der Originaldateiname nach Wunsch live geändert werden. Dies ist gerade für die aktuelle Rechtslage interessant, da mit dieser Funktion ganz schnell der Dateiname geändert werden kann, und es nicht mehr offensichtlich ist, ob eine Datei aus einer illegalen Quelle (identifiziert anhand eines Dateinamens wie "...cracked....") stammt (siehe Abschnitt 3) Der Verbindungsaufbau erfolgt zu einem ED2k- Server, diese sind über eine Serverliste bekannt (die auf diversen Seiten angeboten wird, wie z.B. www.esel-paradies.de). Ist man einmal verbunden, so können die Serverlisten über die Server weiter aktualisiert werden. Somit ist man immer auf dem neuesten Stand. Wie für hybride Systeme typisch teilt der Client dem Server seine Metadaten mit, womit dieser wieder eine Liste verfügbarer Dateien der verfügbaren Clients hat. Die normale Suche nach Dateien findet auf dem Server statt, zu dem man verbunden ist. Die globale Suche geht an alle Server, ist jedoch unbeliebt bei Serveranbietern, da dadurch ein enormer Traffic und viel Aufwand für die Server entstehen kann, wenn man bedenkt was passiert, wenn alle User immer mit globaler Suche suchen. Der Vorteile liegt natürlich in mehr Suchergebnissen. 13 ED2k erlaubt auch mehrere Suchanfragen gleichzeitig. Hat man nun eine Datei gefunden und wählt diese aus, so folgt dieser Auswahl zuerst die Anfrage an den Server, zu dem man verbunden ist, und dann an alle anderen Server, um die Teile der Datei nachzufragen. Damit ist die globale Suche eigentlich nur bei seltenen Dateien nötig, die man auf dem aktuellen Server nicht gleich gefunden hat. Meist bringt die Suche aber schnell viele Ergebnisse mit diversen Informationen zu den Quellen . Die folgende Grafik veranschaulicht die Vorgänge noch einmal (siehe Abb. 2). Abbildung 2: Funktionsweise von Edonkey Zusätzlich zum normalen Download gibt es noch das Download-System "Horde". Es sucht eine Gruppe von Usern, die die gleiche Datei herunterladen. Innerhalb dieser Gruppe versorgen sich die User nun gegenseitig mit Uploads, um den Download zu beschleunigen. Andererseits dient dieses System als "Leech- Killer" (wenn alle User Horde verwenden findet jemand, der nur wenig Upload hat, keine Tauschpartner mehr). Die Effektivität wird sich jedoch erst noch zeigen müssen. (c) Kommentare Das Stichwort "Leech- Killer" deutet bereits das hauptsächliche Problem von ED2k an. Da ab 10kb/s Uploadlimit (d.h. es werden nicht mehr als 10kb/s Daten versendet) mit unbegrenztem Downloadlimit gezogen werden kann - selbst wenn man keine Dateien anbietet - bieten damit auch nur sehr wenige User etwas an, aber alle wollen laden/leechen. Beim Uploadlimit bis zu 5kb ergibt sich das Downloadlimit = Uploadlimit*3 und beim Uploadlimit von 5kb bis 10kb ergibt es sich als Downloadlimit = Uploadlimit*4. 14 Um nun hohe Downloadgeschwindigkeiten zu erreichen, müssen meist viele Dateien in der Downloadliste sein, um in der Summe eben diese großen Geschwindigkeiten zu erreichen. Zudem dauert es deshalb auch ziemlich lang, um z.B. zu allen 20 Dateien der Download-Queue die nötigen Quellen ausfindig zu machen (es dauert etwa 1 bis 2h bis der Download richtig gut läuft). Die Stärken von ED2k liegen im Multisource- Download (kein Problem von vielen Leuten gleichzeitig Teile derselben Datei zu laden), im partiellen Download/Upload (schnellere Raten dank Zerlegung der Dateien) sowie vor allem auch in den ED2k-Links auf diversen Seiten wie Sharereactor.com oder eselfilme.de (damit erspart man sich die Suche in ED2k selbst und ggf. das versehentliche Laden von Fakes). Dank eines riesigen Angebotes an Dateien, ist es auch kein Problem auch ältere und ausgefallene Sachen zu finden. Unter Umständen erhält man also bei verbreiteten Sachen sehr gute Downloadgeschwindigkeiten und bekommt mit nur genügend Ausdauer so gut wie alles, was man sucht. 2.2.4 Emule Die Funktionalität dieses beliebten Edonkey2000-Clone (der immerhin schon 1 Mio. Nutzer umfasst [SED]) ist prinzipiell so wie von ED2k, allerdings um einige Funktionen erweitert. Zum Beispiel erlaubt es ein Webserver, dass Emule über ein Webinterface überwacht werden kann (über Port 4711 oder Port freier Wahl, siehe Abb. 3). Die so genannte MobileMuleFunktion erlaubt es sogar über WAP/GPRS per Handy das Emule zu überwachen. Für die anfängliche Konfiguration (man kann sehr viele Details einstellen) gibt es einen Config-Wizard. Bei Filmdownloads ermöglicht Emule nun eine Videovorschau - damit kann man sich schon nach einiger Zeit versichern, dass man auch tatsächlich nicht einem Fake aufgesessen ist. Ausführlichste Statistiken, sowie ICH (Intelligent Corruption Handling) für fehlerhafte Dateien runden Emule ab, und machen es in meinen Augen zu einem komfortableren Edonkey- Client als ED2k. Mit einer eigenen "Anitleecher"- Strategie versucht man außerdem, der Unart, nie etwas hoch zu laden, Einhalt zu gebieten. Emule merkt sich die IDs (die sich übrigens über eine einfache Formel aus der IP berechnen) von Clients, von denen man herunterlädt oder denen man Dateien sendet. Über eine Formel steigt oder fällt ein Multiplikator, der Auswirkung darauf hat, wie lange man bei dem Gegenüber in der Warteschlange hängt: Ratio1 = Uploaded Total* 2 / Downloaded Total Ratio2 = SQRT(Uploaded Total + 2) Der niedrigere der beiden Multiplikatoren wird als endgültiger Multiplikator gewählt (er bewegt sich immer zwischen 1 und 10). 15 Abbildung 3: Das Emule Webinterface 2.2.5 Alternativen DIRECT CONNECT (a) Allgemeines Zwar ist auch Direct Connect ein zentrales System, aber es hat den Vorteil, dass es keinen Hauptserver gibt wie bei Napster, den man leicht sperren oder filtern kann. Stattdessen gibt es unterschiedliche Communities, in denen die Benutzer, indem sie sich mit der Community verbinden, einen eigenen Server (sog. HUB) erstellen. Damit liegt eine direkte Verbindung zwischen Anbieter und Konsument liegt vor, in die sich keiner einmischen kann. Wichtig ist, dass jeder Benutzer nicht nur herunterlädt, sondern auch selbst Dateien anbietet. Die Communities haben oft Mindestanforderungen an Angebot und Bandbreite, die man mitbringen muss, sowie unter Umständen Passwörter. Richtig gute Communities (also mit großen Datenbestand und schnellen Transferraten) erreicht man erst mit T1-Leitung und min. 50GB Angebot. Zum einen ist dies eine gute Leecher- Vorbeuge und zum anderen eben auch eine Art Sicherheit vor gar zu neugierigen Teilnehmern. Direct Connect enthält eine detaillierte Suchfunktion mit sehr guten Ergebnissen, auch ausgefallene Sachen sind zu finden. Größtenteils ist es aber vor allem für englische Inhalte geeignet aufgrund überwiegend "internationaler" 16 Verwendung von Direct Connect. Weiterhin gibt es einen Chat und eine Favoritenliste für komfortables Kommunizieren und Downloaden. Zwar werden Werbebanner eingeblendet, aber diese kommen von einer eigenen Adware, die diese lediglich als HTML-Banner innerhalb des Programms ohne Pop-Ups anzeigt. (b) Funktionsweise Prinzipiell funktioniert Direct Connect ähnlich wie das bereits erläuterte IRC. Bringt man die nötigen Anforderungen mit, so erhält man Zugang zu Channels, in denen der erwähnte Chat möglich ist. Eine Liste aller ChannelUser wird angezeigt, die das Browsen durch deren Angebot möglich macht. Geladen wird die Datei aber immer nur von einem User. Trotzdem erreicht man hervorragende Downloadraten, da ohnehin meist nur Leute mit hoher Bandbreite (wegen den Anforderungen) anwesend sind. (c) Kommentare Fazit: Direct Connect ist schnell, komfortabel und hat einen großen Datenbestand (ca.1 Petabyte trotz "nur" 400.000 Nutzer [SDC]). Wirklich geeignet ist es aufgrund der hohen Anforderungen an Bandbreite und Angebot nur für Benutzer mit schneller Leitung und großem Angebot an Dateien. BITTORRENT (a) Allgemeines Der von Bram Cohen entwickelte "Bit-Sturzbach" ist kein FilesharingClient im klassischen Sinne, sondern eher ein "Filesharing-Browser-Plugin". Es besteht aus 2 Komponenten. Zum einen aus dem Tracker, der koordiniert bzw. vermittelt als Server den Transfer, und zum anderen aus dem Client, dieser dient zum eigentlichen Filetransfer. (b) Funktionsweise Im Gegensatz zu anderen Filesharingtools ist es bei BitTorrent nun unerlässlich auf eine Website nach Links zu suchen, da nur dort ggf. eine Suchmaschine für solche Files existiert - in BitTorrent selbst ist nämliche keine Suche integriert. Hat man einen solchen .torrent- Link (diese enthalten Prüfsummen und Adresse eines Trackers) gefunden und angeklickt, aktiviert sich der BitTorrentClient und verbindet sich mit dem Tracker. Dieser schickt per HTTP den anfragenden Clients eine zufällig Liste (IPs) von anderen bereits ladenden Clients. Diese Clients stellen daraufhin Verbindungen zueinander her, der Transfer startet. Multisource und partielle Downloads werden auch hier unterstützt. Im Unterschied zum Uploadlimit-System bei Emule ist es bei BitTorrent so, dass je mehr Uploadgeschwindigkeit gegeben wird, desto mehr Downloadgeschwindigkeit ist möglich. Dies bezeichnet Bram Cohen selbst als "leech resistance" (nur wer viel gibt bekommt auch viel). 17 BitTorrent ist vor allem für große Dateien geeignet, für kleinere lohnt der Aufwand kaum. Innerhalb kurzer Zeit erreicht der Download meist hohe Geschwindigkeiten, da sich viele User auf eine Datei konzentrieren. Allerdings ist dieses Prinzip nicht wirklich neu (ED2k verfolgt ein ähnliches Prinzip), trotzdem ist BitTorrent schneller als z.B. Emule. Folglich muss die hohe Effizienz und Robustheit auf der Implementierung dieses Verfahrens beruhen. Die nachfolgenden Punkte sind neben obigen Argumenten ebenfalls für diese Effizienz und Robustheit verantwortlich: • Die Erzeugung zufälliger IP-Listen durch den Tracker. Dieses Verfahren weißt bessere Ergebnisse auf, als die Erstellung z.B. auf der Grundlage von Geschwindigkeiten einzelner User. • Die Auswahl der Teile (schließlich werden die Dateien von BitTorrent zerteilt). Hier sind 4 Verfahren zu unterscheiden. 1. Strict priority Subpieces eines Teils erhalten den Vorrang vor anderen Subpieces, damit ein Teil möglichst schnell vervollständigt wird. 2. Rarest first Wie der Name schon sagt, werden seltene Teile zuerst geladen, damit die Datei nicht ausstirbt. 3. Radom first Beim Start wird nicht der seltenste Teil zuerst geladen, da dies zu langsam wäre für den Anfang. Der Download soll möglichst schnell beginnen. Ist der erste Teil fertig wird zu Rarest first gewechselt. 4. Endgame mode Zum Vermeiden eines langsamen Downloads am Schluss, wird die Nachfrage nach den fehlenden restlichen Subpieces an alle Peers gestellt. • Pipelining. Es werden immer um die 5 Request (und damit Subpieces) in der Warteschlange/ Pipeline gehalten, damit es nicht zu Verzögerungen bei Anfragen kommt. • Choking Algorithmen. Diese sind nötig für die "leech-resistance" und konsistente Übertragungsraten. Choke steht dafür, dass einem anderen User der Upload verwehrt wird, Unchoke heißt, dass der Upload wieder gewährt wird. Bevorzugt werden Transfers ins beide Richtungen. BitTorrent bewirkt, dass alle 10 sec das Choking und Unchoking neu vergeben wird. Weiterhin existiert ein sogenanntes "Optimistic Unchoking", welches alle 30 sec ausgeführt wird, um ggf. bessere Transferraten ausfindig zu machen. Ist man mit dem Download eines Teiles von einem Peer fertig, dann erhält man einen Choke von ihm. Dies führt unter Umständen bei vielen Chokes dazu, dass die Rate einbricht. Dauert dies über mehr als 1 min an, tritt das so genannte "Anti-snubbing" in Aktion. Nun werden die Partner ebenfalls "gechoked", was die Chance erhöht, ei- 18 nen Optimistic Unchoke zu erhalten, womit der Download wieder weitergehen würde. Ist man ganz und gar fertig mit dem Download, so stellt sich die Frage, wohin weiter hochgeladen werden soll - schließlich sind jetzt keine Download-Partner mehr da, die anhand obiger Algorithmen entscheiden, wie übertragen wird. In diesem "Upload only"- Abschnitt wird nun zu denen übertragen, wo z.B. die besten Raten zustande kommen. (c) Kommentare Gut geeignet ist BitTorrent für das Verbreiten von Dateien, die auf Webspace liegen. Durch dessen Einsatz und vielen gleichzeitigen Usern erhöht sich die Geschwindigkeit für alle Beteiligten, und es entlastet den Server. BitTorrent ist also auch eher ein "Download-Booster" statt Filesharing- Netz. Als Nachteil stellt sich die nicht vorhandene Suchfunktion bzw. das nicht vorhandene "Gedächtnis" a la ED2k oder Kazaa dar. Damit sind komplette Quellen auf dem Tracker nötig, sonst droht die Gefahr, dass die Datei nie fertig wird. Da oft nur sehr aktuelle Dateien vorhanden sind, stehen die Chancen zudem schlecht bei seltenen Dateien. Benutzerfreundlichkeit ist im Moment aufgrund recht spartanischer grafischer Oberflächen im Vergleich zu Emule auch nicht wirklich gegeben. Im Endeffekt ist BitTorrent also vor allem wie auch Direct Connect für Benutzer geeignet, die immer die aktuellsten Daten wollen. Für kleine oder ausgefallene Dateien ist auch hier ED2k oder Kazaa die bessere Wahl. 19 2.3 Pures Peer-to-Peer / Dezentrale Systeme Grundlage von purem P2P sind gleichberechtigte Nodes, also keine zentralen Einheiten und keine Hierarchie unter den Knoten. Jeder Knoten erledigt dieselben Aufgaben. Für den Login muss natürlich trotzdem ein Einstiegspunkt bekannt sein. Die Kommunikation läuft grob folgendermaßen ab: Rechner A nimmt Verbindung mit Rechner B, der bereits im Netzwerk hängt, auf, und meldet, dass er aktiv ist. Rechner B gibt diese Information an die restlichen im Netz befindlichen Rechner (um genau zu sein an seine Nachbarn) weiter, welche die Information wieder weitergeben usw., bis alle verständigt sind. Nach einem ähnlichen Prinzip läuft die Suchanfrage ab. Die Unterschiede liegen hier im Detail und werden bei den einzelnen Systemen näher erläutert. Der Datentransfer an sich läuft dann wieder direkt ab, ohne Zwischenknoten. Da die Systeme z.T. sehr unterschiedlich funktionieren, sind dort weitere Grafiken zur Veranschaulichung zu finden (für den allgemeinen Aufbau siehe Abb. 4) Abbildung 4: Grundlegender Aufbau dezentraler Systeme Interessant sind auch die Suchmethoden, denn hier steht kein zentraler Index zur Verfügung. Man unterscheidet nun in die Suche ohne und mit Routing Indices. Zu der Suche ohne Routing Indices gehört z.B. das Non-Indexed-Flooding (Schneeballprinzip, im folgenden Abschnitt 2.3.1 beschrieben) und "Iterative Deepening". Letzteres geht so vor, dass sukzessive tiefer ins Netz vorgedrungen wird, allerdings nur solange, wie man nicht genügend Ergebnisse bekommt. Hat man genug, kann evtl. weiteres unnötiges Suchen vermieden 20 werden. Ein weiteres Prinzip ist das "Directed Breadth first Search", eine Breitensuche, die jedoch nur bei manchen Nachbarn sucht, die gewissen Kriterien (z.B. Geschwindigkeit) entsprechen müssen. Zu guter Letzt gibt es noch die Suche mit "Local Indices", d.h. die Knoten haben bereits einige Daten aus dem Umkreis vorliegen, das erspart das unnötige erneute Durchsuchen. Wenn Knoten das Netz verlassen oder betreten, müssen diese Local Indices auf den neuesten Stand gebracht werden. Offenbar ähnelt dieses Prinzip also dem des zentralen Index der Hybridsysteme. Bei der Suche mit Routing Indices gibt es zum Beispiel das Compound Routing, eine Erweiterung der Local Indices um Kategorien - damit entfallen wieder einige unnötige Suchen. Das Hop-Count-Routing erweitert wiederum das Compound-Routing um ein Maß für die Entfernung der Zielhosts, die in der Tabelle eingetragen sind. Von Vorteil bei dezentralen Netzen ist, dass bei Ausfall eines Knotens der Rest des Netzes normal weiterfunktioniert. Zudem ist ein solches System juristisch schwer zu belangen, da keine zentralen, abschaltbaren Einheiten existieren. Gegen derlei Bedrohungen ist die dezentrale Struktur also ziemlich robust. Nachteil dieses Systems ist, dass jeder Knoten sich mit Routing- und Suchalgorithmen auseinandersetzen muss. Darunter leidet zum einen die Performance des Netzes, zum anderen ist die Belastung der Bandbreite sehr hoch. Unter Umständen kann das Netz zudem in Teilnetze zerfallen, wenn Knoten ausfallen, die an einer "Engstelle" größere Teile des Netzes verbinden. Wie auch bei den zentralen Netzen stellt der Login-Knoten immer noch ein Risiko dar, denn um diesen kommt man nicht herum. Entweder ist das ein fester Beacon-Knoten (die sind dann wieder anfällig für Hacker und Juristen), oder man durchsucht bestimmte Netzbereiche (auch ungünstig, da dieses Flooding das Netz stark belastet). Kommen wir nun zu bekannten Vertretern dezentrale P2P-Systeme. 2.3.1 Gnutella (a) Allgemeines Das von Justin Frankel entwickelte Gnutella-Netzwerk gilt unter Peer-toPeer-Nutzern als etwas angestaubt, da es einige Mängel hat (siehe c). (b) Funktionsweise Das auf TCP aufsetzende Protokoll ist vollständig dokumentiert [GPS] und funktioniert folgendermaßen: zunächst einmal braucht man einen Andockpunkt ans Netzwerk. Dieser wird von einem bekannten Host-Cache geholt. Nun sendet man ein "Connect" zu einem der Punkte und hofft, dass ein "Ok" zurückgesendet wird. Die weitere Kommunikation läuft über spezielle Pakete ab, welche aus einem 22 Byte großen Header und dem Body/Payload 21 bestehen. Der Header besteht aus Descriptor ID, Payload Descriptor (mögliche Werte sind: Ping, Pong, Query, Query Hit, Push), TTL, Hops und Payload Length. Die Suche erfolgt nun per Query/ Query Hit, die Anfrage breitet sich von Servant zu Servant (so heißen hier die Nodes) aus. Der Body dieser Anfrage enthält den Suchstring und die geforderte Mindestgeschwindigkeit. Bei jedem Sprung/Hop wird die TTL um 1 dekrementiert. Diese "viral propagation/ Schneeballprinzip" (= Suchprinzip des Non-Indexed Flooding) hat den Zweck, dass Suchanfragen nicht auf immer und ewig im Netz kreisen, jedoch werden deshalb auch nur Teile des Netzes sichtbar, bis TTL=0 ist. Je nach Einstiegspunkt ergeben sich so ggf. unterschiedliche Ergebnisse. Landet man nun einen Treffer bei der Suche, so nimmt die IP- Adresse des Ziels denselben Weg zurück, der Transfer erfolgt danach direkt über das HTTPProtokoll (siehe Abb. 5). Die Push-Funktion dient für Verbindungen für Servants hinter Firewalls und ist an dieser Stelle eher nebensächlich. Ich möchte nun noch einmal auf den erwähnten Host Cache zurückkommen, dieser spielt nämlich eine entscheidende Rolle im Gnutella- Netz. Alle Servants senden regelmäßig Pings, welche ähnlich der Suche behandelt werden. Zurück kommen diesmal Pongs (enthalten IP, Port und statistische Infos) von den einzelnen Servants. Wozu dient dieses Verfahren? Mit den Daten soll der Host Cache gefüllt werden, damit er immer aktuelle Daten der möglichen Einstiegsknoten enthält. Abbildung 5: Funktionsweise von Gnutella (c) Kommentare Unglücklicherweise hat das eben erwähnte Verfahren nur einen großen Nachteil. Der Bandbreitenbedarf ist enorm (mehr als die Suchanfragen in der Summe), allein 70% des gesamten Datentransfers im Netz sind Overhead. Für Besitzer eines Breitbandsystems ist dieses Problem nicht zu 22 gravierend, anders jedoch bei Dial-Up-Usern, welche oftmals Modems nutzen. Diese können die Bandbreitenanforderung nicht gewährleisten. Geht man von der nicht unrealistischen Annahme aus, dass sich 10.000 Knoten im Netz befinden, und jeder Knoten 4 Nachbarn hat, so ergibt sich ein Bandbreitenbedarf von etwa 167kbit/s - eindeutig zu viel für ModemBesitzer. Außerdem kann es bei Dial-Up-Usern passieren, dass durch deren Kommen und Gehen, gerade die Knoten ausfallen die an kritischen Stellen das Netz zusammenhalten - ein Zerfall in Teilnetze ist die Folge. Natürlich wäre eine einfache aber genauso sinnlose Lösung, das Netz dichter zu weben. Sinnlos deshalb weil der Bandbreitenbedarf damit nochmals in die Höhe schnellt. Der Bandbreitenbedarf kann auch bei Suchanfragen zu Problemen führen. Erhält man viele Suchergebnisse, so schnellt der Bandbreitenbedarf in die Höhe - eine Filterung ist also unerlässlich. Diese braucht man auch, um gefälschte Antworten (Werbung) auszusondern. Weiterhin ist eine einfache Sabotage des Netzes durch Flooding möglich. Von Anonymität kann zudem auch keine Rede sein (daran mangelt es bei so gut wie allen Systemen), schließlich werden die IPs beim Transfer bekannt, außerdem sind sie im Host-Cache gespeichert. Zum Schluss seien noch einige bekannte Vertreter genannt: Limewire, BearShare und Morpheus (wechselte von FastTrack zu Gnutella). 2.3.2 FastTrack (a) Allgemeines FastTrack war ein niederländisches Unternehmen, das sich auf die Produktion von Peer-to-Peer-Technologien spezialisiert hat (Firmengründer sind Niklas Zennstrom, CEO, und Janis Friis) und deren Kernprodukt der "Fasttrack P2P-Stack" war, dessen Lizenzen an verschiedene Unternehmen vergeben wurde - z.B. an MusicCity.com (Entwickler von Morpheus). Nach einer Änderung 2002 im Protokoll fand jedoch der erwähnte Wechsel von Morpheus von FastTrack zu Gnutella statt. Das FastTrack- Netzwerk wurde ursprünglich von Kazaa, Morpheus und Grokster genutzt und bildete ein gemeinsames Netzwerk. Mittlerweile bietet Fasttrack mehr Daten als damals Napster an und hat ca. 4 Mio. Nutzer [SFT]. Es setzt auf die Infrastruktur des Internet auf und legt ein eigenes Routing- System darüber. Das Protokoll hierfür ist aufgrund der Lizenzierungen jedoch nicht öffentlich. (b) Funktionsweise Der Verbindungsaufbau erfolgt zu einem zentralen Loginknoten, der eine Liste von SuperPeers zurückliefert. Eben jene SuperPeers/ SuperNodes sind das Kernstück dieses semi-zentralen Netzes, denn sie fungieren als Vermittlungsstellen bzw. Meta-Clients, die das eigentliche Netzwerk bilden. 23 Was aber ist ein solcher Superpeer?! Die Ernennung eines "normalen" Peers zum SuperPeer erfolgt dynamisch je nach Performanz/Anbindung. Zu den SuperPeers werden nun die Listen von Dateien der verbundenen "normalen" Peers geladen. Sie dienen dann als Server für Suchanfragen, welche sich über die SuperPeers ausbreiten. Die Ergebnisse enthalten schließlich die IPs des Ziels. Der Download selbst erfolgt wieder direkt, diesmal über HTTP-Protokoll (siehe Abb. 6). Wie Emule wird der parallele und partielle Download unterstützt. (c) Kommentare Dieses System hat eine hohe Performanz zum einen als Vorteil, zum anderen aber den Nachteil, dass wieder Alias und IP- Adressen übertragen werden. Die gestellten Suchanfragen des Systems haben recht gute Ergebnisse (d.h. eine große Anzahl und Auswahl) und erfolgen schnell, man kann sich aber nicht immer auf die angegebene Bandbreite der Benutzer verlassen, was eigentlich als Indikator dafür dienen soll, wo man die besten Chancen für einen schnellen Download sieht. Genauso auch die Angabe für die erwartete Downloaddauer - sie ist unzuverlässig. Der Download startet dann aber angenehmerweise meist sofort, und ist bei entsprechend vielen Usern mit großer Bandbreite auch sehr gut. Das Angebot von Filmen oder Programmen ist dem von Emule aber unterlegen, hier wird mehr Wert auf kleine Dateien wie etwa mp3-Dateien gelegt. An dieser Stelle möchte ich auch noch ein paar Worte zu bekannten Vertretern verlieren, da bis jetzt nur die grundlegende Funktionsweise des Netzes betrachtet wurde. Der bekannteste Client des FastTrack- Netzes ist wohl Kazaa. Der Port kann hier frei gewählt werden, alternativ steht ein Tunneling über Port 80 zur Verfügung. Allerdings ist dieser Client unbeliebt geworden, da er Adwareverseucht ist (New.net, Bonzi Buddy, SaveNow, b3e projector, Cydoor, Altnet). Stattdessen etablierte sich der inoffizielle Kazaa-Lite-Client, denn er enthält keine Adware und ist zudem um einige Funktionen erweitert (deren Nutzen für die Community mal dahingestellt sei). Nützlich ist aber allemal das integrierte Zusatztool Sig2Dat, welches auf dem Hash-Code basiert, der für alle Dateien erzeugt wird (ähnlich Emule). Damit können Links erzeugt und eingelesen werden und es offenbart sich der schon von Emule bekannte Vorteil, dass langwieriges Suchen per Suchfunktion nicht nötig ist, und die Gefahr Fakes aufzusitzen deutlich verringert wurde. An dieser Stelle sei anhand der Tabelle 1 auf die wichtigsten Unterschiede zwischen Kazaa und Kazaa-Lite hingewiesen. 24 Tabelle 1: Vergleich Kazaa vs. Kazaa Lite [SFK] Kazaa Media Desktop Limitiertes “Suche fortsetzen” (steigert sich mit steigender Teilnahmestufe) Teilnahmestufe steigert sich Kann nur von 8 Quellen gleichzeitig laden Adware/ Spyware AltNet/Topsearch Resultate werden angezeigt Pop-Ups und Bannerwerbung Kazaa Lite K++ Unlimitiertes “Suche forsetzen” Teilnahmestufe dauerhaft auf 1000 Kann von bis zu 40 Quellen laden Keine Adware/ Spyware AltNet Resultate werden geblockt Keine Pop-Ups und Bannerwerbung Zu guter Letzt noch einige Anmerkungen zu Grokster. Bis auf das Logo ist es von der Funktionalität quasi eine Kopie von Kazaa, nur mit einem Unterschied - es enthält noch mehr Adware, die sich da auf 3 Änderungen im Internet-Explorer, 6 mitinstallierte Third-Party- Programme sowie 8 Icons auf dem Desktop (die auf Casinos verweisen) belaufen [SFG]. Im FastTrack- Netz ist also offenbar der Kazaa-Lite- Client der eindeutige Favorit. Abbildung 6: Funktionsweise von FastTrack 2.3.3 Overnet Das schon bei Edonkey2000 erwähnte Filesharingtool basiert auf dem ED2k-Netzwerk, und hat dementsprechend auch Zugang zu diesem Netz. Es wurde von den Entwicklern von ED2k als Weiterentwicklung von ED2k entworfen, um die Probleme der zentralen Server zu umgehen. 25 Es existieren 2 Versionen - eine mit Kommandozeile und eine grafische. Für die grafische Version wird das Microsoft .NET-Framework benötigt, welches kostenlos heruntergeladen werden kann. Informationen über freigegebene Dateien sind speziell sortiert, so dass Suchanfragen gezielter gesendet werden und somit schneller Ergebnisse liefern als z.B. im Gnutella- Netz. Trotz der mehr oder weniger vorteilhaften dezentralen Struktur, ist es bei weitem nicht so beliebt wie etwa Emule, da zum einen die User sich an Emule gewöhnt haben, und andere sich auch durchaus aufgrund der Prestige, einen Server mit großem Angebot zu betreiben, nicht so recht von der zentralen Struktur des ED2k bzw. Emule trennen können. 2.3.4 Alternativen IMESH (a) Allgemeines Auch hier ist das Protokoll nicht öffentlich. Das liegt daran, dass es eine Mischform aus FastTrack und einem eigenem Protokoll ist. Anfangs hatte man massive Probleme, da die Server andauernd überlastet waren. (b) Funktionsweise Der über Port 1214 laufende Client unterstützt Multitsource- Downloads und Proxy-Server, auch können einzelnen Downloads verschiedene Prioritäten zugeordnet werden (was aber nicht unbedingt eine Besonderheit ist, im Edonkey- Netz ist das auch problemlos möglich). Die Suche bietet meist eine hohe Trefferquote, weitere Features sind z.B. Wiederaufnahme abgebrochener Downloads (das können aber auch die meisten anderen), Skins, Player mit Playlisten, Media Manager, Chat Client. (c) Kommentare Wie einigen Foren zu entnehmen ist, sind die Benutzer geteilter Meinung. Einige schwören auf schnelle Downloads bei Musik und Keys (serial numbers, verwendet für die Freischaltung von kostenpflichtigen Programmen), andere fühlen sich durch Adware belästigt. Offensichtlich scheint Adware eine beliebte Möglichkeit für die Finanzierung solcher Systeme zu sein. Im Falle iMesh wird dies durch Module der Firma Cydoor realisiert, offenbar ein einschlägiger Name in Sachen Ad- und Spyware. Dabei werden Werbebanner innerhalb von iMesh eingeblendet, in der neuesten Version dienen die Module jedoch "nur" noch als Popup- und Bannermanager. Das Problem an der Sache ist, dass es von einer Website eine Liste von Adware- Servern lädt, und von dieser dann Banner und Code ins System bringt. Gerade letzteres ist bedenklich. 26 FREENET (a) Allgemeines Einen komplett anderen Weg schlägt das von Ian Clarke entwickelte Freenet ein. Es wurde entworfen, um durch eine Art paralleles Internet die Zensur zu umgehen, die die australische Regierung 1999 bezüglich des Internet beschloss. Freenet sollte also eher dem Contentsharing statt Filesharing dienen. Freenet ist kein Client, sondern nur die Netzwerk-Infrastruktur, die OpenSource ist, also zugänglich für Jedermann. Auf die Clients an sich, wie z.B. Espra und Frost, möchte ich hier nicht eingehen, sondern mich mehr auf die grundlegende Funktionsweise konzentrieren. (b) Funktionsweise Dateien in Freenet erhalten einen Key, ähnlich einer URL, mit dem sie identifiziert werden können. Nur darüber können sie angesprochen werden, eine Suchfunktion gibt es nicht. Der Key lässt keine Rückschlüsse bezüglich des Dateiinhalts zu. Es existieren aber einige Seiten im WWW, die Keylisten enthalten, um das Auffinden der gesuchten Dateien zu erleichtern/ermöglichen. Die Übertragung im Freenet läuft paketorientiert mit Handshakes (request und reply) und Routingtables ab. Die Knotenadressen bestehen aus Übertragungsmethode (z.B. TCP) und einem transportspezifischen Identifikator (IP + Port) , also z.B. "tcp/192.168.1.1:19114". Jede Datei im Freenet hat eine GUID (Global-Unique-ID, das ist der erwähnte Key), die Nachrichten selbst eine 64bit-Transaktions-ID, einen Hops-to-live- Zähler und einen TiefenZähler. Aus Sicherheitsgründen hört aber die Nachricht nicht unbedingt bei htl=0 auf weitergeleitet zu werden (ähnlich bei der Tiefe), damit keine Rückschlüsse auf den Ursprung möglich sind. Nun zur GUID: wie erwähnt wird jede Datei in Freenet über einen Key eindeutig identifiziert (GUID-Key). Erzeugt werden diese mit dem SecureHash-Verfahren (SHA-1). Es gibt nun unterschiedliche Key- Arten. Der einfachste Typ ist der Content-Hash-Key (CHK), der aus dem Inhalt der Datei erzeugt wird. Sollten zwei User genau dieselbe Datei einstellen, dann sind logischerweise auch die Hashwerte gleich (das ist quasi sowas wie eine URL im WWW). Etwas komplexer ist der Signed-Subspace-Key (SSK). Damit kann man eigenen Dateien einen Namensbereich zuordnen, den jeder lesen, aber nur der Besitzer auch schreiben kann. Dieser SSK besteht aus einem zufällig gewähltem public/ private Keypaar. Damit ist zuerst also eine kurze Beschreibung zu wählen. Diese wird unabhängig vom public-Teil des Keys gehasht, dann mit einem XOR zusammengefügt und wieder gehasht. Mit dem privaten Teil des Keys wird eine Signatur zum Integritätscheck bereitgestellt. Der öffentliche Teil des Keys dient für andere Benutzer zur Verifikation der Datei - zum Einstellen der Datei und Erzeugung der passenden Signatur ist der private Teil nötig. Gängig ist es also, mit einem SSK 27 den CHK einer Datei zu speichern, wobei man mit letzterem die Datei auffinden kann. Dies ist also mit einer Stichwortverzeichnissuche zu vergleichen, dort bekommt man über die Seitenzahl dann die passende Information. Gehen wir nun davon aus, dass der User einen Key zur Verfügung hat. Für die Datennachfrage sendet er nun ein "request.data" mit Transaktions-ID, HTL (Hops to live), Tiefe und Such-Key. Knoten, die nun diese Anfrage erhalten, schauen nach, ob sich ein solcher Key in ihrem Datenbestand befindet. Falls nein, dann leiten sie die Anfrage an Knoten mit einem ähnlichem Key weiter. (An dieser Stelle sei bemerkt, dass aufgrund des Hashings Keys, die sich nur an z.B. einer Stelle unterscheiden, trotzdem etwas vollkommen anderes enthalten können.) Falls ja, dann schickt er ein "send.data" mit den Daten darin und der Adresse des Ursprungs. Zusätzlich, und das ist bei Freenet gerade die Besonderheit, legt er die Daten selbst einen Cache auf seiner eigenen Festplatte und macht einen neuen Eintrag in seine Routing-Tabelle, um die Daten in Verbindung mit der Quelladresse zu bringen. Die Daten gelangen also von Knoten zu Knoten bis zum Ziel und werden jedes Mal ausgelagert auf den Zwischenknoten (siehe Abb. 7). Dabei wissen die User selbst nicht, was in ihrem Cache gespeichert wird, da selbst die Daten verschlüsselt werden. Dies hat zur Folge, dass Daten aber auch nicht mehr gelöscht werden können, lediglich ein "Aussterben" ist möglich. (c) Kommentare Dieses Verfahren hat den entscheidenden Vorteil eine Anonymität/Zensurresistenz, Redundanz sowie dynamische Lastverteilung durch dynamisches Routing (mit der Zeit verteilen sich die Daten in Bereiche, in denen sie öfters angefordert werden) zu gewährleisten. Problematisch ist ganz klar die fehlende Suchfunktion. Dial-Up-User könnten natürlich auch wieder einen Strich durch die Rechnung machen (Bandbreite). Zudem stellt die Java-Implementierung die Massentauglichkeit in Frage. Die hohe Sicherheit des Routings macht das System außerdem langsam, und es ist nur optimiert auf das Finden kurzer Routen. Hinzu kommt der moralische Aspekt - unter Umständen sind im Cache auf der eigenen Festplatte evtl. Daten gespeichert, von denen man sich eigentlich distanziert (Kinderpornographie ...). Dies wird auch oft als Kritikpunkt gegen Freenet ins Feld geführt. 28 Abbildung 7: Funktionsweise von Freenet 3 Auswirkungen auf die Gesellschaft 3.1 Raubkopieren - ein Kavaliersdelikt ?! Laut einer Gamestar-Umfrage des Sommers 2003 besitzt nur ca. ¼ der Befragten KEINE Raubkopien, 11 % geben gar ungeniert zu, NUR Raubkopien zu spielen [GS1]. Eine andere Umfrage vom Marktforschungsunternehmen staconsult ergab, dass 48% von rund 2400 befragten Surfern regelmäßig Musik über das Internet tauschen, wobei sich mehr als zwei Drittel von ihnen dabei nicht schuldig fühlten [SPO]. Warum aber überhaupt Raubkopieren? Die Gründe sind schnell gefunden. Spiele und Filme mit Anschaffungskosten um die 40€, sowie andere Software und Betriebssysteme mit teilweise horrenden Preisen sind ganz offensichtlich Grund genug, sich ein wenig Geld zu sparen. Um genau zu sein, reichen 25 Cent unter Umständen aus, um sich das Programm etc. selbst auf einen Rohling zu brennen, wenn man einmal die Anschaffungskosten für Brenner und Breitband- Flatrate außer Acht lässt. Programme wie "DaemonTools" in Verbindung mit den immer günstiger werdenden, riesigen Festplatte machen ein Brennen vielleicht sogar ganz unnötig. Die weite 29 Verbreitung von Filesharingtools leistet ihren Beitrag, alles schnellstmöglich in alle Welt zu verbreiten. Fakt ist also, dass die billige und einfache Möglichkeit in Verbindung mit der schnellen "Lieferung der Ware" per Filesharing ausreichend Attraktivität besitzt, diesen Kavaliersdelikt zu begehen. Dass unter diversen Releasegruppen (Deviance, Fairlight…) ein regelrechter Wettkampf/ Konkurrenz entbrennt, sei dabei nur am Rande erwähnt (www.vcdquality.com oder www.nforce.nl sind Seiten, die eine Übersicht der neuesten Releases dieser und anderer Gruppen bieten). Wie eben erwähnt wird Raubkopieren oft als Kavaliersdelikt verstanden wieso? Auch hier liegen die Gründe auf der Hand. Es wird zum einen nicht als Diebstahl im herkömmlichen Sinne betrachtet, schließlich geht man nicht in den Laden und stiehlt eine "handfeste" CD (damit gewinnt es an "Unpersönlichkeit"), zum anderen "machen es alle". Genauso klar sollte eigentlich sein, dass Raubkopieren - also die Nutzung ohne Lizenz des Herstellers eine Straftat ist. Gemäß § 106 Urhebergesetz wird die Nutzung und Verbreitung von Raubkopien mit einer Freiheitsstrafe von bis zu 3 Jahren oder mit Geldstrafe bestraft, werden die Raubkopien gemäß § 108 a Urhebergesetz gewerbsmäßig verbreitet, droht sogar eine Freiheitsstrafe von bis zu 5 Jahren. Weiterhin drohen Schadensersatzansprüche wie nachhaltige Lizenzierung der raubkopierten Software, Anwalts- und Gerichtsgebühren sowie Herausgabe des gewerblichen Gewinns der damit erzielt wurde. Das gilt auch für den, der die Raubkopie wissentlich entgegen nimmt. Hier zwei Beispiele [GS2]: ein PC-Händler verkaufte über 5000 PCs mit nichtlizenzierter Microsoft-Software und erhielt eine Strafanzeige plus Schadensersatzforderungen in sechsstelliger Höhe. Ein anderer Mann meinte, über Kleinanzeigen Microsoft-Office verkaufen zu müssen. Dass er erwischt wurde und eine Geldstrafe zahlen musste, schien ihn nicht davon abzuhalten, 2 Wochen später erneute Kleinanzeigen aufzugeben. Das hielt den Richter diesmal allerdings gleichermaßen nicht davon ab, ihn für 11 Monate auf Bewährung zu verurteilen. Wie gut sich ein Eintrag im polizeilichen Führungszeugnis macht bei zukünftigen Bewerbungen, muss an dieser Stelle nicht weiter erwähnt werden. Ebenso unangenehm sollte sich das Einziehen der kompletten ComputerAnlage samt Peripherie auswirken, was bei der Hausdurchsuchung durch die Polizei ggf. droht. Dafür muss jedoch zunächst ein begründeter Verdacht vorliegen - grundlos kann die Polizei nicht in Ihr Haus. Interessant an der Raubkopiererei ist, dass der Besitz von Raubkopien theoretisch nicht strafbar ist, sondern nur deren Nutzung. Die Ausrede des "Sammelns" wird vor Gericht aber als lebensfremd eingestuft. 30 3.2 Rechtliche Aspekte Am 13. September 2003 trat das "Gesetz zur Regelung des Urheberrechts in der Informationsgesellschaft" in Kraft, welches die EU-Richtlinie 2001/29/EG zur "Harmonisierung bestimmter Aspekte des Urheberrechts und der verwandten Schutzrechte in der Informationsgesellschaft" umsetzen soll. Folgende sind die wichtigsten Punkte, die es zu beachten gilt: 1. Es besteht jetzt das Verbot, einen Kopierschutz zu überwinden oder zu umgehen. Gewerbetreibenden droht eine Straf- und Zivilrechtliche Verfolgung, Privatanwendern "nur" eine zivilrechtliche Verfolgung (also Bußgeld). Die Lösung: kopieren Sie Ihre Film-DVD oder Audio-CD doch analog, denn das gilt momentan noch nicht als Verstoß. 2. Der Vertrieb von Tools zur "Umgehung wirksamer technischer Maßnahmen zum Schutz eines Werks" (§92a) ist ab nun verboten. 3. Der Upload von urheberrechtlich geschützten Werken in Filesharingnetze usw. bleibt natürlich rechtswidrig, da dies als öffentliche Aufführung gewertet wird. 4. Der Download von "offensichtlich rechtswidrig hergestellten Vorlagen" ist jetzt verboten. Dies war früher nicht so. Jedoch kann auch jetzt vom "Downloader" nicht verlangt werden, zu ergründen, ob er eine rechtmäßig hergestellte Vorlage zieht. Bei Titeln wie z.B. "...cracked.version..." ist es aber offensichtlich und damit verboten. Kurioserweise sind aber auch legale Kopien von "rechtswidrig hergestellten Vorlagen" denkbar. Wenn die Vorlage eine unauffällige Kopie eines copyrightgeschützten Werkes ist, das nicht durch einen Zusatz wie "cracked" gekennzeichnet ist, sind die Merkmale für eine Strafbarkeit nicht erfüllt. 5. Filesharing an sich ist damit nicht gesetzeswidrig, wie es gern von einigen Medien dargestellt wird. 6. Das Gesetz gilt nicht rückwirkend, alte rechtmäßige Kopien dürfen behalten werden. [TPG] Tabelle 2 stellt noch einmal zusammen, was es generell noch zu beachten gilt, schließlich wurde das alte Urheberrechtsgesetz nicht komplett neu geschrieben. Damit stellt sich nun auch das Problem dar, was mit den ganzen Programmen, die eben jene Kopierschütze umgehen können passiert. Programme, die vermutlich somit noch erlaubt sind, sind etwa Clone DVD, Nero, WinOn CD, Easy CD und Feurio CD Writer, denn bei Ihnen steht nicht das Umgehen des Kopierschutzes im Mittelpunkt. Anders hingegen 31 bei folgenden Programmen, die wohl auf einer "Blacklist" landen dürften: Alcohol120%, CloneCD plus ClonyXXL, Movie Jack und Any DVD. Das größte Problem am neuen Gesetzt ist aber, dass die rechtliche Situation noch unklar ist, da es noch keine Urteile gibt, an denen man sich orientieren könnte. Zum Beispiel stellen sich die Fragen: 1. Was ist ein "technisch wirksamer Schutz" ? Es ist nur von "Verzerrung" und "Verschlüsselung" die Rede. 2. Was ist eine "offensichtlich rechtswidrig hergestellt Vorlage" ? Dies zu Erkennen kann nicht dem Verbraucher obliegen. 3. Wann ist ein Werk gemeinfrei? Dies ist nur schwammig definiert, selbst 4 Juristen konnten sich über 5 Werke nicht einigen [TPG], wie soll das dann Verbraucher erkennen? Somit existieren statt Klarheiten weiterhin Unklarheiten. Tabelle 2: Neue und alte Regelungen im Urheberrechtsgesetz [COM03] ERLAUBT - Kopien von eigenen Musik- und Film-CDs ohne Kopierschutz in begrenztem Rahmen zum Privatgebrauch => dies gilt nicht für Software (§53) - von nichtkopiergeschützter Software darf eine einzige Kopie gemacht werden ($69d Abs.2) - Zusammenstellen eigener CDs aus Songs von CDs die nicht kopiergeschützt sind (§53) - Verbreiten von Software die das Umgehen von Kopierschützen nur als Nebeneffekt hat (§95a Abs.3) - Download gemeinfreier Werke 32 VERBOTEN - Kopien von kopiergeschützten CDs und DVDs => sonst Zivilverfahren auf Schadensersatz bzw. Unterlassungsklage (§95a Abs.1) - Verkauf von rechtmäßig hergestellten Kopien von Musik-CDs - Kopierschutz nur zum Anhören außer Kraft setzen (§95a Abs.1) - Verbreiten , Herstellen, Verkaufen von Programmen zur Umgehung von Kopierschützen (§95a Abs.3) - Weitergabe urheberrechtlich geschützter Software (§69c) - Downloaden von "offensichtlich rechtswidrig hergestellten Vorlagen" (§53) 3.3 Wirtschaftliche Aspekte 61 Millionen US-Amerikaner nutzen P2P-Systeme. Das sind mehr Menschen, als den amerikanischen Präsidenten G. W. Bush gewählt haben [TPM]. 3.3.1 Schadensreport In der ersten Hälfte des Jahres 2003 beklagte der Bundesverband bei Tonträgern einen Umsatzrückgang von 16,3 %. Besonders signifikant waren die Einbußen mit 47,5 % bei Hitsamplern, bei den Singles wurden 21,3% weniger CDs verkauft. Laut einer GfK-Studie wurden im Jahr 2002 259 Millionen CD-Rohlinge mit Musik bespielt, aber nur 165,7 Millionen CD-Alben verkauft. Interessanterweise fand jedoch die Studie des Marktforschungsinstituts Frost & Sullivan aus New York heraus, dass in den USA zu keiner Zeit so viele CDs verkauft wurden wie zu Napsters Hochzeiten im Jahr 2000 [ZDN]. Etwa 3,5 Milliarden € jährlicher Verlust auf dem amerikanischen Videomarkt sind zu beklagen. Und das ist nur ein teilweiser Schaden, der durch die schätzungsweise 500.000 pro Tag aus dem Netz geladenen Filme in den USA entsteht. Bei Software wird der wirtschaftliche Schaden gar auf weltweit 12 Milliarden € jährlich geschätzt [KLA]. Was einige Firmen jedoch bei einer solchen Argumentationsweise (also mit solchen Statistiken) nicht beachten, ist, dass nicht jede heruntergeladene Kopie heißt, dass man sich die CD andernfalls auch gekauft hätte oder ins Kino gegangen wäre. 3.3.2 Möge die Jagd beginnen Gejagte vs. Jäger, P2P-Nutzer vs. Kläger - so könnte das Motto folgender namenhafter amerikanischer Institutionen lauten: Motion Picture Association (MPA), Recording Industry Association of America (RIAA), International Federation of the Phonographic Industry (IFPI) und Business Software Alliance (BSA). In Deutschland gab es bislang noch keine Klagewellen, dafür aber in Amerika. • 2000: RIAA verklagt Napster Napster verschwindet später von der Bildfläche. • Oktober 2001: RIAA verklagt Grokster und Morpheus Grokster und Morpheus gewinnen im April 2003, da sie ein dezentrales Netz sind und nicht für Urheberrechtsverletzun- 33 • • • gen belangt werden können, da sie aufgrund der Struktur eben jene Verletzungen nicht unterbinden können. Anfang April 2003: RIAA verklagt 4 US-Studenten Diese erklären sich zu je bis zu 17.500$ Geldstrafe bereit. 8.9.2003: RIAA verklagt 261 Tauschbörsen-Nutzer Strafen von bis 250.000$ sind möglich. Allerdings wurde ein Amnestieangebote namens "Clean Slate Program" ausgetüftelt. Nicht angeklagte User können sich vermerken lassen, alle Lieder löschen und werden damit nicht bestraft. Dafür sind sie aber für alle Zeiten in Akten vermerkt, eine überaus fragwürdiges Programm. Mittlerweile haben sich bereits 52 der angeklagten außergerichtlich geeinigt (Stand 8.10.2003). Ein Beispiel für die fragwürdige Politik der RIAA sei noch angemerkt: eine 65jährige Rentnerin, welche lediglich einen Apple-Computer besitzt, soll laut RIAA bis zu 2000 Songs über Kazaa getauscht haben. Sehr interessant in anbetracht der Tatsache, dass Kazaa gar nicht auf dem Apple-Computer funktioniert ... 18.9.2003: RIAA verklagt Tauschbörse iMesh 3.3.3 Sonstige Maßnahmen Vor geraumer Zeit hat der Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e.V. (Bitkom) mit der Zentralstelle für private Überspielungsrechte (ZPÜ) einen Gesamtvertrag für DVD-Brenner abgeschlossen [DR]. Demnach müssen Unternehmen, die DVD-Brenner herstellen oder importieren, seit 1. Januar 2003 für in Deutschland verkaufte Geräte 9,21 € Urheberrechtsabgabe bezahlen. Für jeden seit Juli 2001 verkauften CD-Brenner müssen die Hersteller 6 € an die Verwertungsgesellschaften zahlen [HEI]. Diese Abgaben sollen Künstler für den wirtschaftlichen Verlust entschädigen, der ihnen durch so genannte "erlaubte Privatkopien" entsteht. Geplant ist momentan auch die Überarbeitung einer EU-Richtlinie zur Durchsetzung der Interessen der Verwerter geistigen Eigentums. Dies hat die Streichung einer Klausel, die eine Ahndung von privaten Urheberrechtsverletzungen nur bei nachhaltigem Schaden vorsieht, als Ziel. Damit werden dann nicht nur gewerbliche Raubkopierer, sondern auch private das volle Strafmaß erhalten können. Eine eher hoffnungslose Methode von Seiten der Musiker z.B. ist das Einstreuen von Fakes in die P2P-Netze. So brachte etwa Madonna Fakes von Songs ihres neuen Albums in Umlauf, auf denen nur ein "What the fuck do you think are you doing" zu hören ist. Die Antwort von Seiten einiger ambitionierter Computerfreaks folgte prompt: kurz darauf wurde ihre Web- 34 site gehackt und einige unveröffentlichte Lieder angeboten, sowie die Nachricht " This is what the fuck I think I'm doing" hinterlassen [SFT]. 35 4 Abschließende Bewertung beider P2P- Systeme Meiner Meinung nach ist das Bandbreitenmanagement zwar wichtig, aber aufgrund neuer schneller Leitungen und den bisherigen P2P-Verfahren (die nicht schlecht funktionieren) würde ich das für eine Pro-ContraEntscheidung eher als nebensächlich betrachten. Was für mich als P2P-Nutzer wichtig ist, ist dass die Suche schnell und erfolgreich ist - dies spricht für ein zentrales System. Ebenso müssen die erreichten Download-Raten hoch sein - dies würde keines der beiden Systeme wirklich bevorzugen. Weiterhin muss eine Robustheit gewährleistet sein, d.h. erstens muss der Transfer stabil sein, und zweitens muss die ganze Sache auch einen gewissen Grad an Sicherheit bieten - dies spricht vor allem für die dezentralen Netze, denn hier ist man weitaus besser gegen Justiz, Zensur und Hacker gefeit. Das zur Theorie. In der Praxis bewähren sich beide Systeme gut (Emule/DC vs. Kazaa), deshalb fällt es schwer eine Entscheidung zu treffen. Darum würde ich als Fazit folgenden Schluss abgeben: "so dezentral wie möglich (Sicherheit/Zensurresistenz) und so zentral wie nötig (Sucheffizienz)". Ich denke aber, dass dezentrale Systeme gerade wegen der Rechtssprechungsproblematik mehr an Bedeutung gewinnen und zentrale Systeme eher verschwinden. Letztere sind einfach zu verwundbar. Allerdings wären zentrale Systeme aufgrund ihrer zentralen Verwaltung auch die einzige Möglichkeit, eine "sinnvolle" und rechtlich unbedenkliche Umsetzung eines Filesharingsystems zu erlauben. Am schönsten wäre selbstverständlich ein System mit der Sicherheit/Anonymität eines Freenet, dem Komfort und Umfang eines Emule und der Geschwindigkeit eines BitTorrent - ob das ein Wunschtraum bleibt, das wird wohl erst die Zukunft zeigen. 36 A Glossar Adware: Dies sind Programmstücke, die zur Darstellung von Werbung dienen. Client: Ist ein Programm, das den aktiven Teil des Verbindungsaufbaus bestimmt, d.h. den Wunsch auf Verbindung äußert und Daten anfordert. Siehe auch Server. Community: Meist eine größere Gruppe von Personen, die z.B. im DirectConnect einen eigenen HUB unterhalten. Config-Wizard: Ist eine Menüführung innerhalb eines Programms, die meist beim ersten Start aufgerufen wird, und dem Benutzer helfen soll, die wichtigsten Einstellungen vorzunehmen. DNS: Dieser Domain Name Service dient dazu, IP- Adressen in Zusammenhang zu bringen mit einfacheren Bezeichnungen wie URLs (Links). Fake: Fälschung Filesharing: Das ist im Idealfall das uneigennützige Austauschen von Dateien, d.h. jeder gibt und nimmt gleichermaßen Daten. Dies wird meist durch eine P2P- Technologie verwirklicht. Hashing: Dies ist eine abstrakte Datenstruktur. Hash-Tabellen sind eine effiziente Implementierung der Datenstruktur Dictionary, d.h. das Entfernen, Einfügen und Suchen kann effizient behandelt werden. HTML: Diese Hyper Text Mark Language wird verwendet, um die aus dem World Wide Web bekannten Internetseiten zu erstellen. ICH: Intelligent Corruption Handling, wird von Emule verwendet und dient dazu, das Neuladen defekter Dateifragmente zu optimieren, d.h. es versucht unnötigen Traffic zu vermeiden. IP: Darunter ist ein Protokoll zu verstehen, dass in Zusammenhang mit TCP den Großteil der Kommunikation im Internet regelt. Oftmals wird darunter auch die IP- Adresse verstanden. Dies ist eine Zuweisung einer 4- gliedrigen 32Bit- Zahl (= Adresse) zu einem Rechner im Netzwerk. 37 Leecher: Damit wird meist eine Person bezeichnet, die eigennützig im P2PNetzwerk nur Daten herunterlädt, jedoch selbst keine zur Verfügung stellt. Multisource: Das bedeutet nichts anderes, als dass beim Filesharing von mehreren Quellen gleichzeitig heruntergeladen werden kann, statt wie üblich nur von einer. Dies hat den Zweck, den Download zu beschleunigen. Node: Bezeichnet einen sog. Knoten im Netzwerk, speziell im P2PNetzwerk. Packet Switched Network: In einem solchen paketorientierten Netzwerk werden die zu übertragenden Daten in kleine Pakete zerlegt und mit zusätzlichen Informationen (wie z.B. Zieladresse) versehen. Diese kleinen Pakete werden nun nacheinander übertragen und am Ziel wieder zusammengesetzt. Peer-to-Peer: Peer-to-Peer (auch P2P) Anwendungen tauschen Daten direkt aus, sind gleichzeitig Client und Server, sowie autonom. Diese Art von Netz eignet sich z.B. zum Filesharing und Distributed Computing. Es ist zu unterscheiden in hybrides bzw. zentrales sowie pures bzw. dezentrales Peer-to-Peer, welche sich durch eine zentrale oder dezentrale Struktur unterscheiden. Server: Das ist ein Prozess, der auf eine Verbindung wartet (meist in einer Endlosschleife), um Informationen zu liefern. Meist wird darunter der ausführende Rechner verstanden. TCP: Siehe IP. Traffic: Datenverkehr im Netzwerk. TTL: Time to live, gibt an nach welcher Zeit ein Datenpaket "verfällt". Webinterface: Ist eine Schnittstelle (meist auf HTML-Basis), die die Kontrolle eines Programms auf einem lokalen Rechner über das Internet erlaubt. Webspace: Ist Speicher, der im Internet verfügbar ist z.B. in der Form virtueller Festplatten. 38 B Weiterführende Literatur Für weiteres Interesse empfehle ich folgende URLs und Werke: Thematik Filesharingsysteme: • http://ntrg.cs.tcd.ie/undergrad/4ba2.02-03/Intro.html • http://www.mouthshut.com/readreview/7490-1.html • http://www.mp3world.net/d/workshop/filesharing/imesh_cydoor.shtml • http://www.freenet.de/freenet/computer/internet/filesharing/index.ht ml • http://www.kefk.net/P2P/Akteure/Unternehmen/FastTrack/index.asp • http://www.kefk.net/P2P/Infrastruktur/Netzwerke/Virtuell/FastTrack /index.asp • http://www.slyck.com/ft.php • http://www.afterdawn.com/news/archive/4421.cfm • http://www.sims.berkeley.edu/~rachna/courses/cs261/paper.html • http://bitconjurer.org/BitTorrent/bittorrentecon.pdf • http://www.oreillynet.com/pub/a/network/2000/05/12/magazine/ gnutella.html?page=2 • http://www4.informatik.uni-erlangen.de/Lehre/SS02/HS_DOOS/pdf/ folien-sialhaus.pdf • http://www4.informatik.uni-erlangen.de/Lehre/SS02/HS_DOOS/pdf/ handout-sialhaus.pdf Thematik P2P allgemein: • http://www.iwi.uni-hannover.de/lv/seminar_ss03/Linck/ • Peer-to-Peer (Anwendungsbereiche und Herausforderungen) von Detlef Schoder und Kai Fischenbach Thematik gesellschaftliche Auswirkung: • http://193.99.144.71/newsticker/data/mw-20.09.03-006/ • http://www.heise.de/newsticker/data/anw-08.09.03-006/ • http://www.heise.de/newsticker/data/anw-22.07.03-004/ • http://www.heise.de/newsticker/data/anw-30.09.03-000/ • http://193.99.144.71/newsticker/result.xhtml?url=/newsticker/data/ dab-27.05.03-000/default.shtml&words=iMesh • http://www.mp3world.net/d/workshop/filesharing/amnestiefiraa.shtml 39 • • • • • • • • http://www.heise.de/tp/deutsch/html/result.xhtml?url=/tp/deutsch/sp ecial/ copy/15718/1.html&words=Urheberrecht http://www.heise.de/tp/deutsch/special/copy/15718/1.html http://www.heise.de/newsticker/data/jk-04.07.03-003/ http://www.internetrecht-rostock.de/PC-Welt/Kopierschutz.htm http://www.spiegel.de/netzwelt/politik/0,1518,265328,00.html http://www.freenet.de/freenet/computer/software/multimedia/legal_k opieren/ index.html http://www.zdnet.de/news/business/0,39023142,39116064,00.htm http://www.klassenarbeiten.de/referate/sonstige/docs/tcgbericht.doc 40 C Abkürzungen und Akronyme Bitkom BSA CHK ED2k FTP GUID HTML HTTP IFPI IP JPEG MFTP MP3 MPA MPEG P2P RIAA SHA-1 SQRT SSK TCP UDP UrhG ZPÜ Bundesverband für Informationswirtschaft, Telekommunikation und neue Medien e.V. Business Software Alliance Content Hash Key Edonkey 2000 File Transfer Protocol Global Unique ID Hyper Text Mark Language Hyper Text Transfer Protocol International Federation of the Phonographic Industry Internet Protocol Joint Photographic Expert Group Multisource File Transfer Protocol MPEG1 Layer3 Motion Picture Association Motion Picture Expert Group Peer-to-Peer oder Peer to Peer Recording Industry Association of America Secure Hashing Algorithm Square Root, dt. Wurzel Signed Subspace Key Transmission Control Protocol User Datagram Protocol Urheberrechtsgesetz Zentralstelle für private Überspielungsrechte 41 D Literatur [AG] Audiogalaxy http://www.audiogalaxy.com [COM03] COM!, Ausgabe 10/ 2003, Neue Mediengesellschaft Ulm mbH [DR] Kanzlei RA Dr. Bahr # Infos: BITKOM: Einigung über Urheberabgaben für DVD-Brenner: http://www.dr-bahr.com/news/news_det_20030812000130.html, 29.01.04 [GPS] The Gnutella Protocol Specification v0.4, Document Revision 1.2: http://www9.limewire.com/developer/gnutella_protocol_0.4.pdf, 29.01.04 [GS1] Gamestar.de -- Raubkopien 2003: http://www.gamestar.de/magazin/reports/12080/, 29.01.04 [GS2] Gamestar.de -- Raubkopien 2003 : PC ade: http://www.gamestar.de/magazin/reports/13017/2.html, 29.01.04 [HEI] Heise News-Ticker: CD-Brenner werden teurer: http://www.heise.de/newsticker/data/tig-01.08.02-000/, 29.01.04 [KLA] Michael Hicke: TCG/(TCPA) – Die (sinnvolle?) Zukunft des Computers?, 15.06.2003: http://www.klassenarbeiten.de/referate/sonstige/docs/tcgbericht.doc, 29.01.04 [MH01] Minar, N.; Hedlund, M. (2001): A Network of Peers, Peer-to-Peer Models Through the History of the Internet, Oram Verlag [SDC] Slyck's Guide to DirectConnect - Home: http://www.slyck.com/dc.php, 29.01.04 [SED] Slyck's Guide to eDonkey2000 - Home: http://www.slyck.com/edonkey2k.php, 29.01.04 [SF] Schoder, D.; Fischenbach, K.: Peer-to-Peer (Anwendungsbereiche und Herausforderungen), Springer Verlag [SFG] Slyck's Guide to FastTrack - Grokster: http://www.slyck.com/ft.php?page=5, 29.01.04 [SFK] Slyck's Guide to FastTrack - Kazaa Lite: http://www.slyck.com/ft.php?page=2, 29.01.04 [SFT] Slyck's Guide to FastTrack - Home: http://www.slyck.com/ft.php, 29.01.04 [SPO] Musiktausch im Internet - Die meisten haben kein schlechtes Gewissen - Netzwelt - SPIEGEL ONLINE: http://www.spiegel.de/netzwelt/politik/0,1518,265228,00.html, 29.01.04 [TPG] TP: Gesetzbuch zu ... und alle Fragen offen: http://www.heise.de/tp/deutsch/special/copy/15690/1.html, 29.01.04 [TPM] TP: Sieg für Grokster und Morpheus: 42 [UOI] [ZDN] http://www.heise.de/tp/deutsch/inhalt/musik/14685/1.html, 29.01.04 Autor unbekannt: http://www.cs.uoi.gr/~pitoura/courses/ds03_gr/assign/assgn5/AK.pdf ZDNet.de - Neue Regeln für Musiktauschbörsen: http://www.zdnet.de/news/tkomm/0,39023151,2138848,00.htm, 29.01.04 43 E Index Audiogalaxy ........................12, 42 IRC........................................ 8, 17 Bandbreite ....7, 13, 16, 17, 21, 24, 28 BearShare ..................................23 BITTORRENT ......17, 18, 19, 36, 39 Kazaa ... 13, 19, 23, 24, 25, 34, 36, 42 CHK ....................................27, 41 Client ..3, 5, 6, 8, 9, 12, 13, 15, 17, 24, 25, 26, 27, 37, 38 Morpheus ...................... 23, 33, 42 mp3 ..................... 9, 10, 11, 12, 39 Multisource ....... 13, 15, 17, 38, 41 Dial-Up-User.........................6, 28 Direct Connect ..........8, 16, 17, 19 DivX......................................9, 13 DNS.......................................6, 37 Napster...... 5, 9, 11, 12, 16, 23, 33 Node.................................... 20, 38 ED2k .....13, 14, 15, 19, 25, 26, 41 Edonkey ............13, 14, 15, 26, 41 Emule ...15, 16, 17, 18, 19, 24, 26, 36 P2P... 3, 4, 5, 6, 7, 8, 9, 11, 20, 21, 23, 33, 34, 36, 37, 38, 39, 41 Peer-2-Peer .... 1, 3, 5, 6, 9, 12, 20, 38, 41 Pures ......................................... 20 Limewire................................... 23 OVERNET ............................. 13, 25 FastTrack.....23, 24, 25, 26, 39, 42 Filesharing..4, 5, 6, 17, 19, 27, 30, 31, 37, 38 FREENET ..................27, 28, 29, 36 FTP........................................8, 41 Raubkopieren...................... 29, 30 RIAA................. 11, 12, 33, 34, 41 Routing ............... 7, 20, 21, 23, 28 Server. 3, 6, 7, 8, 9, 10, 11, 12, 13, 14, 16, 17, 19, 24, 25, 26, 37, 38 SHA-1 ................................. 27, 41 Sicherheit .............. 4, 7, 16, 28, 36 SSK ..................................... 27, 41 Gnutella .........7, 21, 22, 23, 26, 42 Grokster...................23, 25, 33, 42 GUID.........................................27 Hash ..................10, 13, 24, 27, 37 Host Cache ................................22 HTTP.......................17, 22, 24, 41 hybrides .............................6, 7, 38 Hybrides ......................................9 Tauschbörse .................. 11, 12, 34 TCP ......... 3, 13, 21, 27, 37, 38, 41 TCP/IP ........................................ 3 Urheberrecht ............................. 40 IMESH ............................26, 34, 39 Index..............9, 10, 12, 20, 21, 44 Internet ...1, 3, 6, 8, 23, 25, 27, 29, 37, 41, 42 zentrales ................ 7, 9, 16, 36, 38 44