Telemedicus Logo
Weiterempfehlen Drucken

In der aktuellen K&R (2011, 73 ff.) findet sich ein Aufsatz von Koenig/Fechtner, der sich mit Netzneutralität beschäftigt. Eingangs wird dort folgende Frage aufgeworfen:

Während hierzulande die Thematik vornehmlich unter Wirtschaftswissenschaftlern angesprochen wurde, haben sich Vertreter aus der Rechtswissenschaft bislang überwiegend zurückhaltend geäußert. Die traditionell vorwiegend in begrifflichen Ordnungen - weniger in funktional-technischen Optionen - denkenden Juristen haben Schwierigkeiten, die Thematik in ihr Ordnungssystem einzuordnen. Zwar werden in der öffentlichen Debatte häufig verschiedene Forderungen mit der Berufung auf das Prinzip der Netzneutralität formuliert; unberücksichtigt bleibt dabei jedoch, dass bis heute keine allgemeingültige und zugleich funktional-technisch geeignete Definition des Begriffes existiert.

Für unrichtig halte ich an diesem Absatz die Behauptung, deutsche Rechtswissenschaftler würden sich zum Thema Netzneutralität nur zurückhaltend äußern. Tatsächlich wird unter deutschsprachigen Juristen seit etwa einem Jahr eine intensive Debatte über das Thema geführt. Einen unvollständigen Überblick liefert Telemedicus.

Für richtig halte ich aber den Einwurf, der Begriff Netzneutralität sei bislang nicht richtig definiert. Ich habe bisher in den vielen Publikationen zu Netzneutralität, die ich gelesen habe, keine einzige abgrenzungsfähige Definition gefunden.

Dies hat sicherlich auch damit zu tun, dass der Begriff „Netzneutralität” auf den ersten Blick sehr simpel und leicht verständlich wirkt: Es geht um den Transport von IP-Datenpaketen im Internet. Angeblich gelte bisher das best effort-Prinzip, das heißt, jeder Internet-Knotenpunkt (Router) leite die Pakete in der Reihenfolge weiter, in der er sie erhalte. Auf diese Weise ergebe sich ein Prinzip der Chancengleichheit: Jeder angeschlossene Netzteilnehmer hat die gleichen Möglichkeiten, seine Inhalte im Internet zu verbreiten.

Auf den zweiten Blick ist eine Definition aber höchst schwierig. Es geht schon los, wenn man den Begriff Netzneutralität aufspaltet: Was meint denn nun „Netz”? Was meint „Neutralität”?

Alleine über die Definition des Begriffs Netz sind schon dicke Bücher geschrieben worden. Was ein Netz darstellt, oder was es ausmacht, ist in Einzelfällen alles andere als einfach zu klären. Hinzu kommt: Im vorliegenden Fall geht es nicht um irgendein Netz. Es geht um das Internet — das „Netz der Netze”. Das Internet ist kein echtes, typisches Netz, wie es z.B. ein Kabel- oder Verkehrswegenetz wäre. Das Internet ist eine Bündelung verschiedenster Netze, es „reitet” quasi „huckepack” auf physischen Netzen, die digitale Daten übertragen können. Das Internet Protocol (IP) ist eigentlich nur eine technische Konvention, die ein Netz simuliert.

„Das Internet” ist freilich als Begriff ebenso unscharf. Was soll damit gemeint sein? Jedes Netz, das dazu in der Lage ist, Daten über das Internet-Protokoll weiterzuleiten? Dann wären plötzlich auch Bereiche umfasst, in denen Netzneutralität überhaupt keinen Sinn macht, zum Beispiel Firmen- oder Forschungsnetzwerke. Auch diese arbeiten mit dem Internet-Protokoll, sollen aber sicher nicht im selben Maß reguliert werden, wie „normale” öffentliche Netzwerke. IP allein kann also kein entscheidendes Kriterium sein.

Ebenso schwierig ist es, zu klären, was eigentlich Neutralität bedeutet. Das best effort-Prinzip ist tatsächlich längst nicht so streng umgesetzt, wie das die Apologeten der Netzneutralität suggerieren. Wenn man „Neutralität” als vollständige Chancengleichheit von einem Ende des Netzes zum anderen Ende versteht - dann war das Internet noch nie neutral. Zum Beispiel ist die letzte Meile, die eigentliche Anschlussleitung zum Endnutzer, längst nicht neutral. Wie viele Daten ein Nutzer in das Internet einspeisen oder empfangen kann, das entscheidet der Netzbetreiber - und der macht es von der Bezahlung abhängig. Wer mehr zahlt, bekommt einen schnelleren Internet-Anschluss.

Oder: Wie neutral ist das Internet eigentlich im Bereich der Zusammenschaltung von Netzen? Wie gesagt: Ein echtes Internet-Netz gibt es nicht. Es gibt nur verschiedene Netze, die miteinander verschaltet sind. Dieses sog. Peering ist schon heute eine sehr komplizierte Angelegenheit und weit von einer echten „Neutralität” entfernt. Abhängig davon, wie mächtig oder wie finanzkräftig die jeweiligen Netzbetreiber sind, kommen die Daten aus ihren Netzen schneller oder langsamer ans Ziel, können den direkten Weg nehmen oder werden über Umwege geleitet.

Das ist nur eine kleine Auswahl von Fragen, die sich für mich bisher ergeben haben. Über Netzneutralität lässt sich aber nur schwer streiten, wenn man gar nicht genau weiß, wovon man eigentlich redet. Noch schwerer ist es, dieses Prinzip in Gesetzesform zu gießen.

Also: Was ist Netzneutralität?
Anzeige:

Kommentare

* David Jahn 09.02.2011 09:56
Erinnert mich an:
"Ich weiß nicht, was soll es bedeuten..."
http://blog.beck.de/2010/09/16/netzneutralitaet-ich-weiss-nicht-was-soll-es-bedeuten
* code 09.02.2011 17:34
Es ist richtig, dass bislang noch keine befriedigende Definition von Netzneutralität gelungen ist. Jeder hat so seine eigene Vorstellung davon und ich denke, eine letztverbindliche Definition kann es immer nur bereichsspezifisch geben.

Was mich aber an dem Aufsatz von Koenig/Fechtner wirklich ärgert, ist, dass die vielfach geäußerten Bedenken gegenüber Eingriffen in den Netzwerkverkehr in Bezug auf die Äußerungsfreiheiten (Art. 5 GG) wörtlich sogar als "abwegig" bezeichnet und mit Vergleichen über rote Ampelphasen ins Lächerliche gezogen werden. Wissenschaftlich ist das, so finde ich, unter jeder Würde. Man könnte sich ja auch mal ernsthaft mit den Gegenmeinungen befassen, anstatt sie mithilfe juristischer Kraftausdrücke von vornherein für indiskutabel zu erklären.

Ähnliches gilt übrigens in Bezug auf einige in den letzten Monaten erschienen Aufsätze aus dem Dunstkreis gewisser Interessenverbände.

Meiner Meinung nach fehlt es der juristischen Fachdebatte über die Netzneutralität vor allem am erforderlichen wissenschaftlichen Niveau. Im wesentlichen schreibt hier jeder über ungelegte Eier und die Debatte dreht sich um die immergleichen Fragen, ganz zu schweigen davon, dass es den meisten Teilnehmer der Debatte überhaupt nicht klar sein dürfte, welche technischen Möglichkeiten eigentlich zur Diskussion stehen. Auch hier bestätigen freilich Ausnahmen die Regel, so z.B. die m.E. wirklich gut gelungene Habilitationsschrift von Simon Schlauri (die leider die äußerungsrechtliche Dimension des Problems ebenfalls weitgehend, wenn auch erklärtermaßen, außen vor lässt).
* Simon Möller 09.02.2011 21:46
Simon Schlauri war mW der erste Jurist im deutschsprachigen Rechtsraum, der das Thema NN auf dem Schirm hatte. Er hat sich mE zurecht darauf konzentriert, die US-amerikanische Debatte auf das hiesige Rechtssystem zu übertragen. Die grund- bzw. verfassungsrechtliche Komponente scheint mir erst in Deutschland neu dazu gekommen zu sein. Du warst soweit ich das überblicke der Erste, der das Thema publizistisch aus dieser Perspektive betrachtet hat.

Der Aufsatz hat mE Defizite bei der Auswertung der bisherigen einschlägigen Literatur. ZB zitiert er Hoeren bei der must carry-Idee, obwohl sie eindeutig von Holznagel stammt. Eine einfache Juris-Recherche hätte hier Klarheit verschafft.

Das Thema NN ist, was ja auch dieser Beitrag hier thematisiert, schwierig. Insofern kreide ich es keinem der Debattenteilnehmer - auch dir nicht - an, wenn Fehler passieren. Pointierte Äußerungen sind für mich OK. Sei nicht so empfindlich. ;-) ;-)
* code 13.02.2011 15:53
Also ohne jetzt eitel wirken zu wollen, aber den must-carry-Ansatz hatte ich in meinem Aufsatz damals durchaus auch schon erwähnt.

Ich stelle lediglich fest, ohne besonders empfindlich sein zu wollen, dass die Qualität der Debatte ziemlich zu wünschen übrig lässt. Das enttäuscht mich schon, denn an sich ist das Thema wissenschaftlich sehr interessant, nicht zuletzt aufgrund seiner Komplexität. Tatsächlich läuft die Debatte aber immer nur nach dem Muster "dafür oder dagegen". Davon nehme ich mich freilich auch selbst nicht aus. Ich finde bloß, man könnte sich wenigstens ein wenig mehr um die Einhaltung wissenschaftlicher Basics bemühen, wenn man schon meint, zur Debatte einen Beitrag leisten zu können/zu müssen.

Wie auch immer, dann werde ich mich einfach still und leise weiter ärgern, wenn Du nicht mitmachen möchtest.

Wie man hört, weilst Du derzeit in der Hauptstadt? Ich wünsche viel Spaß am Potsdamer Platz...
* Richard Sietmann 17.02.2011 16:15
Ganz so spektakulär wie der Plagiatsfall des Bundesverteidigungsministers ist das, was Koenig/Fechtner da präsentieren, sicherlich nicht, aber bemerkenswert ist es schon, wie sie da in Teilen wörtlich aus einer Vorlage der Deutschen Telekom AG abschreiben, ohne Anführungszeichen oder Quellenangabe. (Die Quelle führen sie lediglich in einem anderen Kontext an). Zum Vergleich:

Koenig/Fechtner: "Wären Netzwerkmanagementmaßnahmen wie etwa eine Qualitätsdifferenzierung nicht zulässig, würde gerade dies zu einer ungerechtfertigten Behandlung einzelner Dienste führen. Dienste, die etwa besonders qualitätsintensiv sind, also klar definierte Anforderungen an die Übertragungsgüte und -zeit haben, würden massiv benachteiligt und von anderen Diensten wie etwa Filesharing und Videoanwendungen verdrängt. Dieses "crowding out" hätte z. B. in der Telemedizin weitreichende Konsequenzen und würde bewirken, dass einige wenige Nutzer durch datenintensive Anwendungen sich auf Kosten anderer optimieren und innovative Dienste letztlich nicht angeboten werden könnten."

Die Quelle: "Wäre die Qualitätsdifferenzierung hingegen verboten, würde gerade dies zu einer ungerechtfertigten Behandlung einzelner Dienste führen. Jene Dienste die qualitätssensitiv sind, d.h. klar definierte Anforderungen an die Übertragungszeit und –güte haben (z.B. Telemedizin), würden massiv benachteiligt und würden von „bandbreitenhungrigen“ aber qualitätsinsensitiven Diensten (z.B. Filesharing, Videoanwendungen) verdrängt. Dieses „crowding out“ ist nicht nur ökonomisch ineffizient, sondern es bewirkt vor allem auch, dass einige wenige Kunden durch Nutzung datenintensiver Dienste sich auf Kosten der breiten Mehrheit der Internetkunden optimieren können. Dies führt letztlich dazu, dass innovative Dienste nicht angeboten werden,"
(Thomas Aidan Curran, Deutsche Telekom AG: Stellungnahme zum Fragenkatalog der Enquete-Kommission "Internet und digitale Gesellschaft", 18. 10. 2010, S. 8 )

Pikanterweise mokieren sich ausgerechnet Koenig/Fechtner über "das lobbyistische Spiel mit der 'Angst vor dem schwarzen Netzbetreiber'" durch die Verfechter der Netzneutralität. Ist das nun eine dumme oder eine dreiste Verkennung, wo die finanzstarken Lobbys stehen? Jedenfalls kann einem vor dieser Art von wissenschaftlich verbrämter Diffamierung nur Angst und Bange werden. Hat die Kommunikation & Recht kein Peer Review?

Was übrigens den Begriff der Netzneutralität angeht, so gibt es neben den sechs Punkten der FCC in den USA eine Definition des Web-Erfinders Tim Berbers-Lee, die so simpel ist, dass man ihr die Genialität erst auf den zweiten Blick ansieht: "If I pay to connect to the Net with a given quality of service, and you pay to connect to the net with the same or higher quality of service, then you and I can communicate across the net, with that quality of service." (http://dig.csail.mit.edu/breadcrumbs/node/144)
Mehr dazu demnächst in der c't.
* Simon Möller 17.02.2011 23:16
Oha. Der Text ist so stark umgearbeitet, dass man sicherlich von einer eigenen wissenschaftlichen Leistung ausgehen kann. C&P als (teilweise) Grundlage eines Fachaufsatzes ist aber auch nicht gerade ein Lorbeerblatt.

Danke für den Hinweis auf die beiden Netzneutralitäts-Defintionen. Die von Tim Berner-Lee gefällt mir sehr gut. An einigen Stellen sicherlich auch noch konkretisierungsbedürftig: Was bedeutet "connect", was heißt "quality of service"? Es ist ja gerade keine Mindestqualität, die das Internet leistet, sondern nur das Versprechen, sich "redlich zu bemühen".
* Fritz 18.02.2011 13:20
"so stark umgearbeitet"? da muss ich schon ernsthaft schmunzeln - und darüber hinaus an eine ganz bestimmte parallelangelegenheit denken, wo lauter "plagiat" selten geschrien wurde: http://de.guttenplag.wikia.com/wiki/Plagiate>
* Richard Sietmann 18.02.2011 16:56
>>Was bedeutet "connect", was heißt "quality of service"? Es ist ja gerade keine Mindestqualität, die das Internet leistet, sondern nur das Versprechen, sich "redlich zu bemühen".
* Richard Sietmann 18.02.2011 17:01
1. To 'connect' ist mehr als 'Zugang' (und 'must carry'),
Konnektivität := Zugang + Netzzusammenschaltung;
d.h. Breitbandzugang ist das eine, aber erst die Interconnection ermöglicht to "communicate across the net".

2. Es ist eigentlich egal, wie man QoS spezifiziert oder welche QoS-Klassen die Technik bereitstellt. Das kann 'best effort' sein, das kann die Renaissance der Leitungsvermittlung sein, (wie sie einigen Future-Internet-Forschern vorschwebt und mit IntServ ansatzweise in IP schon angelegt ist), das kann auch alles Mögliche dazwischen sein. Ich glaube, es bringt nichts, wenn man die (Verteidigung der) Netzneutralität an 'best effort' festmacht.

Problematisch ist eher der Begriff 'Internet'. Was ist das Internet? In den Diskussionen um die Netzneutralität geht einiges durcheinander:

1. Internet = IP als Protokoll (bzw. Netz, das mit IPv4 oder IPv6 und Routing-Algorithmen auf der Vermittlungsschicht arbeitet);

2. Internet = generischer Begriff für die Protokollfamilie der auf IP aufsetzenden Dienste und Anwendungen (TCP, HTTP, SMTP...);

3. Internet = 'Netz der Netze' als Zusammenschaltung autonom administrierter IP-Netze.

Berners-Lee hat sich auf diese Verwirrung erst gar nicht eingelassen. 'Internet' taucht bei ihm nicht explizit auf - IMHO zurecht. Das Problem der Netzneutralität ist zwar im Zusammenhang mit dem freien Zugang zu Internet Service Providern entstanden, wenn man aber auf die uneingeschränkte Konnektivität als wesentliches Merkmal der Netzneutralität abhebt, führt das über das (heutige) Internet hinaus.

Ich halte seine Definition wirklich für genial.
* Matthias Bärwolff 19.02.2011 03:02
(Hallo alle zusammen, nach langer Pause bin ich auch mal wieder bei Euch am gucken.)

Ich möchte kurz zur Definition von Berners-Lee anmerken, dass "das Netz" per Definition keine AS-übergreifende Dienstgütegarantie zulässt -- siehe etwa die weitgehend im Sand verlaufenen Bemühungen um ein "Stream Protocol" (IPv5) in den 70er Jahren.

Wenn A und B also, sagen wir, über eine Kette von vier ISPs (1, 2, 3, und 4) hin ihre Daten hin und her schaufeln, dann sind die von ISPs 1 und 4 garantierten Dienstgüten für die Katz, sobald ISPs 2 oder 3 darunter fallen (egal warum). ISPs schließen Verträge ja gemeinhin nur direkt mit einem Peer (oder vielmehr einem ISP von dem sie Transit kaufen) und da geht es ziemlich sicher ums Gesamtvolumen sowie statistische Zahlen, nicht feste Dienstgüteuntergrenzen.

Sonst würden die Monitoring- und Durchsetzungskosten ja explodieren, ganz davon abgesehen, dass es derzeit noch nicht möglich ist, den genauen Ort von Datenverlusten zweifelsfrei zu bestimmen, dafür fehlen sowohl die technischen Mittel (also Standards die übergreifend implementiert sind), als auch die ökonomischen Anreize.
* Richard Sietmann 20.02.2011 11:58
>>Ich möchte kurz zur Definition von Berners-Lee anmerken, dass "das Netz" per Definition keine AS-übergreifende Dienstgütegarantie zulässt -- siehe etwa die weitgehend im Sand verlaufenen Bemühungen um ein "Stream Protocol" (IPv5) in den 70er Jahren.
* Richard Sietmann 20.02.2011 12:00
Noch nicht. Die Situation ist heute anders. Der Provider- und Nachfrage-seitige Druck auf die beteiligten AS ist durch das Videostreaming (z.B. Netflix, Hulu in den USA) erheblich gestiegen. Es ist durchaus denkbar, dass die bilateralen Peering-Verträge künftig zwei Komponenten beinhalten: 'best effort' und QoS-Streaming, (die Auseinandersetzung Comcast/Level3 läuft in diese Richtung), aber es gibt auch andere Möglichkeiten, den Engpass Zugangsnetz meistbietend zu vermarkten.
Hier - am Oberlauf der Zugangsnetze - liegt meiner Ansicht nach des Pudels Kern der Netzneutralität. An dieser Stelle sind jetzt 'Zugang' und 'Konnektivität' keine Synonyme mehr, sondern der 'Zugang zum Internet' und die 'Konnektivität über das Internet' (im Sinne von Berners-Lee: to "communicate across the net") fallen auseinander.
Ich fürchte, das bisherige System der unregulierten, bilateralen Interconnection als Bollwerk zum Schutz der de-facto-Netzneutralität wird nicht mehr lange halten. Es ist unter Dauerbeschuss der Monopolisten, und vor den Lobbys ist ja nicht nur die FCC eingeknickt, auch bekannte Streiter für die Netzneutralität wie Lawrence Lessig haben offenbar schon resigniert.
http://www.heise.de/tr/artikel/Den-richtigen-Zeitpunkt-verpasst-1159531.html
* Simon Möller 20.02.2011 21:06
Lawrence Lessig hat diese Äußerung wohl eher aus der Perspektive des Juristen, weniger aus der des Technikers gemacht. Ich denke, sein Eindruck war, NN ließe sich nur wirksam verankern, bevor sich der Gedanke im Klein-Klein des alltäglichen Lobbykampfs zerfasert habe. So ähnlich wie bei einer Verfassung hielt er eine Einigung wohl nur auf übergeordneter, abstrakter Ebene für möglich. Vielleicht spielte bei seiner Äußerung auch eine gewisse Resignation eine Rolle - Lessig predigt ja die Netzneutralität schon seit Jahren, und bisher hat sich wenig bewegt.

Ich persönlich halte die Chance, Netzneutralität im Gesetz zu verankern, noch nicht für vergeben. Die letzte TKG-Novelle gibt der Bundesnetzagentur durchaus die notwendigen Mittel, NN durchzusetzen - wenn sie denn möchte. Vgl. dazu § 45o Abs. 3 des TKG-Referentenentwurfs.

Zur Definition von Berners-Lee: Soweit ich die Definition bis jetzt verstehe, lässt Berners-Lee also einige Punkte absichtlich offen - nämlich insbesondere, was "Quality of Service" sein soll und was das "Net" sein soll. Sollte es wirklich so sein, dass Berners-Lee absichtlich gerade keinen "best effort"-Standard fordert, dann kann man seine Definition m.E. kaum noch als Definition für Netzneutralität betrachten. Netzneutralität zeichnet sich gerade dadurch aus, dass Datenpakete chancengleich weiterbefördert werden, unabhängig davon, wie viel eine oder beide Seiten des Kommunikationsvorgangs dafür bezahlen. Davon abgesehen: Dass immer genau das geleistet werden muss, wofür der Kunde bezahlt, ist kein Prinzip der Netzneutralität, sondern des allgemeinen Schuldrechts - bekannt mindestens seit den alten Römern.

Wir scheinen hier aktuell den Begriff QoS in unterschiedlichen Varianten zu gebrauchen. Ich kenne ihn aus dem Regulierungsbereich als "garantierte Qualitäts-Mindestgüte" - das heißt, QoS ist gerade etwas anderes als "best effort". Während das herkömmliche (best effort-) Internet immer nur eine gewisse Wahrscheinlichkeit einer bestimmten Qualität garantiert, aber dafür immer, sich maximal "anzustrengen", erlaubt QoS eine Verbindung von bestimmten technischen Parametern (Datendurchsatz, Geschwindigkeit, verlorene Pakete etc.). Und das erfordert eben mehr als best effort, nämlich, andere Datenpakete in der Durchleitung ggf. zu benachteiligen. (So gesehen erleben wir übrigens zumindest in deutschen Kabelnetzen schon seit längerer Zeit, und in größerem Maßstab, Eingriffe in die Netzneutralität.)

QoS wird m.W. bisher nur netzintern praktiziert, z.B. in allen Netzen, in denen VoIP mit Festnetz-Anschlüssen oder IPTV angeboten wird. Ich sehe aber keinen Grund, warum man das nicht auch auf Ebene der Netzzusammenschaltung praktizieren können sollte. So, wie ich das verstehe, ist auch ein Peering-Knotenpunkt letztlich nichts anderes als ein Router, den man auf die eine oder die andere Weise konfigurieren kann.

Als Jurist interessieren mich vor allem folgende Fragen:

1. Was ist das "besondere", erhaltenswerte am Internet? Warum ist das Internet so schützenswert?

2. Wie drückt sich das in technischen Größen aus? An welchen Stellen des Netzes wird die "Neutralität" (siehe 1.) des Internet gewährleistet?

3. Wie lässt sich das in Form eines Gebots, Verbots oder anderen Regulierungswerkzeugs umsetzen?
* Simon Möller 20.02.2011 21:17
Mir fällt gerade auf, dass noch eine Frage offen geblieben war: Die K&R hat, soweit ich weiß, kein Peer Review. Das ist in juristischen Fachzeitschriften zumindest im deutschen Raum auch nicht üblich. Üblich ist vielmehr die Betreuung durch eine Chefredaktion mit einem unterstützenden wissenschaftlichen Beirat.

Sie können aber davon ausgehen, dass diese Diskussion an den relevanten Stellen interessiert verfolgt wird. ;-)
* Matthias Bärwolff 20.02.2011 23:53
Zu Lessigs Resignation, eine kurze Anmerkung: das Problem mit seinen Argumenten ist tatsächlich, dass sie eben schon seit 12 Jahren dieselben sind, sich aber kein für den Regulierer greifbarer "harm" hat finden lassen, abgesehen von der Comcast-2008-Geschichte und ein paar kleineren Sachen. Die Grundmuster der Netzneutralitäts-Rhetorik haben sich also durchaus verschlissen (und es sind über all die Jahre eben keine wirklich guten dazugekommen!); man schaue sich nur den Vortrag von Tim Wu (dem Erfinder des Begriffs Net Neutrality) auf der letzten Republica an, das war (1) harter Tobak (vor allem der ganze Hitler-Quatsch), und (2) machte es gut deutlich, dass sich der Zweck der Netzneutralitätsbestrebungen auf "Free Speech" zu reduzieren scheint (kein Wort mehr von "Innovationen"). Ob es dazu nun einer speziellen Netzneutralitätsregulierung bedarf sei dahingestellt, aber in der Tat ist es ja so, dass Datenschutz und Redefreiheit das Feld schon recht erschöpfend füllen. (Siehe hierzu auch etwa den sehr lesenswerten Artikel von Paul Ohm über "The Rise and Fall of Invasive ISP Surveillance".)

Zu Internet-übergreifendem QoS: Natürlich kann man Peering mit SLAs versehen, und das geschieht natürlich auch. (Und die allermeisten End-to-End-Strecken im Internet gehen über kaum mehr als maximal ein halbes dutzend ISPs.) Der Punkt ist jedoch, dass sowas nur funktioniert, wenn vorher alle Intermediäre zwischen Endpunkten A und B erstens identifiziert sind, und zweitens die nötigen QoS-Garantien geben -- deren Einhaltung sich dann auch noch von den Endpunkten aus überwachen lässt. Nun gibt es zwar Bestrebungen, die technischen Grundlagen für solcherart Transparenz zu schaffen, das bezieht sich aber derzeit nur auf packet loss (IETF Working Group CONEX, siehe auch die zahlreichen Arbeiten von Bob Briscoe zu Re-ECN) und von einer weitreichenden Einführung solcher Mechanismen sind wir noch weit entfernt. Was indes passiert, und in der Diskussion völlig vernachlässigt wird, ist dass Content Delivery Networks (CDNs) wie Akamai das Problem der, nennen wir es "Unberechbarkeit von IP-Traffic über multiple ISPs" (siehe meinen Verweis oben auf das weitgehend gescheiterte Stream-Protokoll) lösen indem sie die Zahl der notwendigen "Hops" zwischen A und B auf nur einen einzigen reduzieren -- indem sie eine valide Kopie von B (B') einfach direkt beim ISP von A hinterlegen. Dadurch reduziert sich das nxn-Problem auf ein 2n-Problem, jedenfalls für alle, die eben zu solchen CDNs gehen. Was bedeutet das für Netzneutralität? Keine Ahnung; aber es macht deutlich, dass die Netzneutralitätsdebatte zumindest in gewichtigen Teilen mit den falschen Modell-Annahmen geführt wird.

Zuletzt, die Frage "Was ist das "besondere", erhaltenswerte am Internet?" ist in der Tat eine sehr gute, und die Antwort darauf viel schwieriger, als man vermuten möge. Ist es "Neutralität"? Oder der universelle Adressraum, den es anfangs gab? Eine detaillierte Ausführung meiner zu diesen Fragen würde jetzt zu weit führen (sprich: viel zu lang werden); aber es ist interessant zu beobachten, wie sich etwa die Grundannahme, dass ein universeller Adressraum und die Ansprechbarkeit eines jeden Endpunkts durch einen jeden anderen Endpunkt auf der IP-Ebene von fundamentaler Wichtigkeit für die "goodness" des Internets sei, langsam in Luft auflöst (NATs, Firewalls, etc.). Es wäre wohl eine unzulässige Verkürzung (die weder logisch noch empirisch zwingend ist!) zu behaupten, dass das Internet dehalb weniger innovativ, weniger frei, weniger "pick your purpose" würde. Vielleicht bedarf es schlicht anderer Modellierungen, vielleicht gar einer völlig neuen Architektur des Internets -- in jedem Falle ist das Feld der ungelösten Probleme, was das Internet angeht, deutlich weiter als es manche Netzneutralitätsbefürworter fassen. Ich stimme Simon also zu: die Grundfragen des Netzneutralitätsprogramms entziehen sich in gewisser Weise einer sinnvollen Antwort. Die Debatte geht also weiter, wenn auch hoffentlich mit gelegentlichen Refokussierungen.
* Richard Sietmann 21.02.2011 17:07
@Simon Möller:

QUOTE:
Die letzte TKG-Novelle gibt der Bundesnetzagentur durchaus die notwendigen Mittel, NN durchzusetzen - wenn sie denn möchte.


Sie möchte nicht:
http://faz-community.faz.net/blogs/netzkonom/archive/2010/08/25/matthias-kurth-wettbewerb-ist-der-garant-fuer-netzneutralitaet.aspx />
Die Politik der Bundesregierung und BNetzA in Sachen NN ist m.E. in dem Kommentar von R. Walser zu
http://www.telemedicus.info/article/1866-Netzneutralitaet-im-TKG-Entwurf.html /> sehr treffend beschrieben.

QUOTE:
Vgl. dazu § 45o Abs. 3 des TKG-Referentenentwurfs.


§45o TKG-RefE (BNetzA kann Rahmenvorschriften zu MIndestanforderungen für die Dienstequalität und zur Transparenz erlassen) sind Augenwischerei. Dass die Bundesregierung keineswegs vorhat, die Konnektivität der User zu sichern, geht aus einem unscheinbaren Satz in der Begründung hervor: Weder die umzusetzende EU-Zulassungsrichtlinie noch die Transparenzverpflichtung im TKG "bewerten dabei die Zulässigkeit von direkten oder indirekten Zugangs- und Nutzungsbeschränkungen" (TKG-RefE, S.92).

>>Als Jurist interessieren mich vor allem folgende Fragen:
QUOTE:
1. Was ist das "besondere", erhaltenswerte am Internet? Warum ist das Internet so schützenswert?
2. Wie drückt sich das in technischen Größen aus? An welchen Stellen des Netzes wird die "Neutralität" (siehe 1.) des Internet gewährleistet?
3. Wie lässt sich das in Form eines Gebots, Verbots oder anderen Regulierungswerkzeugs umsetzen?


1. Die Konnektivität von allem mit jedem.
2. De facto wird sie gewährleistet, wo bzw. wenn userseitig genügend Bandbreite zur Verfügung steht, so dass keine restriktive Ressourcenverteilung erforderlich ist, UND solange Backbone-seitig der Verkehr unterschiedslos so übergeben wird, wie es Matthias Bärwolff weiter oben beschrieben hat.
3. Fertigrezepte habe ich auch nicht, ein paar Ideen schon. Die beiden kritischen Eingriffspunkte sind die Teilnehmerverwaltung am Unterlauf und die Interconnection am Oberlauf der NGN-Zugangsnetze. Bisher fokussiert sich die Diskussion überwiegend auf das userseitige Netzmanagement (Ressourcensteuerung, Drosselung, Blockieren von Diensten oder Inhalten). Ausser im Mobilfunk behauptet jedoch jeder Betreiber in Sonntagsreden, dass er keine Inhalte oder Anwendungen diskriminiert, geschweige denn Zensur ausübe, sondern nur die beschränkten Ressourcen fair verteilen wolle. Da wird es dann doch wohl keinen Widerspruch geben, die "Fairnis-Regeln" offenzulegen und unabhängige Audits zu ihrer Einhaltung zu akzeptieren?
Schwieriger wird es am Oberlauf bei der Netzzusammenschaltung. Das bilaterale Peering ist völlig unreguliert, unterliegt der Vertragsfreiheit und dem Geschäftsgeheimnis. Wenn die Zugangsnetzbetreiber - angeblich für den Glasfaserausbau - jetzt die Wurst auch vom andern Ende her anschneiden und bei den Inhalte- und Dienstanbietern kassieren wollen, (z.B. 1 Cent pro Google-Click, AltaVista die Hälfte; Netflix wollte nicht zahlen, aber Hulu haben wir im Angebot), dann usurpieren sie das Internet für ihr Kabelfernseh- oder IPTV-Geschäftsmodell. Mit den Endkunden als Geiseln werden sie vom Konnektivitätsdienstleister zum Versorgungsdisponenten.
Hier ist eine Klärung notwendig, ob das politisch gewollt sein kann, und wenn nicht, mit welchen rechtlichen Instrumenten es sich verhindern lässt. Für letzteres seid Ihr Juristen zuständig. Mein Vorschlag wäre: Weg von 'Must Carry', stattdessen auf die Konnektivität abheben und mit Art. 5 (1) i. Vbdg. m.
Art 87 f GG argumentieren.
* Valerian Jenny 23.02.2011 14:45
Also, ich finde die Definition von Berners-Lee treffend. Denn sie setzt an einem wunden Punkt an: Wenn ich es recht sehe haben die meisten Konsumenten in ihren Verträgen über Internetzugang keine harten Zusagen zu Datenraten, Bandbreiten und weiteren technischen Qualitätsmerkmalen für den Downstream. M.a.W. der Konsument hat keine eindeutig definierte 'Quality of Service' eingekauft. Das gibt seinem ISP den Schlüssel in die Hand, sich als Gatekeeper zu betätigen. Und wenn man sich die Stellungnahmen und auch die ersten Fälle dazu anschaut, dann sind es nach meinem Eindruck typischerweise die ISP im Konsumentenbereich, die das tun wollen.
* Simon Möller 24.02.2011 21:47
@ Valerian Jenny:

Das ist jetzt beispielsweise mal eine Leistungsbeschreibung von T-Online, wie man sie auf deren Homepage findet:

http://www.telekom.de/dlp/agb/pdf/38692.pdf />
Darüber hinaus gelten auch die allgemeinen Regeln der Vertragsauslegung, AGB-Kontrolle,
§ 43a Nr. 2 TKG.

Wir hatten das auch so ähnlich schon mal bei Telemedicus:

http://www.telemedicus.info/article/738-E-Plus-Warum-eine-Flatrate-keine-Flatrate-ist.html />
Ich würde sogar sagen, dass ein Kunde, so lange er nicht explizit etwas anderes einkauft, auch eindeutig ein vertragliches Recht auf "best effort"-Internet erwirbt - jedenfalls, soweit das in der Macht seines Providers steht. Diskriminiert der Provider bestimmte Daten, ohne dazu gesetzlich oder vertraglich berechtigt zu sein, begeht er einen Vertragsbruch.

Ich würde also der Ansicht, man könne die Leistungspflicht des Zugangsproviders nicht genau spezifizieren, eher nicht zustimmen.

@Matthias Schindler, Richard Sietman:

Ich persönlich sehe die besonderen Eigenschaft doch noch durch einiges mehr gewährleistet als einfach nur die Konnektivität. Ich hatte einige spezielle Charakteristika des Internet am Anfang einer Seminararbeit zu Online-Marketing beschrieben:

http://www.telemedicus.info/article/1840-Seminararbeit-Kommunikationsinstrumente-im-Social-Web.html />
Uneingeschränkte Konnektivität (ich meine damit: die Verbindung aller Endpunkte des Netzes miteinander) ist z.B. fast vollständig auch beim Telefonnetz gewährleistet. Das empfindet nun aber niemand als besonders spektakulär, weil dem Telefonnetz noch andere wichtige Eigenschaften fehlen, z.B. die Fähigkeit, fast jede Art von Information übertragen zu können.

Ich denke, die Besonderheit des Internets ist, ganz abstrakt gesprochen, dass es eine extrem große Innovationskraft besitzt. Informationen fließen hier sehr schnell hin und her, finden schnell ihre richtigen Adressaten, werden sehr schnell verarbeitet. Neue Geschäftsmodelle, Technologien, Ideen etc. setzen sich extrem schnell durch, weil der ganze Bereich äußerst dynamisch und anpassungsfähig ist. Die Frage ist: Warum ist das so?

Ich denke, zumindest Teil der Besonderheit des Internets ist die formale Gleichstellung seiner angeschlossenen Nutzer. Die typische Kommunikationsform im Internet ist peer to peer; technisch ist kleineprivatehomepage.de nichts anderes als ard.de. Netzneutralität scheint mir mit diesem Gedanken zumindest eng verwandt zu sein, wenn nicht sogar deckungsgleich.

Zu regulatorischen Ansätzen:

Ich finde die Ansätze zu must carry und
§ 45o TKG insgesamt erfolgsversprechender. Die Bundesnetzagentur würde ich auch noch nicht abschreiben. Sie ist, wie jeden Behörde, erst einmal Vollstreckerin der Gesetze, die sie umsetzen soll. Wenn es mit dem neuen TKG neue Rechtsgrundlagen (und neue Regulierungsziele) gibt, dann ändert sich auch das Programm der Bundesnetzagentur. Außerdem ist sicherlich der politische Druck mittlerweile gestiegen.

Kommentar schreiben

Umschließende Sterne heben ein Wort hervor (*wort*), per _wort_ kann ein Wort unterstrichen werden.
BBCode-Formatierung erlaubt
Die angegebene E-Mail-Adresse wird nicht dargestellt, sondern nur für eventuelle Benachrichtigungen verwendet.