Tag Archives: Internet

Mit dem „Verschwinden des Eigentums“ verschwindet nicht der Profit – Bedingungen des Rent-Grabbing in der Internetwirtschaft

Stefan Padberg*

Jeremy Rifkin hatte in seinem im Jahr 2000 erschienen Buch „Access“ [1] die These vom „Verschwinden des Eigentums“ im Kapitalismus des 21. Jahrhuderts aufgestellt. „Der Markt als Grundlage des neuzeitlichen Lebens befindet sich heute in Auflösung. Im kommenden Zeitalter treten Netzwerke an die Stelle der Märkte, und aus dem Streben nach Eigentum wird das Streben nach Zugang (access), nach Zugriff auf das, was diese Netzwerke zu bieten haben. Unternehmer und Verbraucher machen erste Schritte, den zentralen Mechanismus des neuzeitlichen Wirtschaftslebens auszuhebeln – den Tausch von Eigentum zwischen Verkäufern und Käufern auf Märkten.“ Das klassische Privateigentum werde zunehmend ersetzt durch Abonnements, Mitgliedschaften und zeitlich begrenzte Zugangsberechtigungen für Dienstleistungen. Statt Verkäufern und Käufern von Produkten hätte man es in Zukunft immer mehr mit Anbietern und Nutzern von Dienstleistungen zu tun. Das Wissen um den Zugang bedeute heute die eigentliche Macht.

padberg-sw
Stefan Padberg

Jeder Aspekt unseres Daseins könne sich so in eine geldwerte Ware verwandeln. Gewinner seien die „Pförtner“, die den Zugang zur Kultur und zu den Netzwerken kontrollierten. Die Ökonomie habe nun „ihre Aufmerksamkeit dem letzten unabhängigen Bereich des menschlichen Lebens zugewandt: der Kultur selbst.“ Wir erlebten die Transformation vom industriellen zum kulturellen Kapitalismus. Das kulturelle Gemeingut werde enteignet, neu verpackt und in eine Ware verwandelt. Am Ende würden nur noch Geschäftsbeziehungen die Gesellschaft zusammen halten. Damit wären aber die Grundlagen der Zivilisation bedroht.

Fünfzehn Jahre später können wir in Europa feststellen, dass sich viele Vorhersagen von Rifkin bewahrheitet haben. Wir können uns deshalb heute konkret anschauen, wie dies funktioniert. Beispielhaft seien hier die Unternehmen Microsoft, Google und Facebook genannt. Allen drei Unternehmen ist gemeinsam, dass ihre Gründerfiguren visionäre Pioniergestalten waren, die eine bestimmte Technik gestützte Vision umsetzen wollten.

„Access monopolies“ am Werk

Bill Gates Vision war, einen „Personal Computer“ zu erfinden, der so klein und so billig ist, dass er in jedes Wohnzimmer passt, denn jeder Mensch habe ein Recht auf einen eigenen Computer. Dies in einer Zeit, in der Computer zimmergroße Schränke waren, die in Rechenzentren von Universitäten, großen Unternehmen und Militäreinrichtungen zu finden waren.

Googles Vision war, die beste Suchmaschine für das Internet zu erfinden. Zu Beginn des Internets gab es noch keine Suchmaschinen. Auf jeder Website waren Links auf andere Websites, die den jeweiligen Erstellern interessant zu sein schienen. Mit dem rasanten Wachstum der Anzahl von Websites war dieser Mechanismus nicht mehr flexibel genug. Wenn man mit seiner eigenen Website im Netz gefunden werden wollte, musste man immer mehr andere Website-Besitzer darum bitten, dass sie Links auf die eigene Website setzen. Dies führte dazu, dass Websites entwickelt wurden, die nichts anderes waren, als riesige Linkverzeichnisse und die sich ihre Dienstleistung zunehmend bezahlen liessen.  Googles entscheidende Idee war die Umkehrung dieses Vorgangs. Ein Suchroboter sollte aktiv das Internet durchsuchen und alle auffindbaren Websites indizieren, sodass sie über das Suchformular von Google gefunden werden könnten.

Marc Zuckerbergs Vision bestand in der Entwicklung einer integrierten Kommunikationsplattform. Ihn störte, dass man für jede Funktion ein eigenes Programm auf dem PC starten musste. Die Geschichte hat gezeigt, dass es nicht nur ihm so ging, sondern vielen seiner Kommilitonen ebenfalls.

Ich vermute, keiner dieser Jungs hatte zu Beginn das Ziel, Lenker weltumspannender Unternehmen zu werden. Aber sie hatten die Vision, dass ihre Ideen nützlich sind und dass es eine genügend große Zahl von Menschen geben würde, die Interesse an diesen Ideen haben würden. Sie wurden darin durch das technikaffine Umfeld im Silicon Valley gestärkt. Und dann zeigte sich, dass sie Recht hatten: es gab eine große Nachfrage nach ihren Produkten bzw. Dienstleistungen.

„Access monopolies“ als Pförtner

Wenn wir nun die Beziehung zu Rifkins „access“-Begriff herstellen wollen, müssen wir uns fragen, welche Pförtnerfunktion die jeweiligen Unternehmen sich zu Eigen gemacht haben. Bei Google liegt der Fall recht klar und wir wollen uns diesen zuerst anschauen. Durch Google werden Websites auffindbar gemacht. Jeder Website-Betreiber und jeder User im Internet hat davon einen Mehrwert. Ohne Google wäre das Leben und Arbeiten im Internet wesentlich mühsamer. Zudem steht die Dienstleistung kostenlos zur Verfügung und wird ständig verbessert. Es ist für jeden nachvollziehbar, dass so eine Suchmaschine zum Monopol-Anbieter wird.

Jeremy Rifkin
Jeremy Rifkin

Facebook bietet „access“ auf eine Kommuni-kationsplattform, mit der sich Milliarden von Menschen selbständig vernetzen können. Vorher musste jeder User sich eine eigene Website mit Kontaktformular selber bauen oder sich teuer von Fachleuten erstellen lassen. Außerdem musste er sich eine eigene E-Mailadresse besorgen und ein entsprechendes Programm auf dem PC installieren und konfigurieren. Wenn man an einen anderen User eine E-Mail schreiben wollte, musste man dessen E-Mail wissen.

Microsofts „access monopoly“ liegt in der einheitlichen Erschließung der PC-Hardware. Überall auf der Welt gibt es PCs und Laptops mit Microsofts Betriebssystem und Office Software, was das Leben sehr erleichtert. Wenn es überall unterschiedliche Betriebssysteme und Office Software gäbe, wäre der Umgang mit dem PC wesentlich komplizierter.

„First mover advantage“

Ein „access monopoly“ etabliert sich dabei vor allem durch den sogenannten „first mover advantage“. Wir kennen dies noch aus der alten Zeit: „Tempo-Tuch“ ist ein Begriff, der in unseren Alltag so stark eingedrungen ist, dass wir auch Papiertaschentücher anderer Anbieter „Tempotücher“ nennen. Derjenige, der ein neuartiges Produkt als Erster auf den Markt bringt, hat eine gewisse Definitionsmacht, was Name, Funktionsweise und Qualität des Produktes ausmacht. Dies gilt in noch viel stärkerem Maße für die „access“-Phänomene. Derjenige, der einen Zugang als erster erschließt, hat den Vorteil, dass er den Markt regelrecht formen kann. Die Art, wie er die Dienstleistung erbringt, wirkt prägend bis hinein in die Namensgebung (das sprichwörtliche „googlen“). Potenzielle Konkurrenten müssen erst einmal aufholen, um die gleiche Dienstleistung anbieten zu können.

„The winner takes it all“

Im Internet kommt noch ein Zusatzeffekt hinzu. Diese access-Dienstleistungen funktionieren umso besser, je mehr Menschen daran teilnehmen. Dies war beim Siegeszug von Facebook deutlich zu erkennen. Es war den meisten Teilnehmern in den sozialen Netzwerken zu aufwändig, wenn man seine (beruflichen oder privaten) Bekanntschaften bei verschiedenen Anbietern hostete (MySpace, SchülerVZ, Facebook, Xing, LinkedIn usw.). Die Bequemlichkeit wünscht sich alles an „einem Platz“ zu haben. Das führte dazu, dass sich ab einem bestimmten Punkt ein Anbieter durchsetzte. Die Konkurrenten verschwinden vom Markt: “the winner takes it all”.

US-amerikanische Anbieter sind hier im Vorteil, weil die kulturelle Entwicklung in Richtung Digitalisierung in den USA weiter fortgeschritten ist als in den anderen Teilen der Welt, und weil die USA einen großen, relativ einheitlichen Markt darstellen. Was sich dort durchsetzt, hat gute Chancen, sich weltweit zu behaupten. Und sich einen Marktanteil zu erringen, ohne in den USA erfolgreich zu sein, ist nicht so einfach. Viele Startups wissen um darum: Sie lassen sich in Berlin von der dortigen Startup-Förderung hochpäppeln, aber wenn sie so weit sind, dass sie an den Markt gehen können, wechseln sie in die USA, weil der Markt dort größer ist.

Weitere Nutzeffekte stellen sich ein. Viele Möglichkeiten der Kommunikation in den sozialen Netzwerken entstehen erst dadurch, dass Facebook oder Twitter Quasi-Monopolisten sind. Für Unternehmen, aber auch für NGOs ergeben sich erstaunliche Möglichkeiten in den sozialen Netzwerken. Google liefert nur deshalb so gute Suchergebnisse, weil es von so vielen Menschen genutzt wird. Die Such-Algorithmen funktionieren umso besser, je mehr Menschen sie nutzen.

Wie finanzieren sich die „access monopolies“?

Die Dienstleistungen von Google oder Facebook sind erstaunlicherweise kostenlos, obwohl sie mittlerweile riesige Unternehmen sind, die eine große Zahl von Mitarbeitern beschäftigen und für ihren Service große Serverfarmen aufgebaut haben, die enorme Kosten in der Anschaffung und Wartung mit sich bringen. Wie funktioniert das?

Es sind ja definitiv keine Produkte vorhanden, die verkauft werden. Amazon könnte mit viel Liebe noch als Handelsunternehmen eingestuft werden, und Microsofts Produkte sind zumindest mit Hardware verknüpft. In beiden Fällen ist es natürlich, dass Geld gegen Ware getauscht wird und dass sich die Monopolisten über Aufschläge auf die Warenpreise bequem finanzieren können. Insofern sollen hierzu zunächst mal die reinen „internet access monopolies“ betrachtet werden, um das Phänomen in seiner Reinheit zu untersuchen.

Die Hauptgeldquelle liegt in der Vermarktung von Nutzerinformationen. Die Werbeindustrie hat ein großes Interesse an diesen Daten. Sie träumt davon, jedem Nutzer genau die Werbung zu präsen­tieren, die ihn interessiert, und vor allem die Werbung nicht zu präsentieren, die ihn nicht interessiert. Aus der Beobachtung des Suchverhaltens oder der Facebook-Postings lassen sich Rückschlüsse auf das Konsumprofil ziehen, und somit auf die Werbung, die für den jeweiligen Nutzer von Interesse sein könnte. Dieser Effekt soll Werbung deutlich erfolgreicher machen, und so ist die Werbeindustrie bereit, Preise zwischen 10 und 50 Dollar pro Datensatz zu bezahlen, je nachdem wie aussagekräftig er ist.

Der Traum der Handelsunternehmen geht darüber hinaus dahin, von jedem Käufer einen indivi­duellen Preis zu verlangen, indem sie meinen abschätzen zu können, wie groß das Interesse und die Finanzkraft des potenziellen Käufers ist. Dies wäre in gewisser Hinsicht das Ende der freien Marktwirtschaft, denn diese beruht darauf, dass der Käufer die Angebote miteinander vergleichen kann, was hier aber nicht weiter betrachtet werden kann.

Zugangsgebühren für „access monopolies“

Solche Träume oder Fantasien also treiben letztendlich das Geschäft bei Google, Facebook und Amazon an. Ich weiß nicht, wie realistisch solche Träume sind. Ich gehöre zu den Leuten, die Werbung vermeiden und ausblenden, wo sie nur können. Was würde passieren, wenn eine große Anzahl von Internetnutzern sich ähnlich wie ich verhalten würde? Irgendwann würde der Werbeindustrie sicherlich die Puste ausgehen und sie würde aufhören, für diese Datensätze Geld auszugeben. Aber dann stellte sich verstärkt die Frage, wie solche sozialen Internet-Dienstleistungen finanziert werden könnten. Es müsste dann doch wohl so etwas wie einen Preis oder eine Zugangsgebühr geben.

Einen echten Preis im klassischen Sinne kann es nicht geben, denn es werden keine eigentlichen Produkte hergestellt. In Internet basierten Netzwerken werden die relativen Kosten umso geringer, je mehr Menschen am Netzwerk teilnehmen. Jeremy Rifkin spricht deshalb auch immer wieder von der „Null-Grenzkosten-Ökonomie“. Theoretisch wäre es deshalb am gerechtesten, die Nutzer einer Dienstleistung teilten sich die Unkosten untereinander auf. Dazu müsste das Unternehmen, das die in Frage stehende Dienstleistung anbietet, quasi in Nutzerhand sein und jährlich die Kosten offen legen und auf die registrierten Nutzer umlegen.

Passende Eigentumsformen für „access monopolies“

Solange die Internet-Dienstleistungen aber werbefinanziert und damit scheinbar kostenlos sind, werden es solche Geschäftsmodelle schwer haben. Nach den vielen Datenskandalen der letzten Jahre ist aber bei einer spürbaren Zahl von Nutzern die Bereitschaft gewachsen, die „Kostenlos“-Kultur aus den Anfangszeiten des Internet, als dieses noch ein rein geistig-wissenschaftliches Austausch­medium war, in Frage zu stellen und sich von ihr zu verabschieden. Vertrauen in ein solches Geschäftsmodell könnte dadurch geschaffen werden, dass die Unternehmensformen sich ändern. Denkbar wäre z.B., dass diese Internet-Dienstleistungen von Genossenschaften oder Stiftungen erbracht würden, die es ausdrücklich ausschließen, die Daten zu Werbezwecken an andere Unternehmen zu verkaufen.

Ein anderer Ansatz könnte sein, dass man bestimmte Internet-Dienstleistungen, die als Quasi-­Monopol erbracht werden, nicht mehr durch Privatunternehmen erbringen lässt, sondern durch öffentlich-rechtliche Non-Profit-Unternehmen. Sie könnten steuerbefreit werden, müssten ihre Kosten transparent halten und könnten Gebühren von allen Bürgern einziehen. Vermutlich ist aber die Geschwindigkeit in der Weiterentwicklung dieser Dienstleistungen so groß, dass solche Körper­schaften zu unflexibel sein werden.

Datenschutz und Recht auf Privatheit

Es soll hier nicht unerwähnt bleiben, dass das Geschäftsmodell der großen Internet-Dienstleister auf einer Verletzung unserer Privatsphäre beruht. Sowohl das deutsche Recht auf informationelle Selbstbestimmung als auch das US-amerikanische Right to Privacy [2] verbieten die massenweise Verwendung und Veräußerung privater Daten. Prof. Eric Clemons von der Wharton School of Business hat dies in einem Artikel in der Huffington Post sehr deutlich machen können [3].

Allerdings hinkt hier die Entwicklung des Rechts hinter den Gepflogenheiten in der Internetwirt­schaft um Jahre hinterher. Es ist insbesondere überhaupt nicht klar, wie man Rechtsverletzungen ohne Einwilligung und Kooperation der in Frage stehenden Firmen feststellen kann. Mir scheint, dass es zum gegenwärtigen Zeitpunkt letztendlich keine technische Möglichkeit gibt, diesen Missbrauch zu verhindern. Eine Lösung könnte eher darin liegen, die Eigentumsformen und die Geschäftsmodelle im oben beschriebenen Sinne zu verändern. Solche Unternehmen hätten strukturell kein Interesse an der Werbefinanzierung.

Die „Schöne Neue Welt“ der „access monopolies“

Firmen wie Microsoft, Amazon, Google, Twitter und Facebook haben unser aller Leben massiv verändert und werden es noch weiter verändern. Im Augenblick ist „big data“ das große Stichwort, auf das alle Größen im IT-Business hinarbeiten. „Big data“ bezeichnet die Fähigkeit, riesig große Datenmengen aus heterogenen Datenquellen in Echtzeit miteinander verknüpfen und verarbeiten zu können. Im Vorgriff auf diese noch zu entwickelnde Technik werden jetzt schon so viel Daten wie möglich gesammelt, obwohl man sie heute noch gar nicht so auswerten kann, wie man sich das erträumt.

In der „Schönen Neuen Welt“ der Silicon Valley Unternehmen stehen viele Projekte auf der Entwicklungsagenda:

  • Autonome „smart cars“ werden in Zukunft ohne Eingriff eines menschlichen Fahrers navigieren.
  • Digitale Assistenten, die unsere Lebensgewohnheiten genau kennen, werden uns mit diesem Wissen helfen, den immer komplexeren Informationsalltag zu managen, uns an Termine und Geburtstage erinnern, unsere Einkäufe selbständig managen usw.
  • Gesundheitsassistenten, die unsere Gesundheitsparameter messen, können uns bei einer gesunden Lebensführung unterstützen, warnen, wenn ein Herzinfarkt bevorsteht usw.
  • Verkehrssteuerungscomputer könnten mit ihren noch zu entwickelnden prognostischen Fähigkeiten den Verkehrsfluss der „smart cars“ in den Großstädten staufrei regeln.
  • „Precrime Software“ könnte vorhersagen, wo Verbrechen als nächstes stattfinden werden und von wem sie verübt werden werden. Dies könnte die Effektivität der Polizeiarbeit enorm verbessern und die Sicherheit in den Städten erhöhen.

Wir wissen nicht, wann und mit welcher Zuverlässigkeit solche Technologien zur Verfügung stehen werden. Es fließen aber gegenwärtig Milliarden von Dollars in ihre Entwicklung, und man kann davon ausgehen, dass noch in diesem Jahrhundert solche Technologien erfolgreich zur Anwendung kommen werden. Es bleibt einem anderen Artikel vorbehalten, die Wurzeln und Konsequenzen dieser unvermeidlichen Entwicklung zu beleuchten, inwieweit ein Techno-Faschismus droht und welche Möglichkeiten es gibt, die Entwicklung dahin zu erschweren.

„Access monopolies“ und Politik

Bisher war für den Erfolg der Internet basierten Technologien entscheidend, dass sie bei den Käufern /Nutzern massenhaft Anklang fanden. Kein Mobilfunkgerät, kein PC ist uns aufgezwungen worden. Sie haben ihre Nützlichkeit in der millionenfachen Praxis der Käufer bewiesen. Im Vergleich mit den Energiemonopolen im 20. Jh. war hierfür auch kein Bündnis mit der Politik nötig, keine Subven­tionen, kein Aufsichtsratsgekungel, keine teure Lobbyarbeit usw. Lediglich die Missachtung des Rechts auf Privatheit musste von Seiten der Politik geduldet werden.

Die Geltendmachung dieses Rechts wird engagierten Bürgern, zivilgesellschaftlichen Organisationen und aufmerksamen Politikern allerdings Möglichkeiten geben, mit den IT-Unternehmen neu ins Gespräch zu kommen. Hier hat in den letzten Jahren ein Umdenken bei den Bürgern und Politikern begonnen, dass auch die großen IT-Dienstleister partiell zum Einlenken gezwungen hat.

Die Weiterentwicklung in Richtung der oben beschriebenen „smart society“ wird allerdings nicht ohne die grundlegende Zustimmung und Förderung der politischen Ebene von statten gehen können. Hier werden Möglichkeiten entstehen, dass die Politik und die Bürger regulierend eingreifen können. Umso wichtiger ist es nun, schon heute Ideen für eine digitale Zukunft zu entwickeln, die eine freiheitliche und menschengemäße soziale Entwicklung nicht gefährdet.

Neben der Verkleinerung von rechtsfreien Räumen im Internet werden technische Lösungen benötigt, die den Anforderungen eines bürgerfreundlichen Datenschutzes genügen, ohne die elektronische Kommunikation zu behindern. Eine soziale Zukunft ohne digitale Kommunikation scheint aus heutiger Sicht nicht mehr denkbar. Zu groß sind die Vorteile des freien Informations­austauschs auch für soziale Bewegungen und alle engagierten Bürger und Bürgerinnen. Die Möglichkeiten der freien Vernetzung der Menschen untereinander wird über kurz oder lang hierarchische und zentralistische Organisationsformen obsolet werden lassen, insbesondere wenn diese Netzwerke die Produktionssphäre erreichen und z.B. die Energieproduktion dezentral organisieren werden, wie Jeremy Rifkin es in einem anderen Buch vorgeschlagen hat [4].

Das Internet bietet enorme Chancen auf Dezentralisierung und Demokratisierung. Hierin ist Jeremy Rifkin unbedingt zuzustimmen. Damit dies aber zur Geltung kommen kann, wird ein international anerkannter Ordnungsrahmen benötigt, der das gesamte digitale Informationsmanagement in einen dritten nicht-kommerziellen Sektor überführt. Dies kann jedoch im Rahmen dieses Artikels nicht weiter behandelt werden.

Literatur:

[1] Jeremy Rifkin: Access. Das Verschwinden des Eigentums. Warum wir weniger besitzen und mehr ausgeben werden. Campus-Verlag, Frankfurt/New York 2000

[2] Samual D. Warren, Louis Brandeis: The Right to Privacy (1890), veröffentlicht und übersetzt durch das Unabhängige Zentrum für Datenschutz Schleswig-Holstein, https://www.datenschutzzentrum.de/allgemein/20111219-Warren-Brandeis-Recht-auf-Privatheit.html

[3] Eric K. Clemons, Josh Willson: Selbstschutz ist nicht gleich Protektionismus. http://www.huffingtonpost.de/eric-k-clemons/eu-datenschutz-rechtswidrige-unternehmenspraktiken_b_8490876.html

[4] Jeremy Rifkin: Die dritte industrielle Revolution. Die Zukunft der Wirtschaft nach dem Atomzeit­alter. Campus-Verlag, Frankfurt, New York 2011

 

*Stefan Padberg, Jahrgan 1959, ist Dipl.-Ing. Informationstechnik und arbeitet freiberuflich im IT-Bereich. Er beschäftigt sich seit vielen Jahren mit den Themen „Digitalisierung“, „Geldordnung“, „Direkte Demokratie“ und „Europa“.

Das Internet gehört dem Kommerz

Anton Weber*

Früher, 1989 als Tim Berners-Lee das World Wide Web beim CERN erfand, ging es um Informationsaustausch und Informationsbeschaffung.

kontakt_weber
Dr. Anton Weber

Und nur darum. Das Web, das Internet war damals eine rein akademische Sache. Man diskutierte in News-Groups und schrieb Texte, meist ohne Bilder. Heute sind ca. 70% des Internet-Traffics Videodaten!  Nur zur Erinnerung: 1989 regierte noch die VHS-Kassette in der Videothek die Welt der Videos.

Internet: Marktliberalisierung in Reinform.

Heute geht es im Internet ums Shoppen und  Glotzen. Vereinfacht  gesprochen. Da das Internet, die Online-Handelsplattformen  keine lästigen Zollkontrollen, keine Einführbeschränkungen, keinerlei Zugangskontrollen kennt, ist das Internet ein Eldorado hinsichtlich völlig unregulierten Geschäftsgebarens. Es bietet immer schon das was TTIP, TTP, TISA oder CETA, und wie sie alle heissen, diese bestehenden oder geplanten  Freihandelsabkommen, erst jetzt bieten.

Der Defaultwert, die Werkseinstellung beim Internet heisst eben „keine Grenzen“ und „keine Sperren“. Es dominieren überwiegend US-amerikanische Firmen wie Amazon, Google und Facebook. Das hat auch seinen Ursprung darin, dass das Internet eine US-amerikanische Erfindung ist und die USA bis heute großen Einfluss auf die Verwaltung und die Technik beim Internet haben.

Eine Folge dieses Ansatzes von einem Netzwerk ohne jegliche Limitationen und nationale Kontrollen ist es auch, dass sich marktliberale Parteien und Bewegungen schwer damit tun, Restriktionen für das Internet zu fordern.  Damit würden sie ja letztendlich ihre eigenen marktliberalen Grundsätze zur Disposition stellen – so wird es zumindest von den US-Internetfirmen-Lobbyisten häufig unterstellt.

Das Internet kennt keine Landesgrenzen.

Die heisst aber nicht, dass man den Internetverkehr nicht kontrollieren könnte. Man kann, wenn man will. China, genauer die chinesischen Zensurbehörden führen vor, wie man dies großflächig macht.  Da werden zu tausenden IP-Adressen gesperrt, IP-Pakete, also die Nutzlast, werden einer Deep Packet Inspection unterworfen, verschlüsselte Internetverbindungen wie VPN (Virtual Private Network) werden schon mal unterbrochen, wenn man schon nichts lesen kann. Aber all dies bedeutet eben einen relativ hohen Aufwand an Personal und IT-Infrastruktur . Diese Zensur ist im Falle von China rein auf politische Inhalte ausgerichtet. Man kann Zensur auch handelspolitisch denken.  Die klassischen Zölle sind nichts anderes als eine Art Zensur – für den Warenverkehr, für den Handel.

Planspiel: Nationale Internets.

Das geht. Man weist Firmen und Organisationen eindeutige  feste IP-Adressen oder sogenannte Autonome Systeme (AS) zu.  AS das sind große Gruppen von IP-Adressen. Damit hat man das weltweite Internet mit geografischen Orten, mit den Standorten der Firmen verdrahtet. Dies geschieht bereits heute schon.  Nur wissen viele außerhalb der Internet-Community nicht, dass dies so ist und dies wurde und wird auch nicht staatlich reglementiert. Diese IP-Adressenvergabe wird auf privatwirtschaftlicher Basis zwischen ICANN [1] und verwandten Organisationen, den regionalen Internet Service Providern und anderen großen Unternehmen geregelt.

Man führe nun die deutsche .de-Domain mit definierten IP-Adressen oder noch besser mit den Autonomen Systemen (AS) und diese wiederum mit Firmen und Organisationen in einem Register zusammen. Dann lasse man an den großen Internetknotenpunkten, sogenannten IXP, wie z.B. den DE CIX in Frankfurt nur die IP-Pakete zu den End Usern in Deutschland passieren, die von Organisationen stammen, die in Deutschland a) registriert sind und b) Abgaben und Steuern zahlen. Dann hat man de facto Kontrolle im Internet eingeführt, die auch als Handelsbarriere genutzt werden kann [2].  Der Staat hat wieder Zugriff auf die Transaktionen dieser Internetfirmen und kann sowas ähnliches wie Umsatzsteuer oder Maut einfordern. Der Aufschrei wäre sicher gewaltig.

IPv6 – unendlich viele IP-Adressen für alle.

Steigen wir für einen Moment etwas tiefer in die Technik ein. Das Internetprotokoll wie der Name Protokoll schon andeutet, legt  fest  wie Rechner, generell alle internetfähigen Geräte miteinander kommunizieren. Das ist die Basis. Ohne IP-Protokoll gibt es kein Internet. Aktuell wird in etwa 90% aller Fälle noch das Internetprotokoll IPv4 genutzt, obwohl die IP-Adressen mittlerweile schon sehr knapp sind. Das Internetprotokoll IPv6 bietet hier einen Ausweg. Aber so ein vollständiger Umstieg von IPv4 auf IPv6 kostet eben auch Geld.

IPv6 bietet 340 Sextillionen IP-Adressen (3,4 mal 10 hoch 38) – wir könnten  damit de facto jedem Ding auf der Welt, jeder Person, jedem Auto, ja jedem Kugelschreiber eine eindeutige und eigene IP-Adresse zuweisen. Im Branchen-Slang heißt dies dann oft Internet of Things. IPv6 erleichtert ganz nebenbei die Authentifizierung von IP-Adressen. Also die Antwort auf die Frage: Ist diese IP-Adresse tatsächlich die IP-Adresse der Firma F oder eben nicht. Weiterhin beschleunigt IPv6 das Routing im Internet und beschleunigt damit eben auch den Datentransfer. Das IPSec-Protokoll als Ende-zu-Ende-Verschlüsselungsstandard ist de facto vorimplementiert.

Die Umstellung auf dieses aktuellere Internetprotokoll erlaubt ein schnelleres und sichereres Internet. Aber es würde eben auch erlauben, die Teilnehmer an diesem Netz eindeutiger zu identifizieren und damit auch den Zugang zu kontrollieren, zu blockieren und zu protokollieren. Diese Protokollierung betrifft nicht nur die End User sondern alle Teilnehmer, auch die Internetfirmen, die das Internet als Geschäftsplattform nutzen.

Anmerkungen

[1] ICCANN: Internet Corporation for Assigned Names and Number. Weitere Internetorganisationen: IANA, RIPE NCC, ARIN, etc.

[2] Die gilt zumindest für die Mehrheit der End User. Über Techniken wie Tunneling, Nutzung von TOR-netzwerk o.ä. wird es immer Lücken und Möglichkeiten geben, eine solche Sperre zu umgehen.

 

*Dr. Anton Weber ist Datenschutzbeauftragter der Grammer AG.

Wem gehört das Internet?

Anton Weber*

kontakt_weber

Das Internet ist wie das Eisenbahnnetz ….

Aber ein weltweites. Es gibt dort Bahnhöfe, Stellwerke, Haltestellen, Züge und Wagons, Passagiere und Frachtsendungen, natürlich ein Streckennetz und Fahrkarten. Einen ersten Unterschied gibt es: es gibt keine Fahrpläne. Jeder kann fahren  wann und wohin er will. Wär‘ ja  toll, wenn das auch so bei der Bahn so möglich wäre.

Stellen wir uns weiter vor, es gäbe so ein weltweites Eisenbahnnetz, bei dem alle Passagiere, alle Warensendungen gleich viel wert sind. Nichts wird bevorzugt. Egal ob jemand 100 Barren Gold oder einen Sack Reis versendet, es kostet immer gleich viel pro Kilo oder pro Kubikmeter. Klingt verrückt? So ist das Internet aber organsiert. Alle Passagiere, alle Datenpakete sind gleich, nichts wird per se priorisiert – fast schon sozialistisch. Verwaltet wird das das Ganze  an oberster Stelle aus den USA.

ICANNDas macht die ICANN [1].

 

 

ICANN  (Internet Corporation for Assigned Names and Numbers) als “zentrale Bahngesellschaft” des Internets

Wer ist nun eigentlich die ICANN? Die ICANN kommt ganz unscheinbar daher als Non-Profit-Organisation. US-basiert, nach US-Recht korporiert, mit Sitz in Los Angeles  und mit einer Lizenz, einem Vertrag vom US-Department of Commerce (DoC) ausgestattet.

Die ICANN, und mit ihr die verschwisterten Internet-Organisationen IANA und IETF, unterstehen der NTIA [2] einer Behörde des DoC [3].

NTIA

Sie bestimmt an oberster Stelle die Vergabe von IP-Adressen und Domainnamen, also über die Anzahl und regionale Verteilung der Bahnhöfe und Haltestellen des Internets. Sie vergibt als oberste Instanz die sogenannten AS-Nummern, das sind die autonomen Systeme (AS), die Bereiche von IP-Adressen die dann von einem Internet Service Provider (ISP), das sind die regionalen Bahngesellschaften, auch Local Internet Registry genannt, selbstständig verwaltet werden.

Die IETF übrigens setzt die technischen Standards [4] wie was im Internet versendet und verarbeitet wird. Sie legt damit de facto fest wie lang die Wagons sind und wie gross die Spurweite der Eisenbahnstrecken zu sein hat, was dann die lokalen ISPs berücksichtigen müssen.

Ein schnelles Streckennetz nutzt den lokalen ISPs, Firmen Verizon oder der Telekom per se wenig. Es freuen sich die grossen Fahrkartenbesitzer, die Content-Anbieter mit Zugang zu grossen Bahnhöfen, mit vielen IP-Adressen, Firmen wie Google oder Netflix, weil sie so ihre Ware, ihre Passagiere leichter und schneller zum Konsumenten an den kleinen Haltepunkten, dem DSL-Anschluss von John Doe, bringen können.

 

Die grossen Internetfirmen kommen aus den USA: Zufall?

Darüber sollten wir uns nicht wundern, denn dass das Department of Commerce als oberste Aufsichtsbehörde des Internets ausgewogen allen Organisationen der Welt gleich gerecht wird, ist wohl nicht zu erwarten.

Das ganze System funktioniert so, dass letztendlich die USA den Daumen drauf haben. Der Besitz, das Nutzungsrecht von vielen IP-Adressen  ist bares Geld wert.

Die Kombination aus IP-Adressen und den zugehörigen Domainnamen sowie interessanten, meist zahlungspflichtigen Inhalten und leistungsfähigen Netzwerken mit Kommunikationssatelliten und Seekabeln aus Glaserfaser ist es, das Firmen wie Google oder Amazon so wertvoll  macht.

 

Warum machen sich Länder kein eigenes Internet?

Weil es teuer ist. Ein Staat könnte natürlich seinen lokalen ISPs auferlegen ein lokales Internet zu bauen, mit eigenen IP-Adressen, eigenen Domainnamen und speziellen Netzwerk-Protokollen die z.B. Daten besser verschlüsseln. Aber dies wäre eben nur ein lokales Internet, völlig abgeschottet vom restlichen Internet. Um das weltweite Internet weiterhin nutzen zu können, wären viele zusätzliche Vermittlungsknoten und Rechenzentren  notwendig. Wer will sich so eine zusätzliche Infrastruktur schon leisten? Diktaturen vielleicht.

 

Das Internet: Google, Facebook und Amazon – nicht der DSL-Anschluss!

Die Menschen wollen Googlen, bei Amazon einkaufen, sich bei Facebook austauschen. Die physischen Datenleitungen dahinter nehmen die meisten gar nicht wahr. Die reinen Glasfaserkabel, die DSL-Anschlüsse sind fast wertlos. Wer will schon einen DSL-Anschluss ohne Google haben? Entscheidend sind die Dienste, die angeboten werden und diese sind  de facto monopolisiert in den USA.

 

Ein virtuelles Land

Das Internet ist eine weltweite Ressource so wie Wasser und Land, nur eben genauso mit Eigentumsrechten versehen. Entscheidend ist dabei der Besitz der Dienste mit denen Gewinn gemacht wird. Der Google-Suchindex, sprich die Google-Datenbank oder auch die Serverfarmen von Facebook plus der Zugang zu ihnen, sind der entscheidende Asset.

Will man das Internet demokratisieren, gerechter verteilen, muss man hier ansetzen. Eine Internationalisierung der ICANN wird ja schon länger diskutiert. Es wäre ein erster Schritt.

 

Quellen:

[1] Wikipedia-Artikel ICANN (letzte Änderung: 2014 ). Online: http://de.wikipedia.org/wiki/Internet_Corporation_for_Assigned_Names_and_Numbers (eingesehen: 28.12.2014)

[2] Wikipedia-Artikel NTIA (letzte Änderung: 2014). Online: http://en.wikipedia.org/wiki/National_Telecommunications_and_Information_Administration (eingesehen: 28.12.2014)

[3] o.V./ Heise (2014): IANA-Übergabe: ICANN sollte dem globalen Internet verpflichtet sein, in: Heise Online vom 9.11. Online: http://www.heise.de/newsticker/meldung/IANA-Uebergabe-ICANN-sollte-dem-globalen-Internet-verpflichtet-sein-2444906.html (eingesehen: 28.12.2014)

[4] Ermert, M. (2014): 91. Treffen der IETF: “Standards zu entwickeln ist politisch”, in: Heise Netze vom 14.11. Online: http://www.heise.de/netze/meldung/91-Treffen-der-IETF-Standards-zu-entwickeln-ist-politisch-2457354.html  (eingesehen: 29.12.2014)

* Dr. Anton Weber ist Datenschutzbeauftragter der Grammer AG.

Internet: Schmalspur auf der letzten Meile

Dirk Löhr

Es gab Widerstand, mit dem René Obermann, der damals noch amtierende Vorstandsvorsitzende der Deutschen Telekom, allerdings gerechnet hatte: Er wollte in den DSL-Verträgen eine Obergrenze für das enthaltene Datenvolumen festschreiben. Sobald diese erreicht wird, reduziert das Unternehmen die Geschwindigkeit des Breitbandanschlusses auf ein Minimum. „Vielsurfer“, die mehr Datenkapazität benötigen, sollen eben mehr zahlen. Allerdings benötigen auch Normalhaushalte in Zeiten von Streamingdiensten, Mediatheken oder internettauglichen Fernsehgeräten immer mehr Datenkapazität. Die Schnellsurfgrenze von 75 Gigabyte dürfte so rasch überschritten werden; bei den HD-Filmen neuester Generation kommt man demnächst sogar auf mehr als 100 Gigabyte. Würde man dann zurückgestuft, landet man bei einer Datenübertragungsrate wie in den 90er Jahren – oder man zahlt erheblich drauf. Zwischenzeitig ruderte die Telekom wieder ein Stück zurück. So will sie ein Tarif-Portfolio einführen, dass aus unlimitierten Flatrates und gedrosselten Volumen-Tarifen besteht. Vom Tisch ist die Sache also nicht. Der Grund für die geplante Drosselung – manche sprechen gar von der faktischen Abschaltung – des Internets sind Engpässe bei der Datenübertragung. Mit zunehmendem technischen Fortschritt und wachsendem Internetbezug wird der Datenhunger und damit die Engpassproblematik auf Dauer aber noch weiter zunehmen (Eikmann 2013).

Warum aber dieser Stau? Zwar ist der Datenverkehr gewachsen, die Netzkapazitäten haben allerdings mitgehalten. Insbesondere kann von einem Engpass im Backbone, dem aus Glasfaserkabeln und Knotenpunkten bestehenden Rückgrat des Telekommunikationsnetzes, keine Rede sein. Auch die Kosten für den Datentransport sind stetig gefallen, da einmal verlegte Kabel nur noch geringe Folgekosten durch Wartungsarbeiten verursachen. Der Engpass befindet sich vielmehr auf der Abfahrt von den Datenautobahnen (den Glasfasernetzen) hin zu den einzelnen Haushalten. Diese letzte Meile besteht aus Kupferkabeln, die zum überwiegenden Teil der Deutschen Telekom gehören. Finanziert wurde diese Infrastruktur mit Steuergeldern zu Zeiten des Staatsmonopols der Bundespost. Diese Kupferkabel sind grundsätzlich veraltet, wenngleich die Telekom mit beschränkten Mitteln nachrüstet. Mit beschränkten Mitteln, denn sie verdient gerade mit dem Engpass eine Menge Geld: Es handelt sich um mehrere Milliarden Euro im Jahr, indem sie anderen Anbietern die „Teilnehmeranschlussleitung“ vermietet. Die Telekom dürfte daher wenig Interesse haben, die letzte Meile des Netzes auszubauen und dem Ast, auf dem sie als privater Monopolist sitzt, abzusägen. Dieses Ausnutzen künstlich geschaffener Engpässe ist nämlich nichts anderes als eine ökonomische Rente, die durch eine private Monopolposition verursacht ist (Eikmann 2013).

Natürlich stellt nicht das gesamte Infrastrukturnetz ein natürliches Monopol dar, sondern nur bestimmte Teile davon. Monopolistische Engpässe bestehen v.a. auf der Verbindung zwischen der Verteilzentrale und dem Teilnehmeranschluss, der so genannten „letzten Meile“. Das Einziehen eines zweiten Telefonkabels auf der „letzten Meile“ wäre volkswirtschaftlich gesehen reine Ressourcenverschwendung, da sich das neue Kabel nicht vom bestehenden unterscheiden und jeder Teilnehmer stets nur eines davon nutzen würde. Auch aus betriebswirtschaftlicher Sicht wäre der Aufbau eines zweiten Kupferanschlussnetzes nicht sinnvoll, denn die Aussicht, diese Investition jemals zu amortisieren, wäre zum Vornherein gleich null.

Natürlich gehen die Interessen der Telekom dahin, das Monopol auf der letzten Meile aufrecht zu erhalten. So kann sie aus ihrer Monopolposition heraus gleich mehrfach abkassieren: Auf der einen Seite bei den Kunden, die neben ihrem Internetanschluss auch noch für zusätzliche Datenpakete und Zusatzangebote zahlen müssen. Auf der anderen Seite bei den Anbietern datenintensiver Dienste, die mit der Telekom eine kostenpflichtige Partnerschaft eingehen müssen, um ihre Angebote als sogenannte Managed Services vom begrenzten Datenvolumen auszunehmen (Eikmann 2013). Auch aufgrund dieses Monopols steht Deutschland bei der Dateninfrastruktur im internationalen Vergleich eher schlecht da: Kein Breitband, sondern Schmalspur auf der ganzen Linie (o.V. 2014).

Dennoch sehen Optimisten in der potentiellen Konkurrenz einen Hoffnungsschimmer. Denn das natürliche Monopol auf der „letzten Meile“ ist nicht unangreifbar. Mittlerweile gibt es alternative Anschlusstechnologien – beispielsweise in Form von Glasfaserkabeln, die, wenn sie sich auf breiter Linie durchsetzen, das natürliche Monopol des Kupferanschlussnetzes überwinden können. So betreibt bereits Google in den USA ein hochmodernes Glasfasernetz. Nicht unmöglich, dass der Konzern in die Lücke stößt, die sich in Deutschland auftut. Allerdings: Hat Google auch Interesse daran, die Peripherie (Mecklenburg-Vorpommern, den bayerischen Wald etc.) mit Glasfaserkabeln zu versorgen? Wahrscheinlich nein, denn das Investment rechnet sich unter den gegebenen Bedingungen nur in Agglomerationen. Die Konsequenz: Periphere Regionen dürften noch weiter von der Infrastruktur abgehängt werden – und v.a. für die Wirtschaft als Standort zunehmend an Attraktivität verlieren – wenn nicht die Investitionen in die Glasfasernetze subventioniert werden (Fischbach 2009).

Der Ausbau in die Peripherie kann allenfalls unter massiver Subventionierung durch die öffentliche Hand stattfinden. Und das Eigentum an der subventionierten Netzinfrastruktur soll dann bei wenigen großen Akteuren liegen? Wenn dies eintritt, ist die Glasfaser in privater Hand eine ausgesprochen problematische Angelegenheit: Mit der schier unerschöpflichen Bandbreite von mindestens 60 THz, die im Vergleich zu den 1 GHz eines Koaxkabels mehr als die 60 000-fache Übertragungskapazität bietet, schlägt der First Mover potenzielle Wettbewerber unweigerlich aus dem Feld. Die Duplizierung einer solch gewaltigen Kapazität ist etwa so sinnvoll wie der zweite Hauptbahnhof in einer Kleinstadt. Wie oben erwähnt, handelt es sich eben um ein „natürliches Monopol“. Dennoch besteht keinerlei Garantie, dass wenigstens die betreffenden privaten Monopolisten glücklich werden (s. unten).

Natürliche Monopole gehören in öffentliche Hand. Das ist nicht etwa eine sozialistische, sondern eine ur-liberale Forderung. Zwar wird immer wieder wird eingeworfen, der Staat könne hier nicht tätig werden, da er ansonsten die Innovationsdynamik ersticke. M.E. wird hier jedoch etwas verwechselt: Die Entwicklung der entsprechenden Technik ist sicherlich keine Aufgabe des Staates – genauso wenig wie die Providerdienste. Allerdings sollte die Installation einer Grundversorgung sehr wohl als Aufgabe der Daseinsvorsorge betrachtet werden (BBNA 2009) – und damit als eine Aufgabe der öffentlichen Hand. Die Befürchtung, Innovationen würden durch einen öffentlich vorangetriebenen Ausbau der Netzinfrastruktur gebremst, ist absurd. Das Legen von Kabeln und die Verwaltung der Infrastruktur hat wenig mit Innovation zu tun, wohl aber mit der Kontrolle über die Daten, deren Priorisierung im Falle von Engpässen und auch mit der Abschöpfung der ökonomischen Renten, die sich in diesem Falle ergeben. Inwieweit soll ein privater Mammutkonzern hier besser, kontrollierbarer und dem Gemeinwohl dienlicher sein als die öffentliche Hand? Das Internet ist ohnehin schon entgegen der Vorstellungen vieler Netzromantiker mittlerweile eine hoch zentralisierte Veranstaltung geworden, die von wenigen großen Akteuren beherrscht wird. Diese definieren auch die Filter, welche im Falle eines Engpasses im Netz die Daten priorisiert weiterleiten – im Wesentlichen ohne demokratische und rechtsstaatliche Aufsicht und Kontrolle. Dies schafft weitgehend unkontrollierte Macht in privater Hand – ein Aspekt, bei dem eigentlich bei jedem Ordnungspolitiker die Alarmglocken klingeln müssten. Macht muss monopolisiert werden – aber nicht in privaten Händen, sondern – von der Öffentlichkeit kontrolliert – beim Staat (ein Anliegen, das bereits Oppenheimer und die Ordoliberalen sehr beschäftigte). So ist der Staat beim Ausbau des Glasfasernetzes durchaus gefordert.

Wenn aber Private weitere Anstrengungen unternehmen, technische Alternativen zu entwickeln und das natürliche Monopol durch Substitute zu schwächen – umso besser. Aber: Egal ob die Datenübertragung via Funk oder physische Leitungen erfolgt: Die öffentliche Hand sollte nicht vergessen, dass immer „Land“ im klassisch-ökonomischen Sinne genutzt wird und daher marktgerechte Konzessionsabgaben verlangen, welche die ökonomischen Renten der Netzbetreiber abschöpfen. Die vertikale Integration von Telekommunikationsunternehmen (Netz und Betrieb unter einem Dach) ist nicht zuletzt deswegen verführerisch, weil dies derzeit größtenteils unterlassen wird und den Unternehmen physischen Grundlagen für die Netzinfrastruktur weitgehend unentgeltlich überlassen werden – am Ende auf Kosten des Steuerzahlers. Nicht zuletzt dies trägt auch zur Entstehung marktmächtiger Unternehmen bei – und Marktmacht ist ein wesentlicher Teil des Problems auf den betreffenden Märkten (s. die Debatte um den „Open Access“).

Ein weiteres prominentes Gegenargument gegen das Engagement der öffentlichen Hand beim Breitbandausbau zieht ebenfalls nicht: Der Mangel an finanziellen Mitteln. Bessere Datenwege auf der letzten Meile reduzieren nämlich die Transportkosten (der Daten). Genauso, wie ausgebaute Straßen die Bodenrenten und Bodenwerte abgelegener Standorte steigen lassen können, ist dies auch bei ausgebauten Datenwegen der Fall – die Nutzer rücken zusammen. Die eingesparten Transportkosten schlagen sich in höheren Bodenrenten und Bodenwerten nieder (von Bedeutung sind hier nur die Kosten der Investitionsinfrastruktur, nicht die Grenzkosten der Übertragung der Daten). Wie in diesem Blog immer wieder und auch weiter oben in diesem Beitrag erwähnt: Solange diese Renten von den privaten Grundstückseigentümern kassiert werden können, dürfte – ohne Subventionierung durch die Allgemeinheit – auch die Lust privater Konzerne, in den Ausbau der letzten Meile zu investieren, gering sein (o.V. 2009). So waren auch in der Vergangenheit die privaten Netzbetreiber nicht die großen Nutznießer des Internetbooms (Fischbach 2009). Würde man hingegen die Grundstückseigentümer – als diejenigen, die den Vorteil des Ausbaus über höhere Grundstückswerte einstreichen – auch zur Finanzierung heranziehen, ließe sich der Ausbau jedoch bequem stemmen. Allerdings: Die Privatisierung dieser ökonomischen Renten ist in unserer Gesellschaft eine heilige Kuh – aber eben kein Naturgesetz. Dem Verfasser dieses Beitrags ist ein monopolistischer Engpass in öffentlicher Hand – wenn er denn gesellschaftlich kontrolliert wird – wesentlich lieber als einer, der sich unkontrolliert in der Hand marktmächtiger Akteure befindet.

Die modernen Zeiten haben allen Unkenrufen zum Trotz einige zentrale alte ökonomische Gesetze nicht außer Kraft gesetzt. Dazu gehört, dass sich natürliche Monopole in öffentlicher Hand befinden sollten (Fischbach 2009). Allerdings darf der Staat dabei nicht in die falschen Hände geraten bzw. muss diesen entrissen werden (s. den Beitrag zu Franz Oppenheimer in diesem Blog). Derzeit haben bei den Verhandlungen mit der Bundesnetzagentur vor allem gut organisierte und mächtige Wirtschaftsinteressen das Wort – das ist entschieden die falsche Richtung. Ein weiterer wunder Punkt ist die Trennung von Netz und Betrieb. Der Staat sollte lediglich die Basisnetzinfrastruktur bereitstellen und über Konzessionsabgaben die ökonomischen Vorteile privater Netzbetreiber abschöpfen. Das Betreiben von Providerdiensten ist hingegen Sache der Privaten. Damit wären schon wesentliche Schritte zur Entflechtung getan, ohne dass es des Regulierungsdickichts bedürfte, das sich derzeit im Rahmen der Politik der Bundesnetzagentur abzeichnet. Erst über ein offen erreichbares, diskriminierungsfreies Netz lässt sich der Wettbewerb einer Vielzahl von Anbietern gegenüber dem Endkunden überhaupt einrichten.

 

Literatur:

BBNA (2009): Breitbandversorgung als kommunale Daseinsvorsorge. Online: http://www.breitband-neckaralb.de/index.php?id=15&tx_ttnews%5Btt_news%5D=7&cHash=0e63392ad279b54702778369e21caa16

Eikmann, J. (2013): Das erdrosselte Internet, in: Blätter für deutsche und internationale Politik, Juni. Online: https://www.blaetter.de/archiv/jahrgaenge/2013/juni/telekom-das-erdrosselte-internet%20%20

Fischbach, R. (2009): Internet: Zensur, technische Kontrolle und Verwertungsinteressen, in: Bisky, L. et al. (Hrsg.): Medien – Macht – Demokratie – Neue Perspektiven, Berlin, S. 109-133.

o.V. (2013): IPv6-Rat: Subventionen nur für IPv6-Breitband-Internet, heise-online. Online: http://www.heise.de/netze/meldung/IPv6-Rat-Subventionen-nur-fuer-IPv6-Breitband-Internet-199533.html

o.V. (2014): Breitbandanschlüsse in Deutschland mangelhaft. Online: http://www.macerkopf.de/2014/01/30/breitbandanschluesse-in-deutschland-mangelhaft/