Archiv der Kategorie: Science

Wissenschaft, Forschung, Technologie.

Breitbandausbau ermöglichen, Regulierung neu denken

Um überall gleichwertige Lebensverhältnisse zu ermöglichen, bedarf es einer bundesweiten Verfügbarkeit von bezahlbaren breitbandigen Internetanschlüssen. Dass dazu öffentliche Förderung notwendig ist, ist unumstritten. Doch wie erreicht man dies mit überschaubaren finanziellen Mitteln und dazu noch in einem relativ kurzen Zeitraum? Da ich genau in diesem Bereich arbeite, die Industrie und alle Hürden beim Netzausbau kenne, biete ich einen konkreten Drei-Punkte-Plan an:

1. Ziel definieren

Zunächst zur Definition der eigentlichen Aufgabe: Ziel muss es sein, es bundesweit jedem Haushalt zu ermöglichen, an das breitbandige Internet angeschlossen zu werden, und das zu moderaten Preisen. Die verfügbare Übertragungsrate sollte dabei über die Zeit steigen, sodass nicht mit einem einmaligen Ausbau das Ende der Fahnenstange erreicht ist, sondern eine kontinuierliche Investition in neue Technologien ermöglicht wird. Ziel ist es ferner, Monopole zu verhindern bzw. Wettbewerb zu schaffen, sodass jeder Haushalt aus mehreren Telekommunikationsanbietern wählen kann. Darüber hinaus wird angestrebt, geförderte parallele Netzausbauten weitgehend zu verhindern.

Nichtziel ist es, den „Staat“¹, in welcher Form auch immer, zu einem neuen Betreiber von Netzinfrastruktur werden zu lassen. Der Markt bietet derzeit einen funktionierenden Wettbewerb und in „Staatseigentum“ befindlichen Netzen darf kein Vorzug gegenüber privatwirtschaftlicher Investitionen gegeben werden. Ansonsten besteht die Gefahr wirtschaftlich nicht sinnvoller Investitionen, des Rückzugs privater Netzanbieter und einer „Technologieträgheit“ bei der Einführung neuer Standards.

Doch wie erreicht man diese Ziele? In aller Munde ist derzeit der reine Glasfaserausbau (Fibre To The Home, FTTH), weil die Glasfaser in der Wohnung zurzeit grundsätzlich das höchste Potenzial an Übertragungsrate bietet. Allerdings bringt der FTTH-Ausbau auch einige entscheidende Nachteile mit sich. So ist er die teuerste Technologie, weil sehr viel Tiefbau erforderlich ist. Außerdem würde ein flächendeckender Ausbau in Deutschland etwa 20 bis 25 Jahre in Anspruch nehmen, was wiederum bedeutet, dass die meisten Haushalte erst in vielen vielen Jahren eine Verbesserung ihrer Versorgungslage erfahren werden. Außerdem ist FTTH nicht standardisiert. Mit dem Label „FTTH“ werden beispielsweise Ausbauvarianten beworben, bei denen der Glasfaseranschluss im Keller liegt und dann beispielsweise noch mehrere hundert Meter über einen in den 1960er Jahren verlegten „Klingeldraht“ überbrückt werden müssen. Andererseits gibt es auch Anbieter, die ein komplettes Glasfaser-Inhausnetz neu errichten und sich der Glasfaser-Abschluss tatsächlich in der Wohnung des Kunden befindet.²

Da man derzeit etwa alle sechs Jahre mit einem Technologiesprung rechnen kann, schlage ich statt der Fixierung auf eine Ausbautechnologie die „Evolution des Netzes“ vor. Das 2013 eingeführte VDSL-Vectoring ermöglicht bereits jetzt Übertragungsraten von 100 Mbit/s im Radius von ca. 400 m um einen Kabelverzweiger. 50 Mbit/s, also das, was Frau Merkel als Ziel bis 2018 ausgegeben hat, sogar noch weit über diesen Radius hinaus. Der nächste Technologiesprung wird schon 2017 in den Markt eingeführt; mit „Super-Vectoring“ sind dann, ohne weiteren Tiefbau, bis zu 250 Mbit/s über das alte Kupfernetz möglich. „G.fast“ wird derzeit dann als der nächste Sprung gehandelt, hier könnte man dann 700 bis 800 Mbit/s realisieren, und das ebenfalls noch über Kupfer.

Auch auf den Kupfer-Koaxialkabeln der Kabelfernsehnetze tut sich einiges. Mit dem seit 2013 verfügbaren neuen „DOCSIS“-Standard sind in jedem Kabelnetzsegment bis zu 1 Gbit/s im Download verfügbar. Zwar teilt sich hier in der Regel ein Straßenzug oder ein Gebäudekomplex diese Übertragungsrate, trotzdem ermöglicht auch dies eine deutliche Verbesserung über dieses Medium.

Und auch die Funktechnologien entwickeln sich rasant weiter. Mit „LTE-Advanced“ werden in den kommenden Jahren bis zu 1 Gbit/s je Funkzelle möglich sein. Und der als „5G“ bezeichnete Nachfolgefunkstandard, der etwa Mitte der 2020er Jahre eingeführt werden wird, hat in Feldversuchen bereits jetzt über 70 Gbit/s ermöglicht.

Bis hierhin zusammengefasst bedeutet dies folgenden Status quo: Grundsätzlich gibt es auf dem Markt viele verschiedene Technologien, die eine Internet-Versorgung der Bevölkerung ermöglichen. Manche davon haben einen besseren Ruf als andere, aber im Grunde bieten alle derzeit ähnliche Produkte, sowohl in Hinblick auf den Preis als auch auf den Umfang.

2. Regulierung ändern

Wie ließe sich nun aber das oben genannte Ziel erreichen? Ich schlage vor, hierfür die Regulierung zu ändern.

Derzeit wird nur ein Unternehmen bundesweit reguliert, nämlich die Telekom Deutschland GmbH, und auch hier nur der Bereich des Kupfer-Telefonnetzes. Alle andere Unternehmen sind praktisch komplett frei, was zur Folge hat, dass viele lokale Monopole entstanden sind. Wenn ein Haushalt beispielsweise über einen Glasfaseranschluss der örtlichen Stadtwerke verfügt, kann auch nur über diese Stadtwerke ein Internet-Produkt bestellt werden. Erhöhen die Stadtwerke nun die Preise, besteht zwar möglicherweise ein Kündigungsrecht. Aber da kein anderer Anbieter über dieses Netz einen Anschluss bereitstellen kann, bleibt de facto nur die Möglichkeit, den höheren Preis zu zahlen.

Meine Empfehlung lautet nun, bei der Regulierung zukünftig jeden Anschlussbereich separat zu betrachten (nicht nur die Ortsnetze, da mitunter große Unterschiede innerhalb des Ortsnetzes bestehen). Unter die Regulierung fallen sollte dann jeder Internetanbieter, der mindestens 25 % der Haushalte versorgt. Ist dies bei keinem Anbieter der Fall, sinkt die Quote auf 15 % und dann erneut auf 10 %. Sollte auch dies wider Erwarten auf keinen Anbieter zutreffen, dann würde das Unternehmen reguliert, das die meisten Haushalte versorgt.

Wird ein Anbieter in einem Anschlussbereich reguliert, dann hat dies folgende Konsequenzen:

  • Der Anbieter muss seinen Zugang für den Wettbewerb öffnen.
  • Der Anbieter muss eine von der Bundesnetzagentur (BNetzA) festgelegte Dienstgüte (Quality of Service) am Anschluss erfüllen.

Der Zugang sollte einheitlich per Zugang zum Datenstrom (Bitstream Access) erfolgen und preislich reguliert sein. Dabei können die Preise durchaus variieren, je nach zur Verfügung stehender Zugangstechnologie und nach Zugangspunkt.³ Und es sollte lediglich ein Maximalpreis festgelegt werden, sodass zwei Netzbetreiber durchaus um Wettbewerber konkurrieren können, um ihre jeweilige Infrastruktur möglichst auszulasten. Allerdings sollten auch Investitionen bzw. deren Abschreibungsfristen positiv berücksichtigt werden, sodass sich eine Investition in neue Infrastruktur auch lohnt.

Bei der Dienstgüte werden die maximale durchschnittliche Paketlaufzeit, die Ausfallsicherheit und natürlich auch die zur Verfügung stehende Übertragungsrate festgelegt. Bei letztem Punkt schlage ich vor, dass die beworbene Übertragungsrate zu 50 % der Zeit mindestens zur Hälfte zur Verfügung stehen muss und jederzeit mindestens zu 25 %, alles gemessen vom Übergabepunkt⁴ aus bis ins Weitverkehrsdatennetz. An einem Anschluss mit 100 Mbit/s, zum Beispiel über das Kabelfernsehnetz, müssen also immer mindestens 25 Mbit/s exklusiv für jeden Haushalt bereitgehalten werden. So kann sichergestellt werden, dass insbesondere bei den geteilten Medien (Fernsehkabel, Festnetzersatz über Mobilfunk) realistische Werte bei der Vermarktung angegeben werden. Ferner muss der Upload immer mindestens 10 % des Downloads entsprechen, ab dem Jahr 2022 mindestens 20 %.

3. Breitbandausbau in Wettbewerb fördern

Eine Änderung der Regulierung schafft eine Grundlage für eine Verbesserung des Wettbewerbs, nicht jedoch notwendigerweise auch für den Breitbandausbau. Hier schlage ich vor, dass die Anschlussbereiche im ersten Schritt in drei Kategorien aufgeteilt werden:

  • Gut versorgt = mindestens 80 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate
  • Teilweise versorgt = mindestens 40 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate
  • Unterversorgt = weniger als 40 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate

Die genannte Ziel-Übertragungsrate steigt mit der Zeit, sodass auch ein derzeit bereits gut versorgter Anschlussbereich in einigen Jahren dann nur noch als teilweise oder sogar als unterversorgt gilt. Ich schlage vor, die Übertragungsrate alle paar Jahre anzupassen, zum Beispiel wie folgt:

  • Ab 2018: 50 Mbit/s
  • Ab 2022: 100 Mbit/s
  • Ab 2028: 200 Mbit/s
  • Ab 2034: 500 Mbit/s

Entscheidet sich ein Anbieter für den Ausbau in einem Anschlussbereich, kann er dafür eine Förderung erhalten. Ich schlage vor, die Förderung nach einem ganz einfachen Modell zu gestalten:

  • Für jedes Megabit, dass das versorgte Gebäude nach dem Ausbau reell mehr an Übertragungsrate hat, gibt es einen Förderbetrag. Gedeckelt wird die Förderung bei 1 Gbit/s.
  • Die Höhe des Förderbetrags hängt davon ab, ob es sich bei dem Anschlussbereich um ein gut, teilweise oder unterversorgtes Gebiet handelt. Mögliche Förderbeträge wären zum Beispiel 30 ct, 60 ct und 1 € pro Gebäude und Megabit Steigerung.
  • Der „Fördertopf“ wird jährlich aufgelegt, sodass immer ein verknapptes Budget zur Verfügung steht, was den Wettbewerb anregt. Nicht genutzte Fördersummen fließen zurück in den allgemeinen Bundeshaushalt.
  • Wird in Mehrfamilienhäusern in jede Wohneinheit ein Glasfaserkabel gelegt, gilt die Förderung nicht nur pro Gebäude und Megabit, sondern pro Wohneinheit und Megabit. Dieser Zusatzbetrag wird erst nach Errichtung des Inhaus-Netzes ausgezahlt.
  • Fördermittel von Union, Land und Kommune können an dieses Verfahren „angedockt“ werden, sodass sich der Förderbetrag dann erhöht.

Geschäftseinheiten (also Ladengeschäfte, Firmengebäude etc.) werden genau wie Wohneinheiten behandelt.

Ferner sollten Gebäudeeigentümer verpflichtet werden, Telekommunikationsunternehmen die Verlegung von Glasfaser-Inhausnetzen zu ermöglichen. Hierfür sind entweder Kabelkanäle zur Verfügung zu stellen oder geeignete Orte, um neue Kanäle anzubringen. Allerdings dürfen für den Eigentümer dann keine Kosten entstehen.

Um die Vergabe der Fördermittel zu steuern, schlage ich des Weiteren vor, dass sich Telekommunikationsunternehmen gezielt auf den Ausbau einzelner Gebäude bewerben. Das Verfahren soll vollelektronisch über Schnittstellen funktionieren, allerdings müssten im ersten Schritt alle kommunalen Adressdaten (Adresse, Anzahl der Wohneinheiten) mit den Daten der BNetzA (Ortsnetz, Anschlussbereich, Abschlusspunkt) und gegebenenfalls weiteren Datensätzen (zum Beispiel Geokoordinaten) zusammengefasst werden.

Erhält ein Unternehmen den Zuschlag für den Ausbau, beträgt die Zeit bis zur Buchbarkeit des Produktes beim Kunden im Regelfall ein Jahr, sodass die Verbesserung des Anschlusses auch zeitnah erfolgt. Basiert die verwendete Technologie auf einem Bestandsnetz, muss nach einem Jahr das Produkt am Hausanschluss verfügbar sein. Wird ein neues Verzweigernetz gebaut, muss nach einem Jahr der Hausanschluss bestellt werden können und dann innerhalb von sechs Monaten gebaut werden.

Wird die Frist überschritten, halbiert sich automatisch die Fördersumme. Ist der Anschluss nach Ablauf des zweiten Kalenderjahres immer noch nicht realisiert, wird das Unternehmen für zwei Jahre für die Förderung auf dieser Adresse gesperrt und muss eine Strafgebühr zahlen. Natürlich sind begründete Ausnahmen in Einzelfällen zulässig.

Außerdem unterliegt jeder geförderte Breitbandausbau zukünftig automatisch der Regulierung, sodass den Kunden immer mehrere Optionen zur Verfügung stehen und Wettbewerb stattfinden kann.

Mit dieser Methode wird nicht nur erreicht, dass ein Markt für den Breitbandausbau geschaffen wird, sondern es findet gleichzeitig auch eine Entbürokratisierung statt, weil der bisherige bunte Strauß an Fördermöglichkeiten in einem gemeinsamen fairen und offenen Verfahren gebündelt werden kann.

Über Diskussionsbeiträge und Anregungen freue ich mich. Bitte nutzt hierfür die Kommentarfunktion des Blogs.

¹: Gemeint sind hier vor allem Unternehmen im kommunalen Eigentum. Viele Gemeinden errichten teure eigene Netze und spekulieren auf ein Monopol in ihrem Versorgungsbereich und eine Frist von teils mehreren Jahrzehnten bis zum Return-of-Investment. Dieser wird meist nicht erreicht und der Steuerzahler trägt dann die Kosten.

²: Siehe auch: Lammermann.eu: „FTTH – eine Nischentechnologie“.

³: Zugänge direkt am Gerät sind günstiger; dort wird ein eigenes Glasfaserkabel erst an die Technik herangeführt und nur die „letzte Meile“ des regulierten Netzbetreibers verwendet. Zugänge auf einer höheren Netzebene sind dementsprechend dann teurer, weil eine weite Strecke und mehrere Geräte des regulierten Netzbetreibers genutzt werden.

⁴: Messpunkt ist immer die Stelle, an der vom Netz des Netzbetreibers auf das Netz des Hauseigentümers gewechselt wird. Bei der Kupfer-Doppelader und beim Kupfer-Koaxialkabel ist dies der Abschlusspunkt, der sich meist im Gebäudekeller befindet. Bei Glasfaserprodukten wird bei Mehrfamilienhäusern unterschieden zwischen „Fibre To The Building“ (= Glasfaserabschluss im Keller) und „Fibre To The Premises“ (= Glasfaserabschluss in der Wohnung).

FTTH – eine Nischentechnologie

Hinweis: ein anderer Beitrag geht näher auf die hier behandelte Technologie ein.

Glasfaseranschlüsse sind seit einigen Jahren in aller Munde. Da ich in der Branche arbeite und mich täglich mit den unterschiedlichen Technologien beschäftige, ist es Zeit für mich, das Thema FTTH & Co. kritisch zu beleuchten.

1. Übertragungsrate

Es stimmt, die Glasfaser in der Wohnung bietet die höchste Übertragungsrate. Zumindest theoretisch. Denn auch wenn ein Ende der maximal möglichen Bitrate über Glas noch nicht in Sicht ist, bietet der Markt keine außergewöhnlichen Produkte. Üblicherweise werden, je nach TK-Unternehmen, 50 bis 200 Mbit/s angeboten. Die Preise für diese Anschlüsse liegen in der Regel ein gutes Stück über dem von vergleichbaren Produkten auf Kupferbasis. Produkte mit mehr als 100 Mbit/s werden darüber hinaus auf dem Markt fast gar nicht nachgefragt.

Die relativ niedrige Übertragungsrate lässt sich einerseits dadurch erklären, dass im Bereich der Massenprodukte keine hochwertigen Netzkomponenten eingesetzt werden, wie dies beispielsweise im Weitverkehrsnetz der Fall ist. Es ist auch nicht sinnvoll, hier ein Maximum herauszuholen, da dann jeder Anschluss mehr kosten würde, als das Gebäude wert ist. Ferner haben gerade die kleineren Anbieter, wie z. B. Stadtwerke, viel Geld in den Ausbau des Zugangsnetzes investiert und sparen nun an der Anbindung ins Weitverkehrsdatennetz.

Wird man durch einen VDSL-Anschluss mit Vectoring versorgt, sind ebenfalls Übertragungsraten von 100 Mbit/s möglich, und das für niedrigere monatliche Kosten. Mittelfristig kann diese Übertragungsrate in vielen Orten auf 250 Mbit/s gesteigert werden und es besteht ferner die Möglichkeit, den Festnetzanschluss mit LTE zu kombinieren. Hierdurch sind auch ohne Glasfaser in der Wohnung vielerorts sehr hohe Übertragungsraten möglich.

2. Kosten

FTTH ist die mit Abstand teuerste Technologie auf dem Markt. Dies liegt nicht an den verbauten Geräten, hier kann sogar ein Kostenvorteil bestehen. Nein, Treiber ist der Tiefbau.

Trassen von Leitungsträgern sind in der Bundesrepublik vergleichsweise hohen Auflagen unterworfen, z. B. bei der Verlegetiefe. Dafür sind die Gehwege hierzulande aber auch in einem relativ guten Zustand. Allerdings steigert dies die Tiefbaukosten; man kann pauschal mit etwa 100 € pro laufendem Meter in bebautem Gebiet rechnen. Da man für FTTH-Netze nicht nur an jedem Gebäude entlanggraben, sondern auch noch die Tiefbaustrecke über das Grundstück einkalkulieren muss, ergeben sich leicht mehrere tausend Euro Investitionskosten pro Gebäude. Wird ein Mehrfamilienhaus versorgt, teilen sich diese Kosten zwar auf alle Wohneinheiten auf. Dafür muss, im Gegensatz zum Einfamilienhaus, aber auch noch ein Glasfasernetz im Gebäude errichtet werden, was viele Unternehmen der Wohnungswirtschaft ablehnen.

Im Vergleich dazu ist der Ausbau von anderen Technologien deutlich preiswerter. Da der Preistreiber die „letzte Meile“ zum Kunden ist, macht es wirtschaftlich mehr Sinn, auf eine Technologie zu setzen, die ein Bestandsnetz nutzt. Dies kann sowohl Vectoring auf der klassischen Kupfer-Doppelader als auch der neue Datenübertragungsstandard auf dem Koaxialkabel des Fernsehnetzes sein. So lassen sich mit einem festgelegten Investitionsvolumen deutlich mehr Haushalte mit hohen Übertragungsraten versorgen.

3. Ausbaudauer und technischer Fortschritt

Mal angenommen, heute würde jemand beschließen, dass ab sofort nur noch FTTH-Anschlüsse gebaut werden dürfen, wie lange würde der Ausbau in der Bundesrepublik dann dauern? Experten schätzen 20 Jahre, wobei ich noch eine Schippe drauflegen würde. Ich gehe nicht davon aus, dass mehr als 2 Mio. Haushalte pro Jahr an ein FTTH-Netz angeschlossen werden könnten. Der Engpass ist hier nicht einmal die mangelnde Planungsressource, sondern schlicht die Tiefbaukapazität, die bereits jetzt nicht in ausreichendem Maße zur Verfügung steht. Es gäbe schlichtweg niemanden, der so einen Netzausbau schneller realisieren könnte.

Und mal angenommen, man würde in dem Gebäude wohnen, das zuletzt angeschlossen wird. Dann hätte man bis 2035 einen Übertragungsrate von vielleicht 10 Mbit/s, während der Rest der Republik schon seit Ewigkeiten deutlich schneller unterwegs ist. Aber es ist davon auszugehen, dass dann auch andere Technologien so hohe Übertragungsraten bieten, dass der Glasfaseranschluss überhaupt nicht mehr benötigt wird. Spätestens wenn der Mobilfunk an der Gigabit-Grenze kratzt und eine gewisse digitale Sättigung eingesetzt hat, müssen wir uns fragen, ob ein Festnetzanschluss überhaupt noch sinnvoll ist.

4. Finanzielles Risiko

Unabhängig von der technischen Realisierbarkeit ist ein FTTH-Netz ein großes finanzielles Risiko. Wie oben beschrieben, ist die Investitionssumme immens hoch. Und die Refinanzierung des Netzes muss binnen weniger Jahre erfolgen, da sonst der technische Fortschritt am Investor vorbeizieht.

Schon einige Investoren, leider allen voran kommunale, haben sich hier verkalkuliert. Die Nachfrage bleibt hinter den Erwartungen zurück, trotz eines Monopols auf das Glasfasernetz. Die Kredite für den Ausbau belasten teilweise über Jahrzehnte die öffentlichen Haushalte. Ein Verkauf ist meist nicht wirtschaftlich oder scheitert schlicht an nicht vorhandenen Interessenten.

5. Plädoyer für die Zukunft

Um zum Ende hin eines klarzustellen: ich finde FTTH super! Aber ich plädiere für einen Einsatz mit Augenmaß. Überall dort, wo neue Netze entstehen, wie beispielsweise in Neubaugebieten, macht ein FTTH-Ausbau selbstverständlich Sinn. Auch bestimmte Bestandsgebiete eignen sich zum Überbau, sei es aufgrund vorhandener Rohranlagen oder bautechnisch günstig gelegener Gebäudekomplexe. Aber eine Forderung nach einer flächendeckenden Realisierung von Glasfaseranschlüssen bis in die Wohnung ist schlichtweg Quatsch.

Besser ist es, auf die Evolution des Netzes zu setzen. So erhält immer ein Teil der Bevölkerung, der bisher schlecht versorgt ist, die jeweils neueste Technologie, wodurch sich für alle Haushalte in einer relativ kurzen Zeit eine deutliche Steigerung der Übertragungsrate sicherstellen lässt. Und das zu verhältnismäßig geringen Ausbaukosten.

Internetzugangsmedien, ein Überblick

Als generelle Zusammenfassung für Interessierte und als Basiswissen für andere Blogeinträge, stelle ich hier einmal die gängigen Medien vor, mit denen zumindest in der Bundesrepublik das Gros der Internetverbindungen realisiert wird. Aber zunächst ein paar Basisinformationen zur Situation in Deutschland:

Die grundsätzliche Netzstruktur wird von der Bundesnetzagentur vorgegeben und ist für alle Telekommunikationsanbieter verbindlich. Es gliedert das Landesnetz der Bundesrepublik in Ortsnetze, die jeweils über eine einheitliche Ortsnetzkennzahl verfügen, besser bekannt als Vorwahl. So hat Hamburg beispielsweise die Ortsnetzkennzahl „40“, Leipzig die „341“ und Castrop-Rauxel die „2305“. Diese Ortsnetzkennzahl kann maximal fünfstellig sein, wobei die Führende „0“ übrigens nicht Teil der Vorwahl ist, sondern lediglich die sogenannte Verkehrsausscheidungsziffer darstellt. Aber das nur am Rande…

Die Ortsnetze sind wiederum in Anschlussbereiche unterteilt und durchnummeriert. Kleine Ortsnetze bestehen häufig nur aus einem Anschlussbereich, Großstädte hingegen aus einer Vielzahl. Die Grenzen der Anschlussbereiche und Ortsnetze stimmen eher selten mit politischen Grenzen überein und können nur schwer und auch nur durch die BNetzA geändert werden.

Es bleibt jedem Telekommunikationsunternehmen selbst überlassen, wie der Netzaufbau realisiert wird. Allerdings besteht die Vorgabe, dass die Versorgung der Kunden von einem „Verteiler“ aus dem jeweiligen Anschlussbereich heraus erfolgen muss. Die Telekom Deutschland, als einziges reguliertes TK-Unternehmen in der Bundesrepublik, unterhält in jedem Anschlussbereich eine Vermittlungsstelle, die in der Größe von einem Einfamilien- bis zu einem Hochhaus variieren kann und auch Technik von Wettbewerbern „beherbergen“ muss.

In Deutschland schreibt das Telekommunikationsgesetz vor, dass Telekommunikationsleitungen nicht konzessioniert werden dürfen. Das bedeutet, dass im Gegensatz zu allen anderen Leitungsträgern (Wasser, Abwasser, Strom, Gas etc.) von einer Gemeinde kein alleiniges Nutzungsrecht vergeben werden darf, wodurch sich in der Regel Trassen von mehreren Telekommunikationsunternehmen parallel in den Gehwegen befinden. Wenn möglich werden diese nach einer DIN-Norm vergeben; hierdurch liegen Telekommunikationsleitungen meist hausseitig, gefolgt von Stromleitungen, Gas, Wasser & Co. Wird einer Trasse von der jeweils zuständigen Behörde zugestimmt, so ist diese üblicherweise 30 cm breit (Breite einer Baggerschaufel) und steht diesem Unternehmen exklusiv zur Verfügung.

Soviel zum Hintergrund. Jetzt aber zum eigentlichen Thema:

1. Kupfer-Doppelader

Die Kupfer-Doppelader nutzen hierzulande die mit Abstand meisten Menschen, um zu Hause ihre Verbindung mit dem Internet zu realisieren. Das Kupfernetz stammt aus der Zeit der Bundespost und war dort zunächst das nach dem Zweiten Weltkrieg bzw. nach der Wiedervereinigung komplett neu errichtete Telefonnetz. Fast alle Gebäude verfügen hierzulande über einen Anschluss an ein Verzweigerkabel, das bis zu einem Kabelverzweiger in der Nähe führt. Von dort wurde über einen „Schaltdraht“ die Verbindung zu einem Hauptkabel hergestellt, das wiederum vom Verzweiger bis in die Vermittlungsstelle führt.

Da Kupfer eine relativ hohe Signaldämpfung hat, sinkt die verfügbare Übertragungsrate mit dem Abstand zur Vermittlungsstelle. Daher sind seit den 2000er Jahren immer mehr TK-Unternehmen dazu übergegangen, die aktive Technik näher an die Kunden zu verlagern, um den Signalweg über das Kupferkabel zu verkürzen. Üblich ist, hierbei den Kabelverzweiger mit einem größeren Gehäuse zu überbauen, in das aktive Technik gesetzt wird. Dieses Gerät ist auf der einen Seite an ein Glasfaserkabel angeschlossen und direkt mit dem Weitverkehrsdatennetz des Anbieters verbunden. Auf der anderen Seite wird das Kupfer-Verzweigerkabel genutzt, um die Verbindung zum Kunden herzustellen. Durch diese Maßnahme erhöht sich die mögliche Übertragungsrate deutlich; aktuell werden in der Bundesrepublik bis zu 100 Mbit/s über diesen Weg angeboten. Der nächste Technologiesprung steht hier bereits in den Startlöchern, aus diesem Grund ist in den kommenden Jahren mit einer Erhöhung der möglichen Übertragungsrate bis auf 250 Mbit/s zu rechnen. Technisch sind langfristig ca. 800 Mbit/s auf der Kupfer-Doppelader möglich.

Die Kupfer-Doppelader ist kein geteiltes Medium. Da für die ursprüngliche Funktion des Netzes, die Telefonie, jeder Teilnehmer Signale sowohl senden als auch empfangen muss, verfügt jeder Kunde auch über eine exklusiv für ihn nutzbare Kupferstrecke. Aufgrund der Kabeleigenschaften (Kabellänge bis in die Wohnung, verwendete Kabeltypen) hat jeder xDSL-Anschluss zwar eine individuelle maximal mögliche Übertragungsrate, die auch deutlich unter dem liegen kann, was die Technologie hergibt. Dafür steht diese Übertragungsrate dem Kunden konstant und zur alleinigen Nutzung zur Verfügung.

2. Koaxialkabel

Seit in den 1970er Jahren das Kabelfernsehnetz verlegt worden ist, sind zumindest in den Ballungszentren parallel zu den „alten“ Kupfer-Doppeladern auch Kupfer-Koaxialkabel vorhanden. Dieses Netz war ursprünglich dazu gedacht, die Fernsehsignale, von wenigen Kopfstellen ausgehend, über verschiedene Verteilerebenen bis in die Haushalte zu senden. Jedes Haus in einem Straßenzug wurde an dasselbe Kabel angeschlossen. Ein Rückkanal war zunächst nicht vorgesehen.

Mit dem Verkauf der Kabelnetze war Anfang der 2000er Jahre der Weg für einen rückkanalfähigen Ausbau frei. Seitdem wird ein Teil des zur Verfügung stehenden Frequenzspektrums des Fernsehsignals für den Datenverkehr genutzt. Die Verteilerschränke sind mittlerweile in vielen Fällen mit einem eigenen Glasfaseranschluss ausgestattet und ein Gerät in diesem Schrank trennt die Datensignale vom Fernsehsignal. Genau wie beim Telefonnetz wird somit in der Regel nur noch auf dem letzten Stück zwischen Verteiler und Kunde das Kupferkabel genutzt.

Mit dem aktuellen Standard sind auf dem Koaxialkabel theoretisch Übertragungsraten bis zu 1,6 Gbit/s möglich. Um nicht zu viele Fernsehkanäle einzubüßen, werden hiervon in der Regel aktuell aber nur gut 300 Mbit/s genutzt. Mit Einführung der neuesten Technologie können diese Übertragungsraten in naher Zukunft annähernd verzehnfacht werden.

Im Gegensatz zum Telefonnetz ist das Fernsehnetz ein geteiltes Medium. Das bedeutet, dass sich alle Kunden in einem Segment die maximal verfügbare Übertragungsrate teilen müssen, da sie alle an dasselbe Kabel angeschlossen sind. Dies geschieht über Zeitschlitze; alle Kunden sind nacheinander an der Reihe und dürfen jeweils für einen definierten Zeitabschnitt Daten senden bzw. empfangen. Die individuelle Übertragungsrate ist somit davon abhängig, wie viele Kunden im Netzsegment gerade Daten übertragen möchten. Hierdurch kann es durchaus vorkommen, dass tagsüber bis zu 30 Mbit/s zur Verfügung stehen, abends, wenn die Nachfrage nach Datenverkehr steigt, aber nur etwa 10 Mbit/s.

3. Luft

Spätestens seit der Einführung von Long Term Evolution, besser bekannt als LTE oder 4G, Anfang der 2010er Jahre sind in der Bundesrepublik nahezu flächendeckend mobile Breitbandverbindungen möglich. Diese Zugangstechnologie wird nicht mehr nur für mobile Endgeräte und Anwendungen genutzt, sondern soll darüber hinaus auch als Ersatz für klassische Breitband-Festnetzanschlüsse dienen.

In Europa wird LTE in drei verschiedene Frequenzbereich aufgeteilt: Der Bereich um 800 MHz ermöglicht hohe Reichweiten, aber nur Übertragungsraten bis etwa 50 Mbit/s. Im Frequenzblock um 1.800 MHz sind dann bis zu 150 Mbit/s möglich. Der dritte Frequenzbereich um 2.600 MHz hat zwar die geringste Signalreichweite, bietet aber schon heute Übertragungsraten bis 300 Mbit/s an. Mit der Einführung von LTE-Advanced wird es außerdem zu einer Steigerung bis auf 1 Gbit/s kommen.

Die tatsächliche mögliche Übertragungsrate beim Kunden ist von vielen Faktoren abhängig. Grundsätzlich gilt, dass die Rate sinkt, je weiter Sender und Empfänger voneinander entfernt sind. Aber auch Hindernisse, wie z. B. Bäume oder Wände, oder das Wetter haben Einfluss auf die Signalqualität. Darüber hinaus bedeutet beim Mobilfunk eine theoretisch mögliche Übertragungsrate von bspw. 1 Gbit/s nicht, dass der Funkturm auch „schnell“ genug angebunden ist, um diese Daten ins Weitverkehrsnetz zu transportieren. Die Funktürme die meisten Anbieter verfügen heutzutage aber über eine ausreichende Glasfaseranbindung.

Funknetze sind geteilte Medien. Das bedeutet, dass sich alle Teilnehmer in einer Funkzelle die verfügbare Übertragungsrate teilen, was wie beim Fernsehkabelnetz über Zeitschlitze realisiert wird. Die an stationären LTE-Anschlüssen verfügbare Übertragungsrate ist somit grundsätzlich auch davon abhängig, wie viele Daten die anderen Teilnehmer in der Funkzelle übertragen.

Insbesondere für abgelegene oder schlecht versorgte Landstriche bieten stationäre Internetverbindungen über LTE eine Alternative, da in diesen ein Ausbau der Festnetztechnologien in vielen Fällen unwirtschaftlich ist. In Städten hingegen lässt sich LTE mit einer klassischen Festnetztechnologie kombinieren, um einerseits die Gesamtübertragungsrate zu erhöhen und andererseits einen Zweitweg und damit eine höhere Ausfallsicherheit des Anschlusses zu realisieren.

4. Glasfaser

Da momentan sehr viele Zugangstechnologien mit dem Schlagwort „Glasfaser-Technologie“ beworben werden, sei an dieser Stelle darauf hingewiesen, dass natürlich alle Internetanschlüsse über Glasfaser realisiert werden. Die Frage ist, bis zu welchem Punkt diese Glasfasern verlegt worden sind. Wie oben erläutert, enden diese für den überwiegenden Großteil der versorgten Haushalte entweder in einem Verteilerschrank in der Nachbarschaft oder am Mobilfunkmast.

Es gibt aber auch Zugänge, bei denen die Glasfaser mehr oder weniger direkt bis zum Kunden verlegt worden ist:

Bei „Fibre to the Building“ (FTTB) endet die Glasfaser im Hausanschlussraum des versorgten Gebäudes. Dort befindet sich ein Gerät, dass die optischen Signale der Glasfaser wieder in elektrische Signale wandelt und die Haushalte in der Regel über das hausinterne Kupfernetz (Telefonnetz) versorgt. Insbesondere kleinere Telekommunikationsanbieter, wie z. B. Stadtwerke, nutzen diese Technologie.

Bei „Fibre to the Premises“ (FTTP) wird ein Glasfaserkabel bis in jede Wohnung verlegt und erst dort an einem Kundengerät abgeschlossen. Diese Technologie bietet das höchste Potenzial an Übertragungsrate, ist aber auch am aufwendigsten zu realisieren, da nicht nur das Gebäude versorgt werden, sondern auch ein Glasfaser-Inhausnetz gebaut werden muss.

Für Einfamilienhäuser werden beide Varianten häufig unter dem Begriff „Fibre to the Home “ (FTTH) zusammengefasst, da sie hier baulich identisch sind.

Im Gegensatz zu den oben vorgestellten Technologien ist der „Glasfaseranschluss“ am wenigsten genormt. Die Qualität der Netzwerkstruktur fällt daher recht unterschiedlich aus. Manche Anbieter installieren Technik mit Standardnetzwerkkomponenten, der de facto alle Kunden zu einem Netzwerk vor Ort zusammenschließt. Die Kunden werden an Netzwerkweichen, sogenannte Switche, angeschlossen und der Datenverkehr so Segment für Segment gebündelt, bis er schließlich an das Weitverkehrsdatennetz übergeben wird. Hierdurch lässt sich formal eine Übertragungsrate von üblicherweise 1 Gbit/s herstellen, die in der Praxis aber durch die vielen Netzsegmente deutlich geringer ausfällt.

Andere Anbieter hingegen verwenden auf ihrer Glasfaserstrecke gar keine aktive Technik mehr und binden jeden Kunden direkt an einen zentralen Netzwerkknoten an. Da der Abschluss von Glasfasern in Technikstandorten relativ viel Platz einnimmt, ist es auch üblich, eine Faser im Hauptkabel über optische Koppler mehreren Kunden zur Verfügung zu stellen. Diese fest definierte Anzahl an Kunden teilt sich auf der Faser den Datenverkehr in maximal 32 Zeitschlitzen. Da die Zeitschlitze fest definiert sind, stehet jedem Teilnehmer immer dieselbe Übertragungsrate zur Verfügung. Diese Variante von FTTB gilt daher nicht als geteiltes Medium.

Bundesweit werden aktuell üblicherweise Übertragungsraten zwischen 50 und 200 Mbit/s für Privatkundenanschlüsse angeboten. Eine Grenze nach oben ist technisch zurzeit nicht in Sicht.

Volumentarife und Netzausbau – ein konstruktiver Beitrag zur Entwicklung der TK-Branche in Deutschland

Die Telekom Deutschland wird neue Tarife im Festnetzbereich einführen. Anfürsich nichts ungewöhnliches. Aber mit der Ankündigung einer möglichen Volumenbegrenzung bzw. der damit verbundenen Drosselung der Übertragungsgeschwindigkeit wird eine Klausel enthalten sein, die derzeit für viel Furore sorgt und die Emotionen hochkochen lässt. Dieser Blogeintrag ist der Versuch einer sachlichen Einordnung und Bewertung.

Zukünftig wird es bei der Telekom Deutschland auch im Festnetzbereich, also bei xDSL- und Glasfaseranschlüssen, Volumengrenzen geben, wie sie bei Mobilfunkverträgen üblich sind. Diese Grenze ist abhängig vom gebuchten Produkt und liegt zwischen 75 und 400 GB im Monat. Diesen Wert wird der Großteil der User vermutlich nie erreichen, doch wer häufig online Videos schaut, könnte diese Grenze regelmäßig überschreiten. Die Folge wäre die Drosselung der Übertragungsrate auf DSL-Light-Geschwindigkeit (384 kbit/s), was höchstens noch zum Surfen und Mailen reicht. Vermutlich wird es möglich sein, analog zu den Handytarifen, das Volumen gegen die Zahlung einer geringen Gebühr wieder „aufzufüllen“.

Einige der Telekom-eigenen Dienste werden von dieser Drosselung allerdings ausgenommen. Dies sind einerseits die Telefonie und das Fernsehen über die Entertain-Plattform, aber andererseits auch der Video-on-Demand-Dienst. Und an diesem Punkt setzt die Kritik der Gegner der Volumengrenze an, denn damit würde das eigene Produkt gegenüber denen der Konkurrenz bevorzugt. Dies verstößt, laut den Gegnern, gegen das Prinzip der „Netzneutralität“.

„Netzneutralität“ bedeutet, dass jedes Datenpaket beim Transport im Internet gleich behandelt wird. Es ist also nicht so, dass bspw. die Daten eines großen „Senders“ wie Google eher weitergeleitet werden als die von irgendeinem anderen Server, weil dafür ein bestimmter Betrag an den Netzinhaber gezahlt wird. Diese „Netzneutralität“ ist jedoch nicht gesetzlich verankert und theoretisch dürfte es solche Verträge geben. Die Telekom Deutschland argumentiert, dass diese Gleichbehandlung auch weiterhin gegeben sei und ganz einfach alle Daten gleich langsam gesendet würden. Lediglich die Dienste, für die der Kunde extra bezahlt und deren Daten nicht direkt über das „Internet“ übertragen werden (Telefonie, Fernsehen, Onlinevideothek), wären ausgenommen.

Hauptargument für die Einführung einer Volumenbeschränkung seitens der Telekom Deutschland sind die immensen Kosten für den Breitbandausbau im Backbone, also dem Hauptverkehrsnetz. An dieser Stelle kann ich meine eigene Erfahrung einbringen:
Im Gegensatz zu anderen Leitungsträgern, wie z. B. Abwasser oder Gas, altert das Telekommunikationsnetz nur langsam und unabhängig von der Benutzung. Das, was den Ausbau und den Betrieb so teuer machen, sind einerseits Folgekosten durch den Straßenbau (dieses Thema beleuchte ich hier nicht näher) und andererseits die Netzerweiterungen. Denn es ist nicht nur so, dass jede Vermittlungsstelle mit mindestens einem Glasfaserkabel an den Rest des Netzes angebunden werden muss, sondern diese Linien müssen unregelmäßig erweitert werden, sobald die bisherige Kapazität nicht mehr ausreicht. Dafür ist viel Tiefbau nötig, bei dem Rohre ausgelegt und danach mit Glasfaserkabeln bezogen oder beblasen werden. Abhängig vom Gebiet kostet ein Rohrmeter etwa 80 bis 100 €. Vermittlungsstellen existieren in beinahe jedem Ort und in Städten in fast jedem Viertel. Dies bedeutet Kosten im mehrstelligen Millionenbereich pro Jahr, nur für die Beibehaltung der Netzqualität.
Dem entgegen steht der Preiskampf im TK-Sektor. Ein Internetanschluss ist so günstig, dass auch bei teuren Produkten lediglich ein Gewinn von 2 bis 3 € pro Monat bleibt. Dazu kommt im Fall der Telekom Deutschland noch die Regulierung, die zur Folge hat, dass in vielen Gebieten ein Ausbau für die Konkurrenz erfolgt. Der Ausbau des Netzes ist damit zwar technisch notwendig, in vielen Fällen aber unwirtschaftlich.

Von einigen Gegnern der Volumengrenze wird eine Verstaatlichung der Deutschen Telekom gefordert, mit dem Argument, das Netz wäre aus Steuergeldern finanziert und dann „verschenkt“ worden. Dazu ein paar Hinweise:
Die Deutsche Telekom entstand im Rahmen der zweiten Postreform als Aktiengesellschaft. Der Gesamtaktienwert spiegelte den damaligen Wert des neuen Unternehmens wieder und der Bund hatte sich dazu entschlossen, den Großteil dieser Aktien zu verkaufen. Der Erlös aus den Verkäufen floss in den Bundeshaushalt ein. Eine Wiederverstaatlichung der Deutschen Telekom wäre prinzipiell möglich, doch dann müssten alle Aktionäre entsprechend entschädigt werden. Abgesehen vom finanziellen Aufwand für den Steuerzahler, brächte dies einige weitere Probleme mit sich. So ist die Effizienz des ehemaligen Staatsbetriebs seit der Privatisierung immens gestiegen. Und seit dem Fall des Staatsmonopols herrscht in der Branche ein reger Wettbewerb. Würde man die Telekom verstaatlichen, müsste man sowohl den zukünftigen Status der anderen Unternehmen klären und sicherstellen, dass nicht ein neues Monopol durch einen mächtigen Staatskonzern entsteht. Das halte ich nicht nur für unrealistisch, sondern auch für kontraproduktiv im Hinblick auf den Netzausbau.

An dieser Stelle möchte ich ein erstes Fazit ziehen. Der Netzausbau ist teuer und muss finanziert werden. Mit der Einführung einer Volumengrenze wird ein Vorstoß zur Änderung der Tarifstruktur unternommen, der zwar den Umsatz in der Branche steigen lässt, im Hinblick auf die verfügbare Produktgüte hierzulande aber einen Rückschritt darstellt.
Ich persönlich glaube allerdings nicht daran, dass die Volumengrenzen tatsächlich eingeführt werden. Das Ziel ist vielmehr die Aushandlung von mehr Sonderdiensten, ähnlich dem mit „Spotify“ im Mobilfunkbereich, und damit die Erhöhung der Einnahmen. Außerdem verstehe ich es als „Hilfeschrei“, denn in kaum einem anderen Hochtechnikland wird der Netzausbau so wenig gefördert wie in der Bundesrepublik.

Wie ist es nun möglich, eine flächendeckende Breitbandversorgung sicherzustellen, den Wettbewerb zu fördern und die Branche trotzdem zukunftsfähig zu entwickeln? Ich schlage zur Lösung eine Änderung des Telekommunikationsgesetzes (TKG) in folgenden Punkten vor:

1. Einschränkung der Volumengrenzen:
Volumengrenzen sollten nach wie vor erlaubt sein und auch die Nichtanrechnung von Sonderdiensten auf das Volumen, wie z. B. bei der „Spotify“-Flat, halte ich für legitim. Sie sind Alleinstellungsmerkmale und für bestimmte Zielgruppen durchaus interessant, sodass man diesen Markt auch bedienen dürfen soll. Die erste Einschränkung müsste aber sein, dass die Volumengrenze genauso deutlich im Angebot dargestellt werden, wie die Übertragungsrate. Außerdem müsste das bisher verbrauchte Datenvolumen für die Kunden jederzeit einsehbar sein. Die zweite Einschränkung wäre die Übertragungsrate, auf die gedrosselt werden dürfte. Hier schlage ich vor, dass diese 25% der gebuchten Übertragungsrate nicht unterschreiten darf. Wer bspw. einen Anschluss mit 50 Mbit/s zahlt, könnte dann in jedem Fall noch mit 12,5 Mbit/s Daten übertragen.

2. Lokalisierung der Regulierung:
Bisher schreibt das TKG vor, dass alle TK-Unternehmen, die bundesweit mindestens 25% der Kunden versorgen, ihre Infrastruktur im Zugangsnetz Mitbewerbern zur Verfügung stellen müssen. Diese Regelung betrifft bisher nur die Telekom Deutschland, was auch gut für den Wettbewerb ist. Umgekehrt bedeutet dies aber auch, dass all die Gebiete, in denen Mitbewerber dominieren und die Telekom naturgemäß nicht in den Netzausbau investiert, ein lokales oder regionales Monopol besteht. Ich schlage daher vor, dass zukünftig die Öffnung der Infrastruktur nicht auf Bundesebene, sondern auf Ebene der (von der Bundesnetzagentur festgelegten) Anschlussbereiche erfolgt.
Hat sich beispielsweise eine Kommune dazu entschlossen, ein eigenes Glasfasernetz aufzubauen, sollte dieses auch von allen TK-Unternehmen genutzt werden dürfen. So kann die Kommune einerseits die Refinanzierung des Netzausbaus sicherstellen und andererseits wäre das Anbieten von Diensten auch für Mitbewerber lukrativ. Das eingesparte Geld durch die Vermeidung von doppelter Infrastruktur könnte dann wieder in das Backbonenetz investiert werden. Wichtig ist lediglich, dass der Ausbau und der Betrieb nach einer festgelegten Norm erfolgt, damit alle Unternehmen eine einheitliche Produktqualität anbieten können.

3. Förderung des Netzausbaus:
In dicht besiedelten Regionen ist die Refinanzierung von Investitionen in die technische Infrastruktur in der Regel kein Problem. Anders sieht dies hingegen in ländlichen Bereichen aus, wo häufig noch nicht einmal die Betriebskosten eines Netzes gedeckt werden können. Ein privatwirtschaftliches Unternehmen investiert hier niemals freiwillig eigenes Geld.
Um eine flächendeckende Verfügbarkeit von breitbandigen Internetanschlüssen sicherzustellen, schlage ich vor, dass zusätzlich zur Regionalisierung im vorherigen Punkt noch eine Versorgungsverpflichtung in das Gesetz aufgenommen wird. Versorgt ein Unternehmen mindestens 25% der Haushalte eines Anschlussbereichs mit Telekommunikationsprodukten, bestünde dann grundsätzlich die Pflicht zur flächendeckenden Versorgung mit einer noch festzulegenden garantierten Übertragungsrate. Dies würde allerdings nur für die Bereiche gelten, in denen keine Produkte von Mitbewerbern verfügbar sind. Die Art der Versorgung wäre unabhängig von der verwendeten Technologie (auch LTE oder andere Funktechnologien wären dann möglich) und ab einer bestimmten Investitionsgrenze müsste der Ausbau mit Bundesmitteln bezuschusst werden.

Abschließend sei gesagt, dass letztlich auch in der TK-Branche alles möglich ist, sofern der Preis stimmt. Durch den harten Wettbewerb und die strikte Regulierung ist der Gewinn aber so gering, dass nicht nur die kleinen Firmen ums Überleben kämpfen, sondern auch die großen immer mehr ins Straucheln geraten. Die Branche zu sichern, den Netzausbau verstärkt in kommunale Hand zu geben und die flächendeckende Breitbandversorgung sicherzustellen, ist mit relativ geringem Aufwand binnen weniger Jahre möglich. Die Bundesregierung müsste dies lediglich erkennen und loslegen.

Kinder schützen, Täter verfolgen, Zensur verhindern!

Schon seit einigen Wochen geht in der Bundesrepublik das Gespenst der Internetzensur um. Unsere Familienministerin, Ursula von der Leyen (CDU), präsentiert kurz vor Ende der Legislaturperiode ihr „Patentrezept“ zur vermeintlichen Lösung des Problems von Kindesmissbrauch. Die einfache Formel: Seiten, die „Kinderpornografie“ beinhalten, werden vom Bundeskriminalamt (BKA) auf eine Liste gesetzt. Jeder Internet Service Provider (ISP) hat die entsprechenden Domains zu sperren, d. h. die korrekte DNS-Adressauflösung zu verhindern. So kann niemand mehr auf die entsprechenden Websites surfen, die Täter können ihr „Material“ nicht mehr verkaufen und der Markt kollabiert. Dadurch gibt es dann keinen Missbrauch mehr. Außerdem speichert das BKA die IP-Adressen aller, die versuchen auf eine solche Website zu gelangen und kann dann ggf. deren Personalien feststellen und tätig werden.

Flüchtig zugehört klingt das alles erst einmal ganz toll. Bei näherer Betrachtung fällt aber auf, dass das Konzept weder den dokumentierten Kindesmissbrauch (was man statt „Kinderpornografie“ richtigerweise sagen müsste) eindämmt, noch bei der Verfolgung der Täter behilflich ist. Gleichzeitig wird aber eine technische Infrastruktur aufgebaut, mit der sehr leicht Schindluder getrieben werden kann. Aber betrachten wir die Kritikpunkte im Einzelnen:

1. DNS-Sperren

Was Frau von der Leyen vorgeschlagen hat ist, dass Websites, die Dokumentationen von Kindesmissbrauch beinhalten, gesperrt werden sollen. Sperren ist allerdings nicht gleich löschen, sondern bedeutet lediglich, dass eine Adresse nicht mehr richtig aufgelöst wird. Tippt man im Webbrowser z. B. „kindesmissbrauch.xyz“ ein, fragt der Browser zunächst bei einem DNS-Server nach der damit verbundenen IP-Adresse. Ein solcher Server ist vergleichbar mit einem Telefonbuch für Websites und die IP-Adresse mit der entsprechenden Telefonnummer. In der Regel würde der Server z. B. die IP-Adresse „123.456.78.90“ zurückschicken, bei der der Browser dann die eigentliche Seite anfordert.

Statt dessen sendet der DNS-Server nun aber z. B. die „62.156.153.38“ (IP-Adresse des BKAs) und der Browser ruft ganz einfach eine falsche Seite auf. Hier liegt dann in Zukunft das berühmte „Stoppschild“.

Das Problem hierbei ist, dass sich eine DNS-Sperre kinderleicht umgehen lässt, indem einfach ein anderer DNS-Server benutzt wird, als der vom ISP zugewiesene. Diese gibt’s zuhauf und eine kurze Anfrage bei der Suchmaschine des Vertrauens erklärt, wie man diesen einrichtet. Der Zeitaufwand unterschreitet eine Minute deutlich. Alternativ kann man sich die Eingabe der Domain auch sparen und gleich die IP-Adresse eingeben.

Mit der Sperrmaßnahme werden demnach keinerlei Inhalte aus dem Netz entfernt, sondern lediglich deren Sichtbarkeit eingeschränkt.

2. Rolle des BKAs

Geplant ist, dass das Bundeskriminalamt die Sperrlisten verwaltet und den ISPs wochentäglich eine aktuelle Version zukommen lässt. Da die Listen Quellen für Missbrauchsdokumentationen enthalten, sind sie selbstverständlich geheim. Problematisch ist hier, dass der ganze Vorgang dadurch intransparent wird und eine Kontrolle durch andere staatliche bzw. öffentliche Organe nicht vorgesehen ist. Das BKA kann folglich beliebige Websites auf die Liste setzen, ohne dass auf den Inhalt dieser Einfluss genommen werden kann. Werden Websites fälschlicherweise gelistet und wird dies bemerkt, ist es bestenfalls per Klage überhaupt möglich, wieder von der Liste entfernt zu werden.

Kritisch ist auch, dass beim Besuch der „Stoppschild“-Seite die persönliche IP-Adresse gespeichert wird. Es ist so problemlos möglich festzustellen, von welchem Anschluss aus die Seite aufgerufen wurde. Das BKA hat angekündigt, dann ggf. aktiv zu werden und Wohnungsdurchsuchen bzw. Festnahmen anzuordnen. Wer auf der „Stoppschild“-Seite landet, hat logischerweise aber keine Website mit illegalem Inhalt aufgerufen. Zwar ist bereits der Versuch der Beschaffung von Missbrauchsdokumentationen strafbar. Da der aktuelle Inhalt der Website nicht nachprüfbar ist, lässt sich ein solcher Versuch nicht ohne Weiteres nachweisen. Darüber hinaus können Verweise auf die „Stoppschild“-Seite auch auf herkömmlichen Websites untergebracht werden, wodurch man unbemerkt in Verdacht geraten würde.

Wer die DNS-Sperre umgeht und direkt auf die entsprechenden Server zugreift, läuft im Übrigen nicht Gefahr, vom BKA über eine solche „Stoppschild“-Seite erfasst zu werden und kann ungestört „surfen“.

3. Standorte der Server

Auf die Frage, warum der illegale Inhalt nicht gleich gelöscht wird, bekommt man oftmals die Antwort, dass die entsprechenden Server in Osteuropa, Asien oder Afrika stünden und es keine Möglichkeit gäbe, auf diese zuzugreifen. Dies ist schlicht und ergreifend falsch. Analysiert man bspw. die auf Wikileaks veröffentlichte Sperrliste aus Dänemark fällt auf, dass weit über 90 % der Inhalte in Nordamerika, Westeuropa (v. a. in den Niederlanden und Deutschland) uns Australien gehostet sind. Dies ist auf den simplem Umstand zurückzuführen, dass in den westlichen Staaten die technische Infrastruktur gut ausgebaut und Datenverkehr günstig ist. Würden die Daten in Afrika liegen, betrügen die Distributionskosten ein Vielfaches.

In allen westlichen Staaten gibt es sowohl Gesetze gegen Kindesmissbrauch, als auch eine Exekutive, die diese auch durchsetzen kann. Sollte es den Polizeien tatsächlich nicht möglich sein, auf dem langen oder kurzen Dienstweg illegale Inhalte aus dem Netz zu entfernen und die Täter strafrechtlich zu verfolgen, verdeutlicht dies lediglich die Unfähigkeit der Behörden zur europäischen bzw. internationalen Zusammenarbeit.

4. Der Markt für dokumentierten Missbrauch

Hier werden seitens des Familienministeriums leider immer wieder falsche Zahlen genannt. Die erste Zahl, die immer wieder angeführt wird, ist der angebliche Anstieg der Verbreitung von Missbrauchsdokumentationen um 111 Prozent (in 2007 im Vergleich zu 2006). Dieser Wert beruht auf der falschen Interpretation einer Statistik des BKAs. So stieg die Anzahl der eingeleiteten Ermittlungsverfahren tatsächlich um diesen Wert, maßgeblich durch die häufig kritisierte „Operation Himmel“. Der selben Statistik ist auch zu entnehmen, dass die „Verbreitung von Kinderpornografie gemäß § 184b Abs. 1 StGB“ um 8,9 % zurückgegangen ist.

Dann wird behauptet, dass durch die Einführung der DNS-Sperre täglich allein in der Bundesrepublik 300.000 bis 450.000 Zugriffe verhindert werden könnten. Geht man davon aus, dass es in Deutschland ca. 40 Mio. Haushalte gibt, von denen ca. 60 % über einen Internetanschluss verfügen, dass müssten aus rund jedem 50. Haushalt täglich Bilder und Videos mit Kindesmisshandlungen aufgerufen werden. Woher diese Zahlen stammen, weist das Ministerium allerdings nicht nach.

Des Weiteren geistert die Behauptung des „Milliarden-Marktes“ durch das Netz. So wird „geschätzt“, dass jährlich durch den Vertrieb von Missbrauchsdokumentationen 23 Milliarden US-Dollar eingenommen werden. Der Umsatz müsste dementsprechend deutlich darüber liegen. Das ist eine Größenordnung, von der große Versandhäuser wie z. B. Amazon weit entfernt sind (Amazon hat z. B. im zweiten Quartal 2007 weltweit einen Umsatz von ca. 2,9 Milliarden US-Dollar erreicht). Bekannt ist aber, dass in der entsprechenden Szene eher selten Geld fließt. Die Konsumenten sind viel mehr „Jäger und Sammler“ und tauschen ihr Material zumeist unentgeltlich. Dass der angegebene Wert Quatsch ist, sollte somit klar sein. Auch hier werden selbstverständlich keine Quellen genannt.

Und letztlich sei noch darauf aufmerksam gemacht, wie wenig sich Frau von der Leyen mit Marktwirtschaft auszukennen scheint. So behauptet sie, dass durch die Einführung von DNS-Sperren der Markt für Missbrauchsdokumentationen einbrechen würde. Dadurch, dass nur noch sehr wenige Menschen auf entsprechende Websites gelangen könnten, sinke die Nachfrage und dementsprechend auch das Angebot. Da wir aber davon ausgehen können, dass die meisten „User“ abhängig sind, bleibt die Nachfrage folglich konstant. Die DNS-Sperren reduzieren allerdings das Angebot. Was folgt ist, und das wissen alle, die schon einmal Wirtschaftslehre in der Schule hatten, ein Anstieg des Preises!

5. Schutz der Missbrauchsopfer, Verfolgung der Täter

DNS-Sperren sind, wie oben bereits erwähnt, wie ein Blickschutz zu betrachten. Der Kindesmissbrauch im Internet wird ausgeblendet, aber nicht entfernt. Dies ist ungefähr so, als würde man im Garten kleine Tüten über das Unkraut stülpen, anstatt es auszureißen.

Die Sperren sind damit eindeutig als Mittel einzuordnen, welches den Konsum von Missbrauchsdokumentationen einzudämmen versucht. Die Verursacher des Problems, nämlich die Produzenten der Missbrauchsdokumentationen, werden bei dieser Maßnahme nicht strafrechtlich verfolgt. Weder die Produktion, noch die Verbreitung des Materials wird verhindert. Das „Stoppschild“ kann ferner von den Tätern als äußerst nützliches Frühwarnsystem genutzt werden.

Das Wichtigste bei einem Fall von Kindesmissbrauch, nämlich der Schutz und die psychologische Betreuung der Opfer, findet in keinster Weise statt. Im Gegenteil, hier werden seitens des Ministeriums zunehmend Mittel eingespart.

6. Gesetzeswidrigkeit

Auch wenn der Fokus der Diskussion nicht auf diesen Thema liegt, aber die geplante Einführung von DNS-Sperren hält aller Voraussicht nach vor keinem Gericht stand. So ist die bereits erwähnte alleinige Befugnis des BKAs die Liste zu führen ein Verstoß gegen das Prinzip der Gewaltenteilung. Es ist weder eine Kontrollinstanz, noch ein Richtervorbehalt geplant.

Des Weiteren fällt die Regulierung von Medieninhalten und die Kriminalprävention überhaupt nicht in den Kompetenzbereich des Bundes. Dies ist Aufgabe der Länder.

Und letztlich stellt eine Zensur des Internets einen Verstoß gegen Artikel 5, Absatz 1 des Grundgesetzes dar. Dieser besagt: „Eine Zensur findet nicht statt.“

7. Das technische Missbrauchspotenzial

Ist die technische Infrastruktur zur Sperrung von Websites einmal vorhanden, ist es nur ein kleiner Schritt hin zu einer umfassenden Zensur. Die Contentindustrie macht hier bereits Druck. So spricht Dieter Gorny, vorsitzender des Bundesverbandes Musikindustrie, bereits von „gesellschaftlich gewünschter Regulierung im Internet“ und nennt neben dem „Verbot von Kinderpornografie“ auch gleich den „Schutz des geistigen Eigentums“. Verklausuliert bedeutet dies, dass Tauschbörsen und Co. blockiert werden sollen.

Dieter Wiefelspütz, SPD-Innenpolitiker, machte darüber hinaus klar, dass es bei dem Thema eindeutig um Zensur geht. So erwartet er, dass mittel- und längerfristig auch über andere Vorgänge geredet wird. Er kann sich durchaus vorstellen, auch Websites mit verfassungsfeindlichem oder islamistischem Inhalt auf die Sperrliste setzen zu lassen.

Abgesehen davon lassen sich Sperrlisten hervorragend einsetzen, um politische oder wirtschaftliche Konkurrenz aus dem Weg zu räumen. Wird der Zugang zu einer fremden Website geknackt und illegaler Inhalt auf dieser abgelegt, genügt eine E-Mail an das BKA und ein Hinweis auf die entsprechenden Dateien um die Domain für lange Zeit zu sperren.

8. Die Erfahrungen in anderen Ländern

Frau von der Leyen hat in Pressekonferenzen öfters den Erfolg von DNS-Sperren in anderen Ländern betont. Dass diese alles andere als Erfolgreich und gesellschaftlich zumeist hochgradig umstritten sind, wird von ihr aber nicht erwähnt.

So musste z. B. die australische Regierung einräumen, dass lediglich 32 % der von ihr gesperrten Websites tatsächlich dokumentierten Kindesmissbrauch beinhalten. Dies bedeutet im Umkehrschluss, dass 68 % vollkommen zu unrecht blockiert werden.

In Finnland wird die Informationsseite von Matti Nikki, einem Netzaktivist und Gegner von DNS-Sperren, auf der Sperrliste geführt. Ursache ist, laut Polizei, dass durch die Veröffentlichung von Sperrlisten auf seiner Website Missbrauchsdokumentationen verbreitet würden. Einerseits existiert zwar hierfür in Finnland keine rechtliche Grundlage und andererseits ist der Inhalt von ihm schon vor langer Zeit wieder aus dem Netz entfernt worden. Die Domain bleibt aber weiterhin blockiert.

Als drittes populäres Beispiel sei noch das Bittorrent-Verzeichnis „The Pirate Bay“ erwähnt. In Dänemark wird dieses Blockiert, obwohl keinerlei Inhalte über diese Website übermittelt werden. Der Prozess dauert an, wobei das Prinzip „Im Zweifel gegen den Angeklagten“ zu gelten scheint.

Zeit für eine erste Zusammenfassung. Wir haben bisher u. a. folgendes festgestellt:

  • DNS-Sperren sorgen nicht dafür, dass Inhalte gelöscht werden, sondern blenden diese lediglich aus.
  • DNS-Sperren sind kinderleicht zu umgehen und halten niemanden davon ab, dokumentierten Missbrauch oder sonstige illegale Inhalte aufzurufen.
  • Eine Strafverfolgung der Täter findet nicht statt. Die Opfer werden nicht geschützt.
  • Das BKA hat als alleinige Instanz die Kontrolle über und die Einsicht in die Sperrlisten. Das Prinzip der Gewaltenteilung wird ausgehebelt.
  • Bei der Werbung für den Gesetzesentwurf werden vom Familienministerium falsche Zahlen angeführt. Ob dies absichtlich geschieht oder nicht, sei dahin gestellt.
  • Ist die Sperrtechnik einmal installiert, birgt sie ein gigantisches Missbrauchspotenzial. Diverse Lobbyverbände tun darum schon heute alles, um mit dem vermeintlichen K.O.-Argument des Kindesmissbrauchs das Gesetz durchzudrücken.
  • In vielen anderen Ländern wird diese Technologie bereits verwendet. Von rechtsstaatlichen Gesichtspunkt her ist die Erfahrung mit dieser in allen demokratischen Ländern eher durchwachsen.

Die Alternative: Löschen statt sperren!

Dennoch gibt es auch eine gute Nachricht, denn mit der bisherigen Gesetzeslage ist es relativ einfach möglich, mindestens den gleichen Effekt zu erzielen. Da wir wissen, dass der überwiegende Großteil der Server mit Missbrauchsdokumentationen in der westlichen Welt steht und auch die meisten Täter hier zu Hause sind, ist sowohl das Löschen der Inhalte als auch eine Strafverfolgung möglich. Tests haben gezeigt, dass allein die Benachrichtigung des betroffenen Webhosters in der Regel dazu führt, dass die entsprechenden Daten binnen sechs Stunden gelöscht werden. Zum Vergleich: beim jetzigen Gesetzesvorschlag kann es bis zu 78 Stunden dauern, bis eine Sperre aktiv wird (die Inhalte sind dann natürlich noch immer online). Und da zumindest der Webhoster die persönlichen Daten des Kunden kennt (je nach Top-Level-Domain ließen sich diese auch durch ein einfaches „whois kinderporno.xyz“ herausfinden), kann der Täter ganz gezielt verfolgt werden.

Was noch fehlt – und hier ist es verwunderlich, dass das Familien- und das Innenministerium in den vergangenen drei Jahren praktisch untätig waren – ist die Verbesserung der internationalen Zusammenarbeit. Es muss auch für die Bundesregierung möglich sein, entweder via Euro- und Interpol, oder auf direktem Wege, mit anderen Polizeibehörden zusammenzuarbeiten. Ein junges Beispiel aus Norwegen bzw. Belgien zeigt, wie dies geht: Die norwegische Polizei hat ein Vergewaltigungsvideo beschlagnahmt und festgestellt, dass der Täter auf diesem flämisch spricht. Nachdem der Fall an die Polizei in Flandern übergeben worden ist, konnte diese den genauen Dialekt zuordnen und gezielt die Opfer an Schulen in der Region um Brügge finden. Der Täter wurde so binnen weniger Tage dingfest gemacht.

Das bringt mich zum Fazit dieses Textes:

Das von Frau von der Leyen geplante Gesetz ist technisch sinnlos und für die Opfer in keinster Weise hilfreich. Dafür werden die Täter geschützt und eine leicht zu missbrauchende IT-Infrastruktur wird errichtet.
Für die Lösung des Problems ist kein neues Gesetz nötig, denn die jetzige Rechtslage reicht zur Bekämpfung von Kindesmissbrauch vollkommen aus.
Wenn man überhaupt davon sprechen kann, dass der Kampf gegen Kindesmissbrauch im Netz ins Stocken geraten ist, dann ist dies eindeutig auf Schwierigkeiten bei den Behörden zurückzuführen. Hier würde sowohl eine verbesserte internationale Kooperation, als auch die Bereitstellung von mehr Ressourcen für die entsprechenden Polizeiabteilungen helfen.

Abschließend bleibt mir noch zu sagen, dass der von Frau von der Leyen gewählte Zeitpunkt der Gesetzesinitiative vermuten lässt, dass hinter der ganzen Sache lediglich ein wahltaktisches Manöver steckt. Die Tatsache, dass sie bereits drei Jahre im Amt ist und ausreichend Zeit hatte das Thema anzugehen, erhärtet leider diesen Verdacht. Sollte dies wirklich der Fall sein, so stellt dies nicht nur eine Verhöhnung der Missbrauchsopfer dar, sondern lässt mich persönlich auch an ihrer Loyalität zum demokratischen Rechtsstaat zweifeln.

Sebastian Lammermann

Über Feedback, Kommentare und Ergänzungen würde ich mich sehr freuen!
Quellen und weitere Informationen finden Sie u. a. hier:

I beat the kafkaesque administration. Oder eine Geschichte, die es Wert ist, erzählt zu werden.

Manche Geschichten sind so traurig, dass sie einen wiederum zum Lachen bringen. So wie meine. Oder, genauer gesagt, die Geschichte meiner Masterarbeit.

Alles begann im vergangenen März. Hoch motiviert legten meine beiden Fachbetreuer, der Rektor unserer Hochschule höchst persönlich und einer unser fähigsten Laboringenieure, gemeinsam mit mir das Thema meiner Masterarbeit fest. Ein Laborversuch sollte es werden. Für das bei uns noch relativ junge Lehrgebiet der Echtzeitsysteme. Spezialisiert habe ich mich auf das Controller Area Network, kurz CAN, weil es zum einen ausgereift und zum anderen kostengünstig ist. Schnell war eine kleine Firma in Ostthüringen gefunden, die nicht nur alle benötigten Komponenten liefern konnte, sondern zudem auch noch ein sehr preiswertes Angebot unterbreitet hatte. Der Bestellvorgang würde zwei bis drei Wochen dauern, wurde mir versichert. Perfekt, um nach den Prüfungen ein bisschen auszuspannen und den Kopf für das bevorstehende Finale frei zu kriegen.

Nun ist es an meiner FH, der Telekom-eigenen Hochschule für Telekommunikation in Leipzig, aber so, dass reguläre Bestellungen einzig über den zentralen Einkauf der Deutschen Telekom getätigt werden können. Eigentlich ein eingespieltes Procedere. Die Unterlagen wurden ausgefüllt, das Budget genehmigt und Anfang Mai ging der „Warenkorb“ samt Kostenvoranschlag und der Bitte um eine zügige Bearbeitung nach Fulda, wo das Accounting des Konzerns sitzt. Hier begann die Bearbeitung des Vorgangs am 8. Mai.

Und hier begann auch das Elend, das mich über einige Monate viele Nerven gekostet hat – und bis heute kostet. Denn es ist ja nicht so, dass ein Verwaltungsfachangestellter eine Bestellung der Hochschule einfach nimmt, die Teile ordert und sie als Investition in der Bilanz verbucht. Dies wäre wahrscheinlich zu einfach gewesen. Nein, denn der Bearbeitungsprozess sieht vor, dass zunächst geprüft werden muss, ob die Telekom mit den zu bestellenden Komponenten überhaupt etwas anfangen kann. Nur war leider der Bearbeiter meines Antrags kein Fachmann für Kommunikationstechnik und er konnte so auch mit dem Begriff „Controller Area Network“ nichts anfangen. Aber er war anscheinend motiviert genug um kurz nachzuforschen und festzustellen, dass das CAN mit dem Kerngeschäft des Konzerns anscheinend nichts zu tun hat. Was folgte war, wohlgemerkt nach einigen Tagen Bearbeitungszeit, die Ablehnung und Löschung des Warenkorbs. Zwar ist so eine Ablehnung bitter und erfordert nervenaufreibende Nachbearbeitungszeit, doch ist sie auch kein Weltuntergang. Schön wäre es allerdings gewesen, wenn man die bestellende Instanz, in diesem Fall meinen Laboringenieur, hierüber in Kenntnis gesetzt hätte. So gingen bereits die ersten Wochen ins Land, ohne dass überhaupt etwas geschehen ist.

Als, nach einigen Nachforschungen, schließlich die aktuelle Situation ans Licht kam, kostete es meinen Fachbetreuer mehrere Tage und ellenlange E-Mails, um dem zuständigen Verwaltungsfachangestellten näher zu bringen, um was es sich beim CAN überhaupt handelt. Dieser sah letztendlich ein, dass man so etwas durchaus in einem Labor der Hochschule gebrauchen könne und willigte ein, in Zukunft derartige Bestellungen nicht mehr per se abzulehnen.

Da, wie bereits erwähnt, der besagte Warenkorb aus dem System der Telekom gelöscht worden ist, musste der ganze Vorgang aber wieder von vorn beginnen. Das Budget wurde erneut genehmigt und alle Unterschriften eingeholt. Die Bestellung wurde erneut ins beschauliche Fulda geschickt und erreichte das dortige beamtenlastige Accounting im Juni. Pünktlich zur Urlaubszeit.

Dass der Vorgang in Fulda dann ins Stocken geraten ist, trotz des Hinweises auf die Dringlichkeit der Bestellung, mag nicht weiter verwundern. Aber immerhin arbeitete die Finanzbuchhaltung schnell genug, um den Warenkorb noch im selben Monat zu genehmigen, wenn auch fast vier Wochen nach Eingang.

Seit dem wartet der Auftrag nur noch auf seine Bearbeitung. Es ist nämlich nicht so, dass der zuständige Verwaltungsfachangestellte die Bestellung eigenhändig an die entsprechende Firma schickt. Nein, seine Aufgabe ist lediglich die steuerrechtliche Verbuchung der Investition. Den Bestellvorgang übernimmt wiederum eine eigenständige Abteilung.

Dies war vor zehn Tagen. Da bei mir bisher weder ein Paket, noch ein Feedback seitens der Telekom eingetroffen ist, habe ich beschlossen, heute weitere Nachforschungen anzustellen. Ich habe mit meinem Laboringenieur eine geschlagene Dreiviertelstunde und vier unser Verwaltungsmitarbeiterinnen gebraucht, bis wir aus diversen Systemen die Warenkorbnummer, sowie Name und E-Mailadresse der zuständigen Sachbearbeiterin im Konzern ermitteln konnten. Ein Dreizeiler unserer Hochschulverwaltung hat dann aber schon nach wenigen Stunden gefruchtet und mir wurde zugesichert, dass die Bestellung übermorgen an die Firma geschickt wird.

Bleibt zu hoffen, dass der restliche Vorgang nicht zu lange dauert. Denn die Telekom bestellt nicht, wie jedes andere Unternehmen, einfach so. Es muss zuerst ein Vertrag ausgehandelt werden, bevor eine Firma in das offizielle Lieferregister des Konzerns aufgenommen werden kann. Ich habe den Vertriebler vorsichtshalber schon mal vorgewarnt und ihn gebeten, den Prozess schnell über sich ergehen zu lassen und das Paket so bald wie möglich versandfertig zu machen. Er versicherte mir, dass die Kunden normalerweise spätestens drei Werktage nach Eingang der Bestellung ihre Lieferung hätten. Schnell und unkompliziert.