Schlagwort-Archive: fttx

Breitbandausbau ermöglichen, Regulierung neu denken

Um überall gleichwertige Lebensverhältnisse zu ermöglichen, bedarf es einer bundesweiten Verfügbarkeit von bezahlbaren breitbandigen Internetanschlüssen. Dass dazu öffentliche Förderung notwendig ist, ist unumstritten. Doch wie erreicht man dies mit überschaubaren finanziellen Mitteln und dazu noch in einem relativ kurzen Zeitraum? Da ich genau in diesem Bereich arbeite, die Industrie und alle Hürden beim Netzausbau kenne, biete ich einen konkreten Drei-Punkte-Plan an:

1. Ziel definieren

Zunächst zur Definition der eigentlichen Aufgabe: Ziel muss es sein, es bundesweit jedem Haushalt zu ermöglichen, an das breitbandige Internet angeschlossen zu werden, und das zu moderaten Preisen. Die verfügbare Übertragungsrate sollte dabei über die Zeit steigen, sodass nicht mit einem einmaligen Ausbau das Ende der Fahnenstange erreicht ist, sondern eine kontinuierliche Investition in neue Technologien ermöglicht wird. Ziel ist es ferner, Monopole zu verhindern bzw. Wettbewerb zu schaffen, sodass jeder Haushalt aus mehreren Telekommunikationsanbietern wählen kann. Darüber hinaus wird angestrebt, geförderte parallele Netzausbauten weitgehend zu verhindern.

Nichtziel ist es, den “Staat”¹, in welcher Form auch immer, zu einem neuen Betreiber von Netzinfrastruktur werden zu lassen. Der Markt bietet derzeit einen funktionierenden Wettbewerb und in “Staatseigentum” befindlichen Netzen darf kein Vorzug gegenüber privatwirtschaftlicher Investitionen gegeben werden. Ansonsten besteht die Gefahr wirtschaftlich nicht sinnvoller Investitionen, des Rückzugs privater Netzanbieter und einer “Technologieträgheit” bei der Einführung neuer Standards.

Doch wie erreicht man diese Ziele? In aller Munde ist derzeit der reine Glasfaserausbau (Fibre To The Home, FTTH), weil die Glasfaser in der Wohnung zurzeit grundsätzlich das höchste Potenzial an Übertragungsrate bietet. Allerdings bringt der FTTH-Ausbau auch einige entscheidende Nachteile mit sich. So ist er die teuerste Technologie, weil sehr viel Tiefbau erforderlich ist. Außerdem würde ein flächendeckender Ausbau in Deutschland etwa 20 bis 25 Jahre in Anspruch nehmen, was wiederum bedeutet, dass die meisten Haushalte erst in vielen vielen Jahren eine Verbesserung ihrer Versorgungslage erfahren werden. Außerdem ist FTTH nicht standardisiert. Mit dem Label “FTTH” werden beispielsweise Ausbauvarianten beworben, bei denen der Glasfaseranschluss im Keller liegt und dann beispielsweise noch mehrere hundert Meter über einen in den 1960er Jahren verlegten “Klingeldraht” überbrückt werden müssen. Andererseits gibt es auch Anbieter, die ein komplettes Glasfaser-Inhausnetz neu errichten und sich der Glasfaser-Abschluss tatsächlich in der Wohnung des Kunden befindet.²

Da man derzeit etwa alle sechs Jahre mit einem Technologiesprung rechnen kann, schlage ich statt der Fixierung auf eine Ausbautechnologie die “Evolution des Netzes” vor. Das 2013 eingeführte VDSL-Vectoring ermöglicht bereits jetzt Übertragungsraten von 100 Mbit/s im Radius von ca. 400 m um einen Kabelverzweiger. 50 Mbit/s, also das, was Frau Merkel als Ziel bis 2018 ausgegeben hat, sogar noch weit über diesen Radius hinaus. Der nächste Technologiesprung wird schon 2017 in den Markt eingeführt; mit “Super-Vectoring” sind dann, ohne weiteren Tiefbau, bis zu 250 Mbit/s über das alte Kupfernetz möglich. “G.fast” wird derzeit dann als der nächste Sprung gehandelt, hier könnte man dann 700 bis 800 Mbit/s realisieren, und das ebenfalls noch über Kupfer.

Auch auf den Kupfer-Koaxialkabeln der Kabelfernsehnetze tut sich einiges. Mit dem seit 2013 verfügbaren neuen “DOCSIS”-Standard sind in jedem Kabelnetzsegment bis zu 1 Gbit/s im Download verfügbar. Zwar teilt sich hier in der Regel ein Straßenzug oder ein Gebäudekomplex diese Übertragungsrate, trotzdem ermöglicht auch dies eine deutliche Verbesserung über dieses Medium.

Und auch die Funktechnologien entwickeln sich rasant weiter. Mit “LTE-Advanced” werden in den kommenden Jahren bis zu 1 Gbit/s je Funkzelle möglich sein. Und der als “5G” bezeichnete Nachfolgefunkstandard, der etwa Mitte der 2020er Jahre eingeführt werden wird, hat in Feldversuchen bereits jetzt über 70 Gbit/s ermöglicht.

Bis hierhin zusammengefasst bedeutet dies folgenden Status quo: Grundsätzlich gibt es auf dem Markt viele verschiedene Technologien, die eine Internet-Versorgung der Bevölkerung ermöglichen. Manche davon haben einen besseren Ruf als andere, aber im Grunde bieten alle derzeit ähnliche Produkte, sowohl in Hinblick auf den Preis als auch auf den Umfang.

2. Regulierung ändern

Wie ließe sich nun aber das oben genannte Ziel erreichen? Ich schlage vor, hierfür die Regulierung zu ändern.

Derzeit wird nur ein Unternehmen bundesweit reguliert, nämlich die Telekom Deutschland GmbH, und auch hier nur der Bereich des Kupfer-Telefonnetzes. Alle andere Unternehmen sind praktisch komplett frei, was zur Folge hat, dass viele lokale Monopole entstanden sind. Wenn ein Haushalt beispielsweise über einen Glasfaseranschluss der örtlichen Stadtwerke verfügt, kann auch nur über diese Stadtwerke ein Internet-Produkt bestellt werden. Erhöhen die Stadtwerke nun die Preise, besteht zwar möglicherweise ein Kündigungsrecht. Aber da kein anderer Anbieter über dieses Netz einen Anschluss bereitstellen kann, bleibt de facto nur die Möglichkeit, den höheren Preis zu zahlen.

Meine Empfehlung lautet nun, bei der Regulierung zukünftig jeden Anschlussbereich separat zu betrachten (nicht nur die Ortsnetze, da mitunter große Unterschiede innerhalb des Ortsnetzes bestehen). Unter die Regulierung fallen sollte dann jeder Internetanbieter, der mindestens 25 % der Haushalte versorgt. Ist dies bei keinem Anbieter der Fall, sinkt die Quote auf 15 % und dann erneut auf 10 %. Sollte auch dies wider Erwarten auf keinen Anbieter zutreffen, dann würde das Unternehmen reguliert, das die meisten Haushalte versorgt.

Wird ein Anbieter in einem Anschlussbereich reguliert, dann hat dies folgende Konsequenzen:

  • Der Anbieter muss seinen Zugang für den Wettbewerb öffnen.
  • Der Anbieter muss eine von der Bundesnetzagentur (BNetzA) festgelegte Dienstgüte (Quality of Service) am Anschluss erfüllen.

Der Zugang sollte einheitlich per Zugang zum Datenstrom (Bitstream Access) erfolgen und preislich reguliert sein. Dabei können die Preise durchaus variieren, je nach zur Verfügung stehender Zugangstechnologie und nach Zugangspunkt.³ Und es sollte lediglich ein Maximalpreis festgelegt werden, sodass zwei Netzbetreiber durchaus um Wettbewerber konkurrieren können, um ihre jeweilige Infrastruktur möglichst auszulasten. Allerdings sollten auch Investitionen bzw. deren Abschreibungsfristen positiv berücksichtigt werden, sodass sich eine Investition in neue Infrastruktur auch lohnt.

Bei der Dienstgüte werden die maximale durchschnittliche Paketlaufzeit, die Ausfallsicherheit und natürlich auch die zur Verfügung stehende Übertragungsrate festgelegt. Bei letztem Punkt schlage ich vor, dass die beworbene Übertragungsrate zu 50 % der Zeit mindestens zur Hälfte zur Verfügung stehen muss und jederzeit mindestens zu 25 %, alles gemessen vom Übergabepunkt⁴ aus bis ins Weitverkehrsdatennetz. An einem Anschluss mit 100 Mbit/s, zum Beispiel über das Kabelfernsehnetz, müssen also immer mindestens 25 Mbit/s exklusiv für jeden Haushalt bereitgehalten werden. So kann sichergestellt werden, dass insbesondere bei den geteilten Medien (Fernsehkabel, Festnetzersatz über Mobilfunk) realistische Werte bei der Vermarktung angegeben werden. Ferner muss der Upload immer mindestens 10 % des Downloads entsprechen, ab dem Jahr 2022 mindestens 20 %.

3. Breitbandausbau in Wettbewerb fördern

Eine Änderung der Regulierung schafft eine Grundlage für eine Verbesserung des Wettbewerbs, nicht jedoch notwendigerweise auch für den Breitbandausbau. Hier schlage ich vor, dass die Anschlussbereiche im ersten Schritt in drei Kategorien aufgeteilt werden:

  • Gut versorgt = mindestens 80 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate
  • Teilweise versorgt = mindestens 40 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate
  • Unterversorgt = weniger als 40 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate

Die genannte Ziel-Übertragungsrate steigt mit der Zeit, sodass auch ein derzeit bereits gut versorgter Anschlussbereich in einigen Jahren dann nur noch als teilweise oder sogar als unterversorgt gilt. Ich schlage vor, die Übertragungsrate alle paar Jahre anzupassen, zum Beispiel wie folgt:

  • Ab 2018: 50 Mbit/s
  • Ab 2022: 100 Mbit/s
  • Ab 2028: 200 Mbit/s
  • Ab 2034: 500 Mbit/s

Entscheidet sich ein Anbieter für den Ausbau in einem Anschlussbereich, kann er dafür eine Förderung erhalten. Ich schlage vor, die Förderung nach einem ganz einfachen Modell zu gestalten:

  • Für jedes Megabit, dass das versorgte Gebäude nach dem Ausbau reell mehr an Übertragungsrate hat, gibt es einen Förderbetrag. Gedeckelt wird die Förderung bei 1 Gbit/s.
  • Die Höhe des Förderbetrags hängt davon ab, ob es sich bei dem Anschlussbereich um ein gut, teilweise oder unterversorgtes Gebiet handelt. Mögliche Förderbeträge wären zum Beispiel 30 ct, 60 ct und 1 € pro Gebäude und Megabit Steigerung.
  • Der “Fördertopf” wird jährlich aufgelegt, sodass immer ein verknapptes Budget zur Verfügung steht, was den Wettbewerb anregt. Nicht genutzte Fördersummen fließen zurück in den allgemeinen Bundeshaushalt.
  • Wird in Mehrfamilienhäusern in jede Wohneinheit ein Glasfaserkabel gelegt, gilt die Förderung nicht nur pro Gebäude und Megabit, sondern pro Wohneinheit und Megabit. Dieser Zusatzbetrag wird erst nach Errichtung des Inhaus-Netzes ausgezahlt.
  • Fördermittel von Union, Land und Kommune können an dieses Verfahren “angedockt” werden, sodass sich der Förderbetrag dann erhöht.

Geschäftseinheiten (also Ladengeschäfte, Firmengebäude etc.) werden genau wie Wohneinheiten behandelt.

Ferner sollten Gebäudeeigentümer verpflichtet werden, Telekommunikationsunternehmen die Verlegung von Glasfaser-Inhausnetzen zu ermöglichen. Hierfür sind entweder Kabelkanäle zur Verfügung zu stellen oder geeignete Orte, um neue Kanäle anzubringen. Allerdings dürfen für den Eigentümer dann keine Kosten entstehen.

Um die Vergabe der Fördermittel zu steuern, schlage ich des Weiteren vor, dass sich Telekommunikationsunternehmen gezielt auf den Ausbau einzelner Gebäude bewerben. Das Verfahren soll vollelektronisch über Schnittstellen funktionieren, allerdings müssten im ersten Schritt alle kommunalen Adressdaten (Adresse, Anzahl der Wohneinheiten) mit den Daten der BNetzA (Ortsnetz, Anschlussbereich, Abschlusspunkt) und gegebenenfalls weiteren Datensätzen (zum Beispiel Geokoordinaten) zusammengefasst werden.

Erhält ein Unternehmen den Zuschlag für den Ausbau, beträgt die Zeit bis zur Buchbarkeit des Produktes beim Kunden im Regelfall ein Jahr, sodass die Verbesserung des Anschlusses auch zeitnah erfolgt. Basiert die verwendete Technologie auf einem Bestandsnetz, muss nach einem Jahr das Produkt am Hausanschluss verfügbar sein. Wird ein neues Verzweigernetz gebaut, muss nach einem Jahr der Hausanschluss bestellt werden können und dann innerhalb von sechs Monaten gebaut werden.

Wird die Frist überschritten, halbiert sich automatisch die Fördersumme. Ist der Anschluss nach Ablauf des zweiten Kalenderjahres immer noch nicht realisiert, wird das Unternehmen für zwei Jahre für die Förderung auf dieser Adresse gesperrt und muss eine Strafgebühr zahlen. Natürlich sind begründete Ausnahmen in Einzelfällen zulässig.

Außerdem unterliegt jeder geförderte Breitbandausbau zukünftig automatisch der Regulierung, sodass den Kunden immer mehrere Optionen zur Verfügung stehen und Wettbewerb stattfinden kann.

Mit dieser Methode wird nicht nur erreicht, dass ein Markt für den Breitbandausbau geschaffen wird, sondern es findet gleichzeitig auch eine Entbürokratisierung statt, weil der bisherige bunte Strauß an Fördermöglichkeiten in einem gemeinsamen fairen und offenen Verfahren gebündelt werden kann.

Über Diskussionsbeiträge und Anregungen freue ich mich. Bitte nutzt hierfür die Kommentarfunktion des Blogs.

¹: Gemeint sind hier vor allem Unternehmen im kommunalen Eigentum. Viele Gemeinden errichten teure eigene Netze und spekulieren auf ein Monopol in ihrem Versorgungsbereich und eine Frist von teils mehreren Jahrzehnten bis zum Return-of-Investment. Dieser wird meist nicht erreicht und der Steuerzahler trägt dann die Kosten.

²: Siehe auch: Lammermann.eu: “FTTH – eine Nischentechnologie”.

³: Zugänge direkt am Gerät sind günstiger; dort wird ein eigenes Glasfaserkabel erst an die Technik herangeführt und nur die “letzte Meile” des regulierten Netzbetreibers verwendet. Zugänge auf einer höheren Netzebene sind dementsprechend dann teurer, weil eine weite Strecke und mehrere Geräte des regulierten Netzbetreibers genutzt werden.

⁴: Messpunkt ist immer die Stelle, an der vom Netz des Netzbetreibers auf das Netz des Hauseigentümers gewechselt wird. Bei der Kupfer-Doppelader und beim Kupfer-Koaxialkabel ist dies der Abschlusspunkt, der sich meist im Gebäudekeller befindet. Bei Glasfaserprodukten wird bei Mehrfamilienhäusern unterschieden zwischen “Fibre To The Building” (= Glasfaserabschluss im Keller) und “Fibre To The Premises” (= Glasfaserabschluss in der Wohnung).

FTTH – eine Nischentechnologie

Hinweis: ein anderer Beitrag geht näher auf die hier behandelte Technologie ein.

Glasfaseranschlüsse sind seit einigen Jahren in aller Munde. Da ich in der Branche arbeite und mich täglich mit den unterschiedlichen Technologien beschäftige, ist es Zeit für mich, das Thema FTTH & Co. kritisch zu beleuchten.

1. Übertragungsrate

Es stimmt, die Glasfaser in der Wohnung bietet die höchste Übertragungsrate. Zumindest theoretisch. Denn auch wenn ein Ende der maximal möglichen Bitrate über Glas noch nicht in Sicht ist, bietet der Markt keine außergewöhnlichen Produkte. Üblicherweise werden, je nach TK-Unternehmen, 50 bis 200 Mbit/s angeboten. Die Preise für diese Anschlüsse liegen in der Regel ein gutes Stück über dem von vergleichbaren Produkten auf Kupferbasis. Produkte mit mehr als 100 Mbit/s werden darüber hinaus auf dem Markt fast gar nicht nachgefragt.

Die relativ niedrige Übertragungsrate lässt sich einerseits dadurch erklären, dass im Bereich der Massenprodukte keine hochwertigen Netzkomponenten eingesetzt werden, wie dies beispielsweise im Weitverkehrsnetz der Fall ist. Es ist auch nicht sinnvoll, hier ein Maximum herauszuholen, da dann jeder Anschluss mehr kosten würde, als das Gebäude wert ist. Ferner haben gerade die kleineren Anbieter, wie z. B. Stadtwerke, viel Geld in den Ausbau des Zugangsnetzes investiert und sparen nun an der Anbindung ins Weitverkehrsdatennetz.

Wird man durch einen VDSL-Anschluss mit Vectoring versorgt, sind ebenfalls Übertragungsraten von 100 Mbit/s möglich, und das für niedrigere monatliche Kosten. Mittelfristig kann diese Übertragungsrate in vielen Orten auf 250 Mbit/s gesteigert werden und es besteht ferner die Möglichkeit, den Festnetzanschluss mit LTE zu kombinieren. Hierdurch sind auch ohne Glasfaser in der Wohnung vielerorts sehr hohe Übertragungsraten möglich.

2. Kosten

FTTH ist die mit Abstand teuerste Technologie auf dem Markt. Dies liegt nicht an den verbauten Geräten, hier kann sogar ein Kostenvorteil bestehen. Nein, Treiber ist der Tiefbau.

Trassen von Leitungsträgern sind in der Bundesrepublik vergleichsweise hohen Auflagen unterworfen, z. B. bei der Verlegetiefe. Dafür sind die Gehwege hierzulande aber auch in einem relativ guten Zustand. Allerdings steigert dies die Tiefbaukosten; man kann pauschal mit etwa 100 € pro laufendem Meter in bebautem Gebiet rechnen. Da man für FTTH-Netze nicht nur an jedem Gebäude entlanggraben, sondern auch noch die Tiefbaustrecke über das Grundstück einkalkulieren muss, ergeben sich leicht mehrere tausend Euro Investitionskosten pro Gebäude. Wird ein Mehrfamilienhaus versorgt, teilen sich diese Kosten zwar auf alle Wohneinheiten auf. Dafür muss, im Gegensatz zum Einfamilienhaus, aber auch noch ein Glasfasernetz im Gebäude errichtet werden, was viele Unternehmen der Wohnungswirtschaft ablehnen.

Im Vergleich dazu ist der Ausbau von anderen Technologien deutlich preiswerter. Da der Preistreiber die “letzte Meile” zum Kunden ist, macht es wirtschaftlich mehr Sinn, auf eine Technologie zu setzen, die ein Bestandsnetz nutzt. Dies kann sowohl Vectoring auf der klassischen Kupfer-Doppelader als auch der neue Datenübertragungsstandard auf dem Koaxialkabel des Fernsehnetzes sein. So lassen sich mit einem festgelegten Investitionsvolumen deutlich mehr Haushalte mit hohen Übertragungsraten versorgen.

3. Ausbaudauer und technischer Fortschritt

Mal angenommen, heute würde jemand beschließen, dass ab sofort nur noch FTTH-Anschlüsse gebaut werden dürfen, wie lange würde der Ausbau in der Bundesrepublik dann dauern? Experten schätzen 20 Jahre, wobei ich noch eine Schippe drauflegen würde. Ich gehe nicht davon aus, dass mehr als 2 Mio. Haushalte pro Jahr an ein FTTH-Netz angeschlossen werden könnten. Der Engpass ist hier nicht einmal die mangelnde Planungsressource, sondern schlicht die Tiefbaukapazität, die bereits jetzt nicht in ausreichendem Maße zur Verfügung steht. Es gäbe schlichtweg niemanden, der so einen Netzausbau schneller realisieren könnte.

Und mal angenommen, man würde in dem Gebäude wohnen, das zuletzt angeschlossen wird. Dann hätte man bis 2035 einen Übertragungsrate von vielleicht 10 Mbit/s, während der Rest der Republik schon seit Ewigkeiten deutlich schneller unterwegs ist. Aber es ist davon auszugehen, dass dann auch andere Technologien so hohe Übertragungsraten bieten, dass der Glasfaseranschluss überhaupt nicht mehr benötigt wird. Spätestens wenn der Mobilfunk an der Gigabit-Grenze kratzt und eine gewisse digitale Sättigung eingesetzt hat, müssen wir uns fragen, ob ein Festnetzanschluss überhaupt noch sinnvoll ist.

4. Finanzielles Risiko

Unabhängig von der technischen Realisierbarkeit ist ein FTTH-Netz ein großes finanzielles Risiko. Wie oben beschrieben, ist die Investitionssumme immens hoch. Und die Refinanzierung des Netzes muss binnen weniger Jahre erfolgen, da sonst der technische Fortschritt am Investor vorbeizieht.

Schon einige Investoren, leider allen voran kommunale, haben sich hier verkalkuliert. Die Nachfrage bleibt hinter den Erwartungen zurück, trotz eines Monopols auf das Glasfasernetz. Die Kredite für den Ausbau belasten teilweise über Jahrzehnte die öffentlichen Haushalte. Ein Verkauf ist meist nicht wirtschaftlich oder scheitert schlicht an nicht vorhandenen Interessenten.

5. Plädoyer für die Zukunft

Um zum Ende hin eines klarzustellen: ich finde FTTH super! Aber ich plädiere für einen Einsatz mit Augenmaß. Überall dort, wo neue Netze entstehen, wie beispielsweise in Neubaugebieten, macht ein FTTH-Ausbau selbstverständlich Sinn. Auch bestimmte Bestandsgebiete eignen sich zum Überbau, sei es aufgrund vorhandener Rohranlagen oder bautechnisch günstig gelegener Gebäudekomplexe. Aber eine Forderung nach einer flächendeckenden Realisierung von Glasfaseranschlüssen bis in die Wohnung ist schlichtweg Quatsch.

Besser ist es, auf die Evolution des Netzes zu setzen. So erhält immer ein Teil der Bevölkerung, der bisher schlecht versorgt ist, die jeweils neueste Technologie, wodurch sich für alle Haushalte in einer relativ kurzen Zeit eine deutliche Steigerung der Übertragungsrate sicherstellen lässt. Und das zu verhältnismäßig geringen Ausbaukosten.

Internetzugangsmedien, ein Überblick

Als generelle Zusammenfassung für Interessierte und als Basiswissen für andere Blogeinträge, stelle ich hier einmal die gängigen Medien vor, mit denen zumindest in der Bundesrepublik das Gros der Internetverbindungen realisiert wird. Aber zunächst ein paar Basisinformationen zur Situation in Deutschland:

Die grundsätzliche Netzstruktur wird von der Bundesnetzagentur vorgegeben und ist für alle Telekommunikationsanbieter verbindlich. Es gliedert das Landesnetz der Bundesrepublik in Ortsnetze, die jeweils über eine einheitliche Ortsnetzkennzahl verfügen, besser bekannt als Vorwahl. So hat Hamburg beispielsweise die Ortsnetzkennzahl “40”, Leipzig die “341” und Castrop-Rauxel die “2305”. Diese Ortsnetzkennzahl kann maximal fünfstellig sein, wobei die Führende “0” übrigens nicht Teil der Vorwahl ist, sondern lediglich die sogenannte Verkehrsausscheidungsziffer darstellt. Aber das nur am Rande…

Die Ortsnetze sind wiederum in Anschlussbereiche unterteilt und durchnummeriert. Kleine Ortsnetze bestehen häufig nur aus einem Anschlussbereich, Großstädte hingegen aus einer Vielzahl. Die Grenzen der Anschlussbereiche und Ortsnetze stimmen eher selten mit politischen Grenzen überein und können nur schwer und auch nur durch die BNetzA geändert werden.

Es bleibt jedem Telekommunikationsunternehmen selbst überlassen, wie der Netzaufbau realisiert wird. Allerdings besteht die Vorgabe, dass die Versorgung der Kunden von einem “Verteiler” aus dem jeweiligen Anschlussbereich heraus erfolgen muss. Die Telekom Deutschland, als einziges reguliertes TK-Unternehmen in der Bundesrepublik, unterhält in jedem Anschlussbereich eine Vermittlungsstelle, die in der Größe von einem Einfamilien- bis zu einem Hochhaus variieren kann und auch Technik von Wettbewerbern “beherbergen” muss.

In Deutschland schreibt das Telekommunikationsgesetz vor, dass Telekommunikationsleitungen nicht konzessioniert werden dürfen. Das bedeutet, dass im Gegensatz zu allen anderen Leitungsträgern (Wasser, Abwasser, Strom, Gas etc.) von einer Gemeinde kein alleiniges Nutzungsrecht vergeben werden darf, wodurch sich in der Regel Trassen von mehreren Telekommunikationsunternehmen parallel in den Gehwegen befinden. Wenn möglich werden diese nach einer DIN-Norm vergeben; hierdurch liegen Telekommunikationsleitungen meist hausseitig, gefolgt von Stromleitungen, Gas, Wasser & Co. Wird einer Trasse von der jeweils zuständigen Behörde zugestimmt, so ist diese üblicherweise 30 cm breit (Breite einer Baggerschaufel) und steht diesem Unternehmen exklusiv zur Verfügung.

Soviel zum Hintergrund. Jetzt aber zum eigentlichen Thema:

1. Kupfer-Doppelader

Die Kupfer-Doppelader nutzen hierzulande die mit Abstand meisten Menschen, um zu Hause ihre Verbindung mit dem Internet zu realisieren. Das Kupfernetz stammt aus der Zeit der Bundespost und war dort zunächst das nach dem Zweiten Weltkrieg bzw. nach der Wiedervereinigung komplett neu errichtete Telefonnetz. Fast alle Gebäude verfügen hierzulande über einen Anschluss an ein Verzweigerkabel, das bis zu einem Kabelverzweiger in der Nähe führt. Von dort wurde über einen “Schaltdraht” die Verbindung zu einem Hauptkabel hergestellt, das wiederum vom Verzweiger bis in die Vermittlungsstelle führt.

Da Kupfer eine relativ hohe Signaldämpfung hat, sinkt die verfügbare Übertragungsrate mit dem Abstand zur Vermittlungsstelle. Daher sind seit den 2000er Jahren immer mehr TK-Unternehmen dazu übergegangen, die aktive Technik näher an die Kunden zu verlagern, um den Signalweg über das Kupferkabel zu verkürzen. Üblich ist, hierbei den Kabelverzweiger mit einem größeren Gehäuse zu überbauen, in das aktive Technik gesetzt wird. Dieses Gerät ist auf der einen Seite an ein Glasfaserkabel angeschlossen und direkt mit dem Weitverkehrsdatennetz des Anbieters verbunden. Auf der anderen Seite wird das Kupfer-Verzweigerkabel genutzt, um die Verbindung zum Kunden herzustellen. Durch diese Maßnahme erhöht sich die mögliche Übertragungsrate deutlich; aktuell werden in der Bundesrepublik bis zu 100 Mbit/s über diesen Weg angeboten. Der nächste Technologiesprung steht hier bereits in den Startlöchern, aus diesem Grund ist in den kommenden Jahren mit einer Erhöhung der möglichen Übertragungsrate bis auf 250 Mbit/s zu rechnen. Technisch sind langfristig ca. 800 Mbit/s auf der Kupfer-Doppelader möglich.

Die Kupfer-Doppelader ist kein geteiltes Medium. Da für die ursprüngliche Funktion des Netzes, die Telefonie, jeder Teilnehmer Signale sowohl senden als auch empfangen muss, verfügt jeder Kunde auch über eine exklusiv für ihn nutzbare Kupferstrecke. Aufgrund der Kabeleigenschaften (Kabellänge bis in die Wohnung, verwendete Kabeltypen) hat jeder xDSL-Anschluss zwar eine individuelle maximal mögliche Übertragungsrate, die auch deutlich unter dem liegen kann, was die Technologie hergibt. Dafür steht diese Übertragungsrate dem Kunden konstant und zur alleinigen Nutzung zur Verfügung.

2. Koaxialkabel

Seit in den 1970er Jahren das Kabelfernsehnetz verlegt worden ist, sind zumindest in den Ballungszentren parallel zu den “alten” Kupfer-Doppeladern auch Kupfer-Koaxialkabel vorhanden. Dieses Netz war ursprünglich dazu gedacht, die Fernsehsignale, von wenigen Kopfstellen ausgehend, über verschiedene Verteilerebenen bis in die Haushalte zu senden. Jedes Haus in einem Straßenzug wurde an dasselbe Kabel angeschlossen. Ein Rückkanal war zunächst nicht vorgesehen.

Mit dem Verkauf der Kabelnetze war Anfang der 2000er Jahre der Weg für einen rückkanalfähigen Ausbau frei. Seitdem wird ein Teil des zur Verfügung stehenden Frequenzspektrums des Fernsehsignals für den Datenverkehr genutzt. Die Verteilerschränke sind mittlerweile in vielen Fällen mit einem eigenen Glasfaseranschluss ausgestattet und ein Gerät in diesem Schrank trennt die Datensignale vom Fernsehsignal. Genau wie beim Telefonnetz wird somit in der Regel nur noch auf dem letzten Stück zwischen Verteiler und Kunde das Kupferkabel genutzt.

Mit dem aktuellen Standard sind auf dem Koaxialkabel theoretisch Übertragungsraten bis zu 1,6 Gbit/s möglich. Um nicht zu viele Fernsehkanäle einzubüßen, werden hiervon in der Regel aktuell aber nur gut 300 Mbit/s genutzt. Mit Einführung der neuesten Technologie können diese Übertragungsraten in naher Zukunft annähernd verzehnfacht werden.

Im Gegensatz zum Telefonnetz ist das Fernsehnetz ein geteiltes Medium. Das bedeutet, dass sich alle Kunden in einem Segment die maximal verfügbare Übertragungsrate teilen müssen, da sie alle an dasselbe Kabel angeschlossen sind. Dies geschieht über Zeitschlitze; alle Kunden sind nacheinander an der Reihe und dürfen jeweils für einen definierten Zeitabschnitt Daten senden bzw. empfangen. Die individuelle Übertragungsrate ist somit davon abhängig, wie viele Kunden im Netzsegment gerade Daten übertragen möchten. Hierdurch kann es durchaus vorkommen, dass tagsüber bis zu 30 Mbit/s zur Verfügung stehen, abends, wenn die Nachfrage nach Datenverkehr steigt, aber nur etwa 10 Mbit/s.

3. Luft

Spätestens seit der Einführung von Long Term Evolution, besser bekannt als LTE oder 4G, Anfang der 2010er Jahre sind in der Bundesrepublik nahezu flächendeckend mobile Breitbandverbindungen möglich. Diese Zugangstechnologie wird nicht mehr nur für mobile Endgeräte und Anwendungen genutzt, sondern soll darüber hinaus auch als Ersatz für klassische Breitband-Festnetzanschlüsse dienen.

In Europa wird LTE in drei verschiedene Frequenzbereich aufgeteilt: Der Bereich um 800 MHz ermöglicht hohe Reichweiten, aber nur Übertragungsraten bis etwa 50 Mbit/s. Im Frequenzblock um 1.800 MHz sind dann bis zu 150 Mbit/s möglich. Der dritte Frequenzbereich um 2.600 MHz hat zwar die geringste Signalreichweite, bietet aber schon heute Übertragungsraten bis 300 Mbit/s an. Mit der Einführung von LTE-Advanced wird es außerdem zu einer Steigerung bis auf 1 Gbit/s kommen.

Die tatsächliche mögliche Übertragungsrate beim Kunden ist von vielen Faktoren abhängig. Grundsätzlich gilt, dass die Rate sinkt, je weiter Sender und Empfänger voneinander entfernt sind. Aber auch Hindernisse, wie z. B. Bäume oder Wände, oder das Wetter haben Einfluss auf die Signalqualität. Darüber hinaus bedeutet beim Mobilfunk eine theoretisch mögliche Übertragungsrate von bspw. 1 Gbit/s nicht, dass der Funkturm auch “schnell” genug angebunden ist, um diese Daten ins Weitverkehrsnetz zu transportieren. Die Funktürme die meisten Anbieter verfügen heutzutage aber über eine ausreichende Glasfaseranbindung.

Funknetze sind geteilte Medien. Das bedeutet, dass sich alle Teilnehmer in einer Funkzelle die verfügbare Übertragungsrate teilen, was wie beim Fernsehkabelnetz über Zeitschlitze realisiert wird. Die an stationären LTE-Anschlüssen verfügbare Übertragungsrate ist somit grundsätzlich auch davon abhängig, wie viele Daten die anderen Teilnehmer in der Funkzelle übertragen.

Insbesondere für abgelegene oder schlecht versorgte Landstriche bieten stationäre Internetverbindungen über LTE eine Alternative, da in diesen ein Ausbau der Festnetztechnologien in vielen Fällen unwirtschaftlich ist. In Städten hingegen lässt sich LTE mit einer klassischen Festnetztechnologie kombinieren, um einerseits die Gesamtübertragungsrate zu erhöhen und andererseits einen Zweitweg und damit eine höhere Ausfallsicherheit des Anschlusses zu realisieren.

4. Glasfaser

Da momentan sehr viele Zugangstechnologien mit dem Schlagwort “Glasfaser-Technologie” beworben werden, sei an dieser Stelle darauf hingewiesen, dass natürlich alle Internetanschlüsse über Glasfaser realisiert werden. Die Frage ist, bis zu welchem Punkt diese Glasfasern verlegt worden sind. Wie oben erläutert, enden diese für den überwiegenden Großteil der versorgten Haushalte entweder in einem Verteilerschrank in der Nachbarschaft oder am Mobilfunkmast.

Es gibt aber auch Zugänge, bei denen die Glasfaser mehr oder weniger direkt bis zum Kunden verlegt worden ist:

Bei “Fibre to the Building” (FTTB) endet die Glasfaser im Hausanschlussraum des versorgten Gebäudes. Dort befindet sich ein Gerät, dass die optischen Signale der Glasfaser wieder in elektrische Signale wandelt und die Haushalte in der Regel über das hausinterne Kupfernetz (Telefonnetz) versorgt. Insbesondere kleinere Telekommunikationsanbieter, wie z. B. Stadtwerke, nutzen diese Technologie.

Bei “Fibre to the Premises” (FTTP) wird ein Glasfaserkabel bis in jede Wohnung verlegt und erst dort an einem Kundengerät abgeschlossen. Diese Technologie bietet das höchste Potenzial an Übertragungsrate, ist aber auch am aufwendigsten zu realisieren, da nicht nur das Gebäude versorgt werden, sondern auch ein Glasfaser-Inhausnetz gebaut werden muss.

Für Einfamilienhäuser werden beide Varianten häufig unter dem Begriff “Fibre to the Home ” (FTTH) zusammengefasst, da sie hier baulich identisch sind.

Im Gegensatz zu den oben vorgestellten Technologien ist der “Glasfaseranschluss” am wenigsten genormt. Die Qualität der Netzwerkstruktur fällt daher recht unterschiedlich aus. Manche Anbieter installieren Technik mit Standardnetzwerkkomponenten, der de facto alle Kunden zu einem Netzwerk vor Ort zusammenschließt. Die Kunden werden an Netzwerkweichen, sogenannte Switche, angeschlossen und der Datenverkehr so Segment für Segment gebündelt, bis er schließlich an das Weitverkehrsdatennetz übergeben wird. Hierdurch lässt sich formal eine Übertragungsrate von üblicherweise 1 Gbit/s herstellen, die in der Praxis aber durch die vielen Netzsegmente deutlich geringer ausfällt.

Andere Anbieter hingegen verwenden auf ihrer Glasfaserstrecke gar keine aktive Technik mehr und binden jeden Kunden direkt an einen zentralen Netzwerkknoten an. Da der Abschluss von Glasfasern in Technikstandorten relativ viel Platz einnimmt, ist es auch üblich, eine Faser im Hauptkabel über optische Koppler mehreren Kunden zur Verfügung zu stellen. Diese fest definierte Anzahl an Kunden teilt sich auf der Faser den Datenverkehr in maximal 32 Zeitschlitzen. Da die Zeitschlitze fest definiert sind, stehet jedem Teilnehmer immer dieselbe Übertragungsrate zur Verfügung. Diese Variante von FTTB gilt daher nicht als geteiltes Medium.

Bundesweit werden aktuell üblicherweise Übertragungsraten zwischen 50 und 200 Mbit/s für Privatkundenanschlüsse angeboten. Eine Grenze nach oben ist technisch zurzeit nicht in Sicht.