Archiv für den Monat: August 2015

FTTH – eine Nischentechnologie

Hinweis: ein anderer Beitrag geht näher auf die hier behandelte Technologie ein.

Glasfaseranschlüsse sind seit einigen Jahren in aller Munde. Da ich in der Branche arbeite und mich täglich mit den unterschiedlichen Technologien beschäftige, ist es Zeit für mich, das Thema FTTH & Co. kritisch zu beleuchten.

1. Übertragungsrate

Es stimmt, die Glasfaser in der Wohnung bietet die höchste Übertragungsrate. Zumindest theoretisch. Denn auch wenn ein Ende der maximal möglichen Bitrate über Glas noch nicht in Sicht ist, bietet der Markt keine außergewöhnlichen Produkte. Üblicherweise werden, je nach TK-Unternehmen, 50 bis 200 Mbit/s angeboten. Die Preise für diese Anschlüsse liegen in der Regel ein gutes Stück über dem von vergleichbaren Produkten auf Kupferbasis. Produkte mit mehr als 100 Mbit/s werden darüber hinaus auf dem Markt fast gar nicht nachgefragt.

Die relativ niedrige Übertragungsrate lässt sich einerseits dadurch erklären, dass im Bereich der Massenprodukte keine hochwertigen Netzkomponenten eingesetzt werden, wie dies beispielsweise im Weitverkehrsnetz der Fall ist. Es ist auch nicht sinnvoll, hier ein Maximum herauszuholen, da dann jeder Anschluss mehr kosten würde, als das Gebäude wert ist. Ferner haben gerade die kleineren Anbieter, wie z. B. Stadtwerke, viel Geld in den Ausbau des Zugangsnetzes investiert und sparen nun an der Anbindung ins Weitverkehrsdatennetz.

Wird man durch einen VDSL-Anschluss mit Vectoring versorgt, sind ebenfalls Übertragungsraten von 100 Mbit/s möglich, und das für niedrigere monatliche Kosten. Mittelfristig kann diese Übertragungsrate in vielen Orten auf 250 Mbit/s gesteigert werden und es besteht ferner die Möglichkeit, den Festnetzanschluss mit LTE zu kombinieren. Hierdurch sind auch ohne Glasfaser in der Wohnung vielerorts sehr hohe Übertragungsraten möglich.

2. Kosten

FTTH ist die mit Abstand teuerste Technologie auf dem Markt. Dies liegt nicht an den verbauten Geräten, hier kann sogar ein Kostenvorteil bestehen. Nein, Treiber ist der Tiefbau.

Trassen von Leitungsträgern sind in der Bundesrepublik vergleichsweise hohen Auflagen unterworfen, z. B. bei der Verlegetiefe. Dafür sind die Gehwege hierzulande aber auch in einem relativ guten Zustand. Allerdings steigert dies die Tiefbaukosten; man kann pauschal mit etwa 100 € pro laufendem Meter in bebautem Gebiet rechnen. Da man für FTTH-Netze nicht nur an jedem Gebäude entlanggraben, sondern auch noch die Tiefbaustrecke über das Grundstück einkalkulieren muss, ergeben sich leicht mehrere tausend Euro Investitionskosten pro Gebäude. Wird ein Mehrfamilienhaus versorgt, teilen sich diese Kosten zwar auf alle Wohneinheiten auf. Dafür muss, im Gegensatz zum Einfamilienhaus, aber auch noch ein Glasfasernetz im Gebäude errichtet werden, was viele Unternehmen der Wohnungswirtschaft ablehnen.

Im Vergleich dazu ist der Ausbau von anderen Technologien deutlich preiswerter. Da der Preistreiber die “letzte Meile” zum Kunden ist, macht es wirtschaftlich mehr Sinn, auf eine Technologie zu setzen, die ein Bestandsnetz nutzt. Dies kann sowohl Vectoring auf der klassischen Kupfer-Doppelader als auch der neue Datenübertragungsstandard auf dem Koaxialkabel des Fernsehnetzes sein. So lassen sich mit einem festgelegten Investitionsvolumen deutlich mehr Haushalte mit hohen Übertragungsraten versorgen.

3. Ausbaudauer und technischer Fortschritt

Mal angenommen, heute würde jemand beschließen, dass ab sofort nur noch FTTH-Anschlüsse gebaut werden dürfen, wie lange würde der Ausbau in der Bundesrepublik dann dauern? Experten schätzen 20 Jahre, wobei ich noch eine Schippe drauflegen würde. Ich gehe nicht davon aus, dass mehr als 2 Mio. Haushalte pro Jahr an ein FTTH-Netz angeschlossen werden könnten. Der Engpass ist hier nicht einmal die mangelnde Planungsressource, sondern schlicht die Tiefbaukapazität, die bereits jetzt nicht in ausreichendem Maße zur Verfügung steht. Es gäbe schlichtweg niemanden, der so einen Netzausbau schneller realisieren könnte.

Und mal angenommen, man würde in dem Gebäude wohnen, das zuletzt angeschlossen wird. Dann hätte man bis 2035 einen Übertragungsrate von vielleicht 10 Mbit/s, während der Rest der Republik schon seit Ewigkeiten deutlich schneller unterwegs ist. Aber es ist davon auszugehen, dass dann auch andere Technologien so hohe Übertragungsraten bieten, dass der Glasfaseranschluss überhaupt nicht mehr benötigt wird. Spätestens wenn der Mobilfunk an der Gigabit-Grenze kratzt und eine gewisse digitale Sättigung eingesetzt hat, müssen wir uns fragen, ob ein Festnetzanschluss überhaupt noch sinnvoll ist.

4. Finanzielles Risiko

Unabhängig von der technischen Realisierbarkeit ist ein FTTH-Netz ein großes finanzielles Risiko. Wie oben beschrieben, ist die Investitionssumme immens hoch. Und die Refinanzierung des Netzes muss binnen weniger Jahre erfolgen, da sonst der technische Fortschritt am Investor vorbeizieht.

Schon einige Investoren, leider allen voran kommunale, haben sich hier verkalkuliert. Die Nachfrage bleibt hinter den Erwartungen zurück, trotz eines Monopols auf das Glasfasernetz. Die Kredite für den Ausbau belasten teilweise über Jahrzehnte die öffentlichen Haushalte. Ein Verkauf ist meist nicht wirtschaftlich oder scheitert schlicht an nicht vorhandenen Interessenten.

5. Plädoyer für die Zukunft

Um zum Ende hin eines klarzustellen: ich finde FTTH super! Aber ich plädiere für einen Einsatz mit Augenmaß. Überall dort, wo neue Netze entstehen, wie beispielsweise in Neubaugebieten, macht ein FTTH-Ausbau selbstverständlich Sinn. Auch bestimmte Bestandsgebiete eignen sich zum Überbau, sei es aufgrund vorhandener Rohranlagen oder bautechnisch günstig gelegener Gebäudekomplexe. Aber eine Forderung nach einer flächendeckenden Realisierung von Glasfaseranschlüssen bis in die Wohnung ist schlichtweg Quatsch.

Besser ist es, auf die Evolution des Netzes zu setzen. So erhält immer ein Teil der Bevölkerung, der bisher schlecht versorgt ist, die jeweils neueste Technologie, wodurch sich für alle Haushalte in einer relativ kurzen Zeit eine deutliche Steigerung der Übertragungsrate sicherstellen lässt. Und das zu verhältnismäßig geringen Ausbaukosten.

Internetzugangsmedien, ein Überblick

Als generelle Zusammenfassung für Interessierte und als Basiswissen für andere Blogeinträge, stelle ich hier einmal die gängigen Medien vor, mit denen zumindest in der Bundesrepublik das Gros der Internetverbindungen realisiert wird. Aber zunächst ein paar Basisinformationen zur Situation in Deutschland:

Die grundsätzliche Netzstruktur wird von der Bundesnetzagentur vorgegeben und ist für alle Telekommunikationsanbieter verbindlich. Es gliedert das Landesnetz der Bundesrepublik in Ortsnetze, die jeweils über eine einheitliche Ortsnetzkennzahl verfügen, besser bekannt als Vorwahl. So hat Hamburg beispielsweise die Ortsnetzkennzahl “40”, Leipzig die “341” und Castrop-Rauxel die “2305”. Diese Ortsnetzkennzahl kann maximal fünfstellig sein, wobei die Führende “0” übrigens nicht Teil der Vorwahl ist, sondern lediglich die sogenannte Verkehrsausscheidungsziffer darstellt. Aber das nur am Rande…

Die Ortsnetze sind wiederum in Anschlussbereiche unterteilt und durchnummeriert. Kleine Ortsnetze bestehen häufig nur aus einem Anschlussbereich, Großstädte hingegen aus einer Vielzahl. Die Grenzen der Anschlussbereiche und Ortsnetze stimmen eher selten mit politischen Grenzen überein und können nur schwer und auch nur durch die BNetzA geändert werden.

Es bleibt jedem Telekommunikationsunternehmen selbst überlassen, wie der Netzaufbau realisiert wird. Allerdings besteht die Vorgabe, dass die Versorgung der Kunden von einem “Verteiler” aus dem jeweiligen Anschlussbereich heraus erfolgen muss. Die Telekom Deutschland, als einziges reguliertes TK-Unternehmen in der Bundesrepublik, unterhält in jedem Anschlussbereich eine Vermittlungsstelle, die in der Größe von einem Einfamilien- bis zu einem Hochhaus variieren kann und auch Technik von Wettbewerbern “beherbergen” muss.

In Deutschland schreibt das Telekommunikationsgesetz vor, dass Telekommunikationsleitungen nicht konzessioniert werden dürfen. Das bedeutet, dass im Gegensatz zu allen anderen Leitungsträgern (Wasser, Abwasser, Strom, Gas etc.) von einer Gemeinde kein alleiniges Nutzungsrecht vergeben werden darf, wodurch sich in der Regel Trassen von mehreren Telekommunikationsunternehmen parallel in den Gehwegen befinden. Wenn möglich werden diese nach einer DIN-Norm vergeben; hierdurch liegen Telekommunikationsleitungen meist hausseitig, gefolgt von Stromleitungen, Gas, Wasser & Co. Wird einer Trasse von der jeweils zuständigen Behörde zugestimmt, so ist diese üblicherweise 30 cm breit (Breite einer Baggerschaufel) und steht diesem Unternehmen exklusiv zur Verfügung.

Soviel zum Hintergrund. Jetzt aber zum eigentlichen Thema:

1. Kupfer-Doppelader

Die Kupfer-Doppelader nutzen hierzulande die mit Abstand meisten Menschen, um zu Hause ihre Verbindung mit dem Internet zu realisieren. Das Kupfernetz stammt aus der Zeit der Bundespost und war dort zunächst das nach dem Zweiten Weltkrieg bzw. nach der Wiedervereinigung komplett neu errichtete Telefonnetz. Fast alle Gebäude verfügen hierzulande über einen Anschluss an ein Verzweigerkabel, das bis zu einem Kabelverzweiger in der Nähe führt. Von dort wurde über einen “Schaltdraht” die Verbindung zu einem Hauptkabel hergestellt, das wiederum vom Verzweiger bis in die Vermittlungsstelle führt.

Da Kupfer eine relativ hohe Signaldämpfung hat, sinkt die verfügbare Übertragungsrate mit dem Abstand zur Vermittlungsstelle. Daher sind seit den 2000er Jahren immer mehr TK-Unternehmen dazu übergegangen, die aktive Technik näher an die Kunden zu verlagern, um den Signalweg über das Kupferkabel zu verkürzen. Üblich ist, hierbei den Kabelverzweiger mit einem größeren Gehäuse zu überbauen, in das aktive Technik gesetzt wird. Dieses Gerät ist auf der einen Seite an ein Glasfaserkabel angeschlossen und direkt mit dem Weitverkehrsdatennetz des Anbieters verbunden. Auf der anderen Seite wird das Kupfer-Verzweigerkabel genutzt, um die Verbindung zum Kunden herzustellen. Durch diese Maßnahme erhöht sich die mögliche Übertragungsrate deutlich; aktuell werden in der Bundesrepublik bis zu 100 Mbit/s über diesen Weg angeboten. Der nächste Technologiesprung steht hier bereits in den Startlöchern, aus diesem Grund ist in den kommenden Jahren mit einer Erhöhung der möglichen Übertragungsrate bis auf 250 Mbit/s zu rechnen. Technisch sind langfristig ca. 800 Mbit/s auf der Kupfer-Doppelader möglich.

Die Kupfer-Doppelader ist kein geteiltes Medium. Da für die ursprüngliche Funktion des Netzes, die Telefonie, jeder Teilnehmer Signale sowohl senden als auch empfangen muss, verfügt jeder Kunde auch über eine exklusiv für ihn nutzbare Kupferstrecke. Aufgrund der Kabeleigenschaften (Kabellänge bis in die Wohnung, verwendete Kabeltypen) hat jeder xDSL-Anschluss zwar eine individuelle maximal mögliche Übertragungsrate, die auch deutlich unter dem liegen kann, was die Technologie hergibt. Dafür steht diese Übertragungsrate dem Kunden konstant und zur alleinigen Nutzung zur Verfügung.

2. Koaxialkabel

Seit in den 1970er Jahren das Kabelfernsehnetz verlegt worden ist, sind zumindest in den Ballungszentren parallel zu den “alten” Kupfer-Doppeladern auch Kupfer-Koaxialkabel vorhanden. Dieses Netz war ursprünglich dazu gedacht, die Fernsehsignale, von wenigen Kopfstellen ausgehend, über verschiedene Verteilerebenen bis in die Haushalte zu senden. Jedes Haus in einem Straßenzug wurde an dasselbe Kabel angeschlossen. Ein Rückkanal war zunächst nicht vorgesehen.

Mit dem Verkauf der Kabelnetze war Anfang der 2000er Jahre der Weg für einen rückkanalfähigen Ausbau frei. Seitdem wird ein Teil des zur Verfügung stehenden Frequenzspektrums des Fernsehsignals für den Datenverkehr genutzt. Die Verteilerschränke sind mittlerweile in vielen Fällen mit einem eigenen Glasfaseranschluss ausgestattet und ein Gerät in diesem Schrank trennt die Datensignale vom Fernsehsignal. Genau wie beim Telefonnetz wird somit in der Regel nur noch auf dem letzten Stück zwischen Verteiler und Kunde das Kupferkabel genutzt.

Mit dem aktuellen Standard sind auf dem Koaxialkabel theoretisch Übertragungsraten bis zu 1,6 Gbit/s möglich. Um nicht zu viele Fernsehkanäle einzubüßen, werden hiervon in der Regel aktuell aber nur gut 300 Mbit/s genutzt. Mit Einführung der neuesten Technologie können diese Übertragungsraten in naher Zukunft annähernd verzehnfacht werden.

Im Gegensatz zum Telefonnetz ist das Fernsehnetz ein geteiltes Medium. Das bedeutet, dass sich alle Kunden in einem Segment die maximal verfügbare Übertragungsrate teilen müssen, da sie alle an dasselbe Kabel angeschlossen sind. Dies geschieht über Zeitschlitze; alle Kunden sind nacheinander an der Reihe und dürfen jeweils für einen definierten Zeitabschnitt Daten senden bzw. empfangen. Die individuelle Übertragungsrate ist somit davon abhängig, wie viele Kunden im Netzsegment gerade Daten übertragen möchten. Hierdurch kann es durchaus vorkommen, dass tagsüber bis zu 30 Mbit/s zur Verfügung stehen, abends, wenn die Nachfrage nach Datenverkehr steigt, aber nur etwa 10 Mbit/s.

3. Luft

Spätestens seit der Einführung von Long Term Evolution, besser bekannt als LTE oder 4G, Anfang der 2010er Jahre sind in der Bundesrepublik nahezu flächendeckend mobile Breitbandverbindungen möglich. Diese Zugangstechnologie wird nicht mehr nur für mobile Endgeräte und Anwendungen genutzt, sondern soll darüber hinaus auch als Ersatz für klassische Breitband-Festnetzanschlüsse dienen.

In Europa wird LTE in drei verschiedene Frequenzbereich aufgeteilt: Der Bereich um 800 MHz ermöglicht hohe Reichweiten, aber nur Übertragungsraten bis etwa 50 Mbit/s. Im Frequenzblock um 1.800 MHz sind dann bis zu 150 Mbit/s möglich. Der dritte Frequenzbereich um 2.600 MHz hat zwar die geringste Signalreichweite, bietet aber schon heute Übertragungsraten bis 300 Mbit/s an. Mit der Einführung von LTE-Advanced wird es außerdem zu einer Steigerung bis auf 1 Gbit/s kommen.

Die tatsächliche mögliche Übertragungsrate beim Kunden ist von vielen Faktoren abhängig. Grundsätzlich gilt, dass die Rate sinkt, je weiter Sender und Empfänger voneinander entfernt sind. Aber auch Hindernisse, wie z. B. Bäume oder Wände, oder das Wetter haben Einfluss auf die Signalqualität. Darüber hinaus bedeutet beim Mobilfunk eine theoretisch mögliche Übertragungsrate von bspw. 1 Gbit/s nicht, dass der Funkturm auch “schnell” genug angebunden ist, um diese Daten ins Weitverkehrsnetz zu transportieren. Die Funktürme die meisten Anbieter verfügen heutzutage aber über eine ausreichende Glasfaseranbindung.

Funknetze sind geteilte Medien. Das bedeutet, dass sich alle Teilnehmer in einer Funkzelle die verfügbare Übertragungsrate teilen, was wie beim Fernsehkabelnetz über Zeitschlitze realisiert wird. Die an stationären LTE-Anschlüssen verfügbare Übertragungsrate ist somit grundsätzlich auch davon abhängig, wie viele Daten die anderen Teilnehmer in der Funkzelle übertragen.

Insbesondere für abgelegene oder schlecht versorgte Landstriche bieten stationäre Internetverbindungen über LTE eine Alternative, da in diesen ein Ausbau der Festnetztechnologien in vielen Fällen unwirtschaftlich ist. In Städten hingegen lässt sich LTE mit einer klassischen Festnetztechnologie kombinieren, um einerseits die Gesamtübertragungsrate zu erhöhen und andererseits einen Zweitweg und damit eine höhere Ausfallsicherheit des Anschlusses zu realisieren.

4. Glasfaser

Da momentan sehr viele Zugangstechnologien mit dem Schlagwort “Glasfaser-Technologie” beworben werden, sei an dieser Stelle darauf hingewiesen, dass natürlich alle Internetanschlüsse über Glasfaser realisiert werden. Die Frage ist, bis zu welchem Punkt diese Glasfasern verlegt worden sind. Wie oben erläutert, enden diese für den überwiegenden Großteil der versorgten Haushalte entweder in einem Verteilerschrank in der Nachbarschaft oder am Mobilfunkmast.

Es gibt aber auch Zugänge, bei denen die Glasfaser mehr oder weniger direkt bis zum Kunden verlegt worden ist:

Bei “Fibre to the Building” (FTTB) endet die Glasfaser im Hausanschlussraum des versorgten Gebäudes. Dort befindet sich ein Gerät, dass die optischen Signale der Glasfaser wieder in elektrische Signale wandelt und die Haushalte in der Regel über das hausinterne Kupfernetz (Telefonnetz) versorgt. Insbesondere kleinere Telekommunikationsanbieter, wie z. B. Stadtwerke, nutzen diese Technologie.

Bei “Fibre to the Premises” (FTTP) wird ein Glasfaserkabel bis in jede Wohnung verlegt und erst dort an einem Kundengerät abgeschlossen. Diese Technologie bietet das höchste Potenzial an Übertragungsrate, ist aber auch am aufwendigsten zu realisieren, da nicht nur das Gebäude versorgt werden, sondern auch ein Glasfaser-Inhausnetz gebaut werden muss.

Für Einfamilienhäuser werden beide Varianten häufig unter dem Begriff “Fibre to the Home ” (FTTH) zusammengefasst, da sie hier baulich identisch sind.

Im Gegensatz zu den oben vorgestellten Technologien ist der “Glasfaseranschluss” am wenigsten genormt. Die Qualität der Netzwerkstruktur fällt daher recht unterschiedlich aus. Manche Anbieter installieren Technik mit Standardnetzwerkkomponenten, der de facto alle Kunden zu einem Netzwerk vor Ort zusammenschließt. Die Kunden werden an Netzwerkweichen, sogenannte Switche, angeschlossen und der Datenverkehr so Segment für Segment gebündelt, bis er schließlich an das Weitverkehrsdatennetz übergeben wird. Hierdurch lässt sich formal eine Übertragungsrate von üblicherweise 1 Gbit/s herstellen, die in der Praxis aber durch die vielen Netzsegmente deutlich geringer ausfällt.

Andere Anbieter hingegen verwenden auf ihrer Glasfaserstrecke gar keine aktive Technik mehr und binden jeden Kunden direkt an einen zentralen Netzwerkknoten an. Da der Abschluss von Glasfasern in Technikstandorten relativ viel Platz einnimmt, ist es auch üblich, eine Faser im Hauptkabel über optische Koppler mehreren Kunden zur Verfügung zu stellen. Diese fest definierte Anzahl an Kunden teilt sich auf der Faser den Datenverkehr in maximal 32 Zeitschlitzen. Da die Zeitschlitze fest definiert sind, stehet jedem Teilnehmer immer dieselbe Übertragungsrate zur Verfügung. Diese Variante von FTTB gilt daher nicht als geteiltes Medium.

Bundesweit werden aktuell üblicherweise Übertragungsraten zwischen 50 und 200 Mbit/s für Privatkundenanschlüsse angeboten. Eine Grenze nach oben ist technisch zurzeit nicht in Sicht.