Alle Beiträge von Sebastian

Arbeiten endlich online

Wozu so ein verregneter Brückentag doch alles gut ist…

Ich habe es endlich geschafft, meine Arbeiten von der alten auf die neue Website zu migrieren. Das freut nicht nur die Suchmaschinen, sonder auch die Wissenschaft. 🙂

Ihr findet alle meine unter einer Creative-Commons-Lizenz veröffentlichen Dokumente im Menü unter Arbeiten oder durch einen Klick auf das jeweilige Thema.

SPD – Lasst uns den Neustart wagen

Martin Schulz

Es ist der Tag nach der Bundestagswahl 2017. Der Schock weicht allmählich, der Alltag kehrt langsam zurück. Die AfD, der gestern jede*r achte Wahlberechtigte die Stimme gegeben hat, überrascht heute mit ihrer Spaltung. Popcorn gegen den Gefühlskater, aber so richtig will keine Freude aufkommen.

So wie ich mich heute fühle, muss es Fußballfans nach einer krachenden Niederlage gehen. Nur ist das hier kein Spiel, sondern bittere Realität. Als Sozi habe ich es da gleich doppelt schwer; es wird nicht nur die freiheitlich-demokratische Grundordnung infrage gestellt, sondern meine Partei versinkt auch noch im Eiltempo in der Bedeutungslosigkeit.

Wer mich kennt, kennt mich als unerschütterlichen Optimisten. Aber selbst mein Optimismus wird auf eine harte Probe gestellt. Was haben wir alles falsch gemacht? Warum lassen sich sozialdemokratische Themen nicht platzieren? Oder nimmt uns schlichtweg niemand mehr ernst?

Nach einer Nacht und einem Tag zum Nachdenken, bin ich zu der Überzeugung gelangt, dass wir, also die SPD, einen Neustart brauchen. Und damit meine ich einen radikalen Bruch und nicht ein erneutes Hochfahren des alten Betriebssystems. Hierfür benötigen wir eine andere Struktur, eine andere Arbeitsweise und vor allem anderes Personal. Aber der Reihe nach.

Schritt 1: Struktur verändern und Basisdemokratie schaffen

Die SPD ist organisiert wie anno dazumal. Wir haben Landesverbände, die in Kreisverbände unterteilt sind, die in Ortsvereine unterteilt sind. Wollen wir Basismitglieder mitbestimmen, dann wählen wir unsere Delegierten für die Landeskonferenzen, die wiederum Delegierte für die Bundeskonferenzen wählen und so weiter. Im Endeffekt führt dies dazu, dass die meisten Mitglieder in der Partei de facto nichts zu sagen haben. Wer das meiste „Sitzfleisch“ besitzt, dem winken hingegen Posten und Einfluss. Und schaffe ich es nicht zum Ortsvereinstreffen, weil ich zum Beispiel nach zehn Stunden Arbeit gerade meinen eineinhalbstündigen Heimweg antrete, wenn das Treffen losgeht, kann ich nicht mitgestalten.

Man möge mich nicht falsch verstehen. Ich finde die Ortsvereine prinzipiell gut und ich hatte mit meinen bisher auch immer Glück. Aber dass alles von einer lokalen, hierarchischen Struktur ausgeht, hat mit einem modernen Demokratieverständnis in meinen Augen wenig zu tun. Ich fordere, dass wir unsere Satzung über Bord schmeißen und uns eine neue geben, die sich an der von anderen Parteien orientiert. Die Grünen, aber auch die mittlerweile bedeutungslos gewordenen Piraten, sind hier moderner und zukunftsorientierter aufgestellt.

Mir ist bewusst, dass nicht jede*r die Muße hat, ein dreihundertseitiges Antragsbuch für einen Parteitag nach Feierabend durchzuarbeiten. Aber es muss doch die Möglichkeit dazu bestehen! Direkt partizipieren zu können, ist für mich das entscheidende Element der Erneuerung der Partei. Der Kern, aus dessen Keim etwas Neues entsteht.

Schritt 2: Kommunikation mit den Wähler*innen

Entscheidend bei der Übermittlung einer Nachricht ist nicht, was der Sender sendet, sondern was beim Empfänger ankommt. Diese simple Regel haben wir nicht beachtet. Seit Jahren schon nicht.

Wahrgenommen werden wir als die Partei, die ihre Werte und ihre Stammwählerschaft verraten hat. Mit der Agenda 2010 haben wir vielen Menschen Sicherheit genommen und sie einem wilden Markt überlassen, die Ausbeutung von geringqualifizierten Arbeitskräften vorangetrieben und den ganzen Kontinent damit in eine Krise gestürzt. Vor allem aber haben wir eine neue soziale Klasse geschaffen, die es vorher nicht gab, und sie mit dem Label „Hartz IV“ versehen, das den Betroffenen ihre Würde nimmt und sie sozial ausgrenzt. Mir ist bewusst, dass das natürlich niemals beabsichtigt war und dass die Bundesrepublik ohne Umbau der Sozialsysteme womöglich wirtschaftlich jetzt viel schlechter dastünde. Ich kenne die Debatten darüber zur Genüge, die die Partei innerlich häufig zu zerreißen drohen.

Aber darauf kommt es überhaupt nicht an! Denn ausschlaggebend ist eben nicht, wie oben geschrieben, was beabsichtigt war. Sondern nur, wie das Resultat wahrgenommen wird.

Deshalb brauchen wir auch hier einen Schnitt mit der Vergangenheit. Ich erwarte, dass sich unser Parteivorsitzender hinstellt und sich entschuldigt. Und dabei ruhig erklärt, wie es zum Status quo gekommen ist, was beabsichtigt war, und was nicht. Das ist der erste Schritt, der unbedingt vor allen anderen gemacht werden muss. Ohne Entschuldigung, ohne das Überseinenschattenspringen zu Beginn lässt sich kein Streit schlichten, kein Konflikt lösen.

Ist dieser erste Schritt getan, gilt es, verlorenes Vertrauen wieder aufzubauen. Und das bedeutet: miteinander Sprechen, Dinge vereinbaren und danach handeln. Das ist bei einer Person natürlich leichter als bei 80 Millionen. Aber genau das ist unsere Aufgabe für die nächsten Jahre.

Schritt 3: Zukunftsvisionen schaffen

Der Anfang ist gemacht, aber wie geht es weiter? Ganz einfach, wir müssen uns auf unsere Stärke besinnen. Und die ist eben nicht, Klientelpolitik für „unsere“ Leute zu machen, Unerfüllbares zu versprechen oder gar Angst, Hass und Missgunst zu säen. Nein, wir sind die Partei der Zukunftsgestaltung.

Hier haben wir bereits gute Ansätze, in den letzten Jahren gab es dazu mehrere Veranstaltungsreihen und Workshops. Aber das reicht nicht, das Thema muss viel breiter aufgestellt werden.

Die zentrale Frage lautet: wie wollen wir in Zukunft leben? Hier lassen sich viele kleine Sach- und Sozialthemen zu einer großen Vision vereinen. Wir alle können an unzähligen Puzzleteilen mitarbeiten, die flankiert von wenigen großen Leitlinien ein Bild ergeben, das wir stolz vor uns hertragen und allen zeigen können. „Ich bin Sozialdemokrat*in. Ich stehe für ein besseres Leben. Ich bin die Zukunft!“

Schritt 4: Zeitplan aufstellen und anpacken

Die nächste Bundestagswahl scheint Äonen entfernt zu sein, doch sie ist es nicht. Wir haben nur drei Jahre Zeit, um uns komplett neu zu erfinden und in den Wahlkampf zu starten. Maximal, sei noch ergänzt, denn ob die neue Bundesregierung so lange durchhalten wird, weiß aktuell noch niemand. Wir müssen im Grunde jederzeit einsatzbereit sein!

Also heißt es: Zähne zusammenbeißen, Ärmel hochkrempeln und ran ans Werk!

Nicht zu vergessen: Personelle Veränderungen vornehmen

Dies alles ist, in meinen Augen, mit einem Großteil des bisherigen Spitzenpersonals nicht möglich. Die erste Reihe, und auch ein Teil der zweiten, ist für mich verbrannt.

Mir ist bewusst, dass ich vielen Freundinnen und Freunden Unrecht tue, wenn ich folgende Regeln einfordere:

  • Niemand sitzt länger als zwei Wahlperioden ohne Unterbrechung in einem Parlament. Lediglich bei dem/der Bundeskanzler*in „ruht“ der Zähler.
  • Wer in der Exekutive tätig ist, also ein Amt als Minister*in ausübt, ist nicht gleichzeitig Teil der Legislative. Ausgenommen hiervon ist nur die/der Bundeskanzler*in.
  • Wer die Partei führt, ist weder in der Legislative noch der Exekutive tätig.

Warum das alles? Aus mehreren Gründen. Zum einen ist es völlig unmöglich, ein Bundestagsmandat, immerhin mindestens ein 50-Stunden-Job wie im mittleren Management, und ein Exekutivamt, immerhin mindestens ein 70-Stunden-Job wie im Topmanagement, gleichzeitig auszuüben. Das kann nicht funktionieren! Eine der Funktionen leidet immer, und dazu noch eine der Rollen, weil man in meinen Augen einfach nicht beide einnehmen kann.

Die Begrenzung finde ich wichtig, um einerseits regelmäßig frischen Wind in die Gremien zu bringen. Damit eben nicht immer die- oder derjenige nominiert wird, die/der das beste Netzwerk aufbauen konnte. Andererseits erzeugt dies einen gewissen zeitlichen Druck bei der Umsetzung der eigenen Ziele.

Darüber hinaus müssen wir so mehr als Team agieren. Wir können es uns strukturell nicht mehr leisten, politische Gegner*innen „abzusägen“. Wir können es uns nicht mehr leisten, uns innerlich in verschiedene Lager aufzuspalten und unsere Mannen hinter uns zu scharen. Die Gretchenfrage, auf welcher Seite man denn so stünde, muss aus den Köpfen verschwinden. Die Flügel müssen verschwindet, sie sind Gift. Und mit ihnen ihr Führungspersonal.

Und noch eine Sache, über die ich mich regelmäßig und gerne streite: für mich ist „Politiker*in“ eine Berufung; und ich finde es essenziell wichtig, dass es eben kein Beruf ist, sondern unsere Abgeordneten Kaufleute, Busfahrer, Erzieher, Mathematikerinnen oder Reinigungskräfte sind! Und dass sie ein Leben vor und eines nach dem Bundestag haben.

Parteitag, jetzt!

Die Termine für die ersten Regionalkonferenzen folgen in den nächsten Tagen. Ich bin gespannt, ob wir dort über eine reine Nachlese und ein halbherziges „weiter so“ hinauskommen. Meiner Meinung nach ist das Zeitfenster, das wir für die innere Erneuerung haben, klein, weshalb wir jetzt in einem großen Maßstab denken müssen. Und das bedeutet für mich, wir brauchen einen Grundsatz-Parteitag mit einem einzigen Thema: die Umsetzung von Schritt 1.

Was vom „Diesel-Gipfel“ übrig blieb

Ich wäre gerne Bundesverkehrsminister. Genaugenommen Bundesminister für Infrastruktur, Verkehr und Bau. Das meine ich ernst, auch wenn ich meinen Freundinnen und Freunden in der Politik bisher immer nur beim Bier davon erzähle. Ich hätte nämlich nicht nur Lust auf den Job, sondern bin auch fachlich dafür qualifizierter als jedeR am Horizont erkennbare PolitikerIn und hätte auch schon einen Sack voll Ideen. Der öffentlichen Personennahverkehr ließe sich mit den Mitteln der Digitalisierung und der einen oder anderen Gesetzesänderung massiv verbessern, der Schienenverkehr insbesondere. Den Schnellstraßenbau kann man mit einem psychologischen Trick viel kostengünstiger realisieren. Das Radwegenetz könnte man innerhalb einer Dekade genauso massiv ausbauen wie die Breitbandversorgung. Die Dezentralisierung des Stromnetzes ist viel einfacher als gedacht. Und sogar bei den Schifffahrtswegen erkenne ich Optimierungspotenzial.

Und noch etwas hätte ich ganz anders aufgezogen, nämlich den „Diesel-Gipfel“.

Ja, ich weiß, es gibt schon unzähliche Kommentare zu diesen Thema; ich bin wirklich nicht früh dran. Und die meisten stufen das Ergebnis als ähnlich lächerlich ein, wie ich das tue. Aber darum geht es nicht.

Fassen wir mal zuammen, was passiert ist: Bundesminister Dobrindt hat im Grunde gar nichts erreicht. Einige Autohersteller haben versprochen, dass ein bisschen was an der Software rumgedoktort wird, aber das war es. Keine sofortige schärfere Überwachungsmaßnahme der Abgaswerte. Keine Pflicht zur Nachrüstung von SCR-Abgasreinigungsanlagen. Noch nicht mal die Pflicht, diese ab sofort einzubauen. Nichts dergleichen!

Mich bewegt dies aus mehrerlei Gründen. Zum einen wäre da mein Auto. Ich habe nämlich einen drei Jahre alten Euro-5-Diesel, der vermutlich deutlich mehr Dreck auspustet, als mir vom Hersteller weisgemacht wurde. Ich bin zwar sehr zufrieden mit dem Wagen, hätte aber gerne das relativ umweltfreundliche Fahrzeug, das mit versprochen worden ist. Stattdessen ist der Wert des Fahrzeugs aber gerade um einige tausend Euro gefallen. Dankeschön! Ich weiß jetzt nur, dass vermutlich bei der nächsten Inspektion in meiner Werkstatt eine neue Firmware aufgespielt wird und das war es dann. Stickoxidreduktion? Darf ich für 2.000 € gerne selber nachrüsten. Das bedeutet im Endeffekt, dass es wirtschaftlich für mich jetzt mehr Sinn macht, den Wagen eine Dekade bis zum bitteren Ende zu fahren, als ihn in zwei oder drei Jahren zugunsten eines moderneren Fahrzeugs in Zahlung zu geben.

Zum anderen kommt in mir der Sozi durch. Denn was jetzt droht, und das völlig zu recht, sind Fahrverbote für wenige Jahre alte Autos, die die Bundesregierung vor Kurzem noch massiv gefördert hat. Das bedeutet, dass der Absatz an Dieselfahrzeugen vermutlich drastisch einbrechen wird und somit auch Arbeitsplätze in der Motorenfabrikation akut gefährdet sind. Zwar bin auch ich dafür, schnell auf elektrische Antriebe umzustellen; aber die Verpflichtung zum Einbau von AdBlue-Einspritzanlagen hätte der Industrie Zeit zum Umstellen gegeben. Wir haben jetzt also eine Lose-Lose-Situation erreicht.

Ich verstehe nicht, wie man so unfähig sein kann wie unser derzeitiger Verkehrsminister, das ärgert mich wirklich sehr. Und ich kann nicht mal ansatzweise nachvollziehen, wieso Frau Merkel einfach gar nichts tut. Sie trägt schließlich nicht nur die Verantwortung dafür, dass Arbeitsplätze und Werte vernichtet, sondern letztlich auch, dass Menschen vergiftet werden!

Um an den Anfang meines Eintrag zurückzukommen, ist hier das, was ich als akute Maßnahme unternommen hätte:

  1. Erstzulassung von Dieselfahrzeugen ohne SCR-Abgasreinigungsanlage ist ab 2018 nicht mehr möglich.
  2. Verpflichtung der Hersteller zur kostenlosen Nachrüstung von SCR-Abgasreinigungsanlagen durch die Hersteller aller Dieselfahrzeuge mit Euro-5- und Euro-6-Norm, sofern die Fahrzeuge die angepriesenen Stickoxidwerte unter normalen Fahrbedingungen überschreitet.
  3. Erarbeitung einer staatlichen „Abwrackprämie“ für Fahrzeuge mit Dieselmotoren bis zur Euro-4-Norm.

Außerdem hätte ich vor dem „Diesel-Gipfel“ versucht, mich mit meinen AmtskollegInnen unionsweit abzustimmen. Die meisten Staaten warten nämlich nur darauf, dass Deutschland sich in der Abgas-Frage endlich bewegt. Und die anderen Länder mit Fahrzeugindustrie, also vor allem Tschechien, Polen, die Slowakei, Frankreich und Spanien hätte man schnell von einem solchen moderaten Übergang überzeugen können.

Wieder eine Chance vertan. Sehr, sehr Schade.

Breitbandausbau ermöglichen, Regulierung neu denken

Um überall gleichwertige Lebensverhältnisse zu ermöglichen, bedarf es einer bundesweiten Verfügbarkeit von bezahlbaren breitbandigen Internetanschlüssen. Dass dazu öffentliche Förderung notwendig ist, ist unumstritten. Doch wie erreicht man dies mit überschaubaren finanziellen Mitteln und dazu noch in einem relativ kurzen Zeitraum? Da ich genau in diesem Bereich arbeite, die Industrie und alle Hürden beim Netzausbau kenne, biete ich einen konkreten Drei-Punkte-Plan an:

1. Ziel definieren

Zunächst zur Definition der eigentlichen Aufgabe: Ziel muss es sein, es bundesweit jedem Haushalt zu ermöglichen, an das breitbandige Internet angeschlossen zu werden, und das zu moderaten Preisen. Die verfügbare Übertragungsrate sollte dabei über die Zeit steigen, sodass nicht mit einem einmaligen Ausbau das Ende der Fahnenstange erreicht ist, sondern eine kontinuierliche Investition in neue Technologien ermöglicht wird. Ziel ist es ferner, Monopole zu verhindern bzw. Wettbewerb zu schaffen, sodass jeder Haushalt aus mehreren Telekommunikationsanbietern wählen kann. Darüber hinaus wird angestrebt, geförderte parallele Netzausbauten weitgehend zu verhindern.

Nichtziel ist es, den „Staat“¹, in welcher Form auch immer, zu einem neuen Betreiber von Netzinfrastruktur werden zu lassen. Der Markt bietet derzeit einen funktionierenden Wettbewerb und in „Staatseigentum“ befindlichen Netzen darf kein Vorzug gegenüber privatwirtschaftlicher Investitionen gegeben werden. Ansonsten besteht die Gefahr wirtschaftlich nicht sinnvoller Investitionen, des Rückzugs privater Netzanbieter und einer „Technologieträgheit“ bei der Einführung neuer Standards.

Doch wie erreicht man diese Ziele? In aller Munde ist derzeit der reine Glasfaserausbau (Fibre To The Home, FTTH), weil die Glasfaser in der Wohnung zurzeit grundsätzlich das höchste Potenzial an Übertragungsrate bietet. Allerdings bringt der FTTH-Ausbau auch einige entscheidende Nachteile mit sich. So ist er die teuerste Technologie, weil sehr viel Tiefbau erforderlich ist. Außerdem würde ein flächendeckender Ausbau in Deutschland etwa 20 bis 25 Jahre in Anspruch nehmen, was wiederum bedeutet, dass die meisten Haushalte erst in vielen vielen Jahren eine Verbesserung ihrer Versorgungslage erfahren werden. Außerdem ist FTTH nicht standardisiert. Mit dem Label „FTTH“ werden beispielsweise Ausbauvarianten beworben, bei denen der Glasfaseranschluss im Keller liegt und dann beispielsweise noch mehrere hundert Meter über einen in den 1960er Jahren verlegten „Klingeldraht“ überbrückt werden müssen. Andererseits gibt es auch Anbieter, die ein komplettes Glasfaser-Inhausnetz neu errichten und sich der Glasfaser-Abschluss tatsächlich in der Wohnung des Kunden befindet.²

Da man derzeit etwa alle sechs Jahre mit einem Technologiesprung rechnen kann, schlage ich statt der Fixierung auf eine Ausbautechnologie die „Evolution des Netzes“ vor. Das 2013 eingeführte VDSL-Vectoring ermöglicht bereits jetzt Übertragungsraten von 100 Mbit/s im Radius von ca. 400 m um einen Kabelverzweiger. 50 Mbit/s, also das, was Frau Merkel als Ziel bis 2018 ausgegeben hat, sogar noch weit über diesen Radius hinaus. Der nächste Technologiesprung wird schon 2017 in den Markt eingeführt; mit „Super-Vectoring“ sind dann, ohne weiteren Tiefbau, bis zu 250 Mbit/s über das alte Kupfernetz möglich. „G.fast“ wird derzeit dann als der nächste Sprung gehandelt, hier könnte man dann 700 bis 800 Mbit/s realisieren, und das ebenfalls noch über Kupfer.

Auch auf den Kupfer-Koaxialkabeln der Kabelfernsehnetze tut sich einiges. Mit dem seit 2013 verfügbaren neuen „DOCSIS“-Standard sind in jedem Kabelnetzsegment bis zu 1 Gbit/s im Download verfügbar. Zwar teilt sich hier in der Regel ein Straßenzug oder ein Gebäudekomplex diese Übertragungsrate, trotzdem ermöglicht auch dies eine deutliche Verbesserung über dieses Medium.

Und auch die Funktechnologien entwickeln sich rasant weiter. Mit „LTE-Advanced“ werden in den kommenden Jahren bis zu 1 Gbit/s je Funkzelle möglich sein. Und der als „5G“ bezeichnete Nachfolgefunkstandard, der etwa Mitte der 2020er Jahre eingeführt werden wird, hat in Feldversuchen bereits jetzt über 70 Gbit/s ermöglicht.

Bis hierhin zusammengefasst bedeutet dies folgenden Status quo: Grundsätzlich gibt es auf dem Markt viele verschiedene Technologien, die eine Internet-Versorgung der Bevölkerung ermöglichen. Manche davon haben einen besseren Ruf als andere, aber im Grunde bieten alle derzeit ähnliche Produkte, sowohl in Hinblick auf den Preis als auch auf den Umfang.

2. Regulierung ändern

Wie ließe sich nun aber das oben genannte Ziel erreichen? Ich schlage vor, hierfür die Regulierung zu ändern.

Derzeit wird nur ein Unternehmen bundesweit reguliert, nämlich die Telekom Deutschland GmbH, und auch hier nur der Bereich des Kupfer-Telefonnetzes. Alle andere Unternehmen sind praktisch komplett frei, was zur Folge hat, dass viele lokale Monopole entstanden sind. Wenn ein Haushalt beispielsweise über einen Glasfaseranschluss der örtlichen Stadtwerke verfügt, kann auch nur über diese Stadtwerke ein Internet-Produkt bestellt werden. Erhöhen die Stadtwerke nun die Preise, besteht zwar möglicherweise ein Kündigungsrecht. Aber da kein anderer Anbieter über dieses Netz einen Anschluss bereitstellen kann, bleibt de facto nur die Möglichkeit, den höheren Preis zu zahlen.

Meine Empfehlung lautet nun, bei der Regulierung zukünftig jeden Anschlussbereich separat zu betrachten (nicht nur die Ortsnetze, da mitunter große Unterschiede innerhalb des Ortsnetzes bestehen). Unter die Regulierung fallen sollte dann jeder Internetanbieter, der mindestens 25 % der Haushalte versorgt. Ist dies bei keinem Anbieter der Fall, sinkt die Quote auf 15 % und dann erneut auf 10 %. Sollte auch dies wider Erwarten auf keinen Anbieter zutreffen, dann würde das Unternehmen reguliert, das die meisten Haushalte versorgt.

Wird ein Anbieter in einem Anschlussbereich reguliert, dann hat dies folgende Konsequenzen:

  • Der Anbieter muss seinen Zugang für den Wettbewerb öffnen.
  • Der Anbieter muss eine von der Bundesnetzagentur (BNetzA) festgelegte Dienstgüte (Quality of Service) am Anschluss erfüllen.

Der Zugang sollte einheitlich per Zugang zum Datenstrom (Bitstream Access) erfolgen und preislich reguliert sein. Dabei können die Preise durchaus variieren, je nach zur Verfügung stehender Zugangstechnologie und nach Zugangspunkt.³ Und es sollte lediglich ein Maximalpreis festgelegt werden, sodass zwei Netzbetreiber durchaus um Wettbewerber konkurrieren können, um ihre jeweilige Infrastruktur möglichst auszulasten. Allerdings sollten auch Investitionen bzw. deren Abschreibungsfristen positiv berücksichtigt werden, sodass sich eine Investition in neue Infrastruktur auch lohnt.

Bei der Dienstgüte werden die maximale durchschnittliche Paketlaufzeit, die Ausfallsicherheit und natürlich auch die zur Verfügung stehende Übertragungsrate festgelegt. Bei letztem Punkt schlage ich vor, dass die beworbene Übertragungsrate zu 50 % der Zeit mindestens zur Hälfte zur Verfügung stehen muss und jederzeit mindestens zu 25 %, alles gemessen vom Übergabepunkt⁴ aus bis ins Weitverkehrsdatennetz. An einem Anschluss mit 100 Mbit/s, zum Beispiel über das Kabelfernsehnetz, müssen also immer mindestens 25 Mbit/s exklusiv für jeden Haushalt bereitgehalten werden. So kann sichergestellt werden, dass insbesondere bei den geteilten Medien (Fernsehkabel, Festnetzersatz über Mobilfunk) realistische Werte bei der Vermarktung angegeben werden. Ferner muss der Upload immer mindestens 10 % des Downloads entsprechen, ab dem Jahr 2022 mindestens 20 %.

3. Breitbandausbau in Wettbewerb fördern

Eine Änderung der Regulierung schafft eine Grundlage für eine Verbesserung des Wettbewerbs, nicht jedoch notwendigerweise auch für den Breitbandausbau. Hier schlage ich vor, dass die Anschlussbereiche im ersten Schritt in drei Kategorien aufgeteilt werden:

  • Gut versorgt = mindestens 80 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate
  • Teilweise versorgt = mindestens 40 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate
  • Unterversorgt = weniger als 40 % der Haushalte erhalten die potenzielle Ziel-Übertragungsrate

Die genannte Ziel-Übertragungsrate steigt mit der Zeit, sodass auch ein derzeit bereits gut versorgter Anschlussbereich in einigen Jahren dann nur noch als teilweise oder sogar als unterversorgt gilt. Ich schlage vor, die Übertragungsrate alle paar Jahre anzupassen, zum Beispiel wie folgt:

  • Ab 2018: 50 Mbit/s
  • Ab 2022: 100 Mbit/s
  • Ab 2028: 200 Mbit/s
  • Ab 2034: 500 Mbit/s

Entscheidet sich ein Anbieter für den Ausbau in einem Anschlussbereich, kann er dafür eine Förderung erhalten. Ich schlage vor, die Förderung nach einem ganz einfachen Modell zu gestalten:

  • Für jedes Megabit, dass das versorgte Gebäude nach dem Ausbau reell mehr an Übertragungsrate hat, gibt es einen Förderbetrag. Gedeckelt wird die Förderung bei 1 Gbit/s.
  • Die Höhe des Förderbetrags hängt davon ab, ob es sich bei dem Anschlussbereich um ein gut, teilweise oder unterversorgtes Gebiet handelt. Mögliche Förderbeträge wären zum Beispiel 30 ct, 60 ct und 1 € pro Gebäude und Megabit Steigerung.
  • Der „Fördertopf“ wird jährlich aufgelegt, sodass immer ein verknapptes Budget zur Verfügung steht, was den Wettbewerb anregt. Nicht genutzte Fördersummen fließen zurück in den allgemeinen Bundeshaushalt.
  • Wird in Mehrfamilienhäusern in jede Wohneinheit ein Glasfaserkabel gelegt, gilt die Förderung nicht nur pro Gebäude und Megabit, sondern pro Wohneinheit und Megabit. Dieser Zusatzbetrag wird erst nach Errichtung des Inhaus-Netzes ausgezahlt.
  • Fördermittel von Union, Land und Kommune können an dieses Verfahren „angedockt“ werden, sodass sich der Förderbetrag dann erhöht.

Geschäftseinheiten (also Ladengeschäfte, Firmengebäude etc.) werden genau wie Wohneinheiten behandelt.

Ferner sollten Gebäudeeigentümer verpflichtet werden, Telekommunikationsunternehmen die Verlegung von Glasfaser-Inhausnetzen zu ermöglichen. Hierfür sind entweder Kabelkanäle zur Verfügung zu stellen oder geeignete Orte, um neue Kanäle anzubringen. Allerdings dürfen für den Eigentümer dann keine Kosten entstehen.

Um die Vergabe der Fördermittel zu steuern, schlage ich des Weiteren vor, dass sich Telekommunikationsunternehmen gezielt auf den Ausbau einzelner Gebäude bewerben. Das Verfahren soll vollelektronisch über Schnittstellen funktionieren, allerdings müssten im ersten Schritt alle kommunalen Adressdaten (Adresse, Anzahl der Wohneinheiten) mit den Daten der BNetzA (Ortsnetz, Anschlussbereich, Abschlusspunkt) und gegebenenfalls weiteren Datensätzen (zum Beispiel Geokoordinaten) zusammengefasst werden.

Erhält ein Unternehmen den Zuschlag für den Ausbau, beträgt die Zeit bis zur Buchbarkeit des Produktes beim Kunden im Regelfall ein Jahr, sodass die Verbesserung des Anschlusses auch zeitnah erfolgt. Basiert die verwendete Technologie auf einem Bestandsnetz, muss nach einem Jahr das Produkt am Hausanschluss verfügbar sein. Wird ein neues Verzweigernetz gebaut, muss nach einem Jahr der Hausanschluss bestellt werden können und dann innerhalb von sechs Monaten gebaut werden.

Wird die Frist überschritten, halbiert sich automatisch die Fördersumme. Ist der Anschluss nach Ablauf des zweiten Kalenderjahres immer noch nicht realisiert, wird das Unternehmen für zwei Jahre für die Förderung auf dieser Adresse gesperrt und muss eine Strafgebühr zahlen. Natürlich sind begründete Ausnahmen in Einzelfällen zulässig.

Außerdem unterliegt jeder geförderte Breitbandausbau zukünftig automatisch der Regulierung, sodass den Kunden immer mehrere Optionen zur Verfügung stehen und Wettbewerb stattfinden kann.

Mit dieser Methode wird nicht nur erreicht, dass ein Markt für den Breitbandausbau geschaffen wird, sondern es findet gleichzeitig auch eine Entbürokratisierung statt, weil der bisherige bunte Strauß an Fördermöglichkeiten in einem gemeinsamen fairen und offenen Verfahren gebündelt werden kann.

Über Diskussionsbeiträge und Anregungen freue ich mich. Bitte nutzt hierfür die Kommentarfunktion des Blogs.

¹: Gemeint sind hier vor allem Unternehmen im kommunalen Eigentum. Viele Gemeinden errichten teure eigene Netze und spekulieren auf ein Monopol in ihrem Versorgungsbereich und eine Frist von teils mehreren Jahrzehnten bis zum Return-of-Investment. Dieser wird meist nicht erreicht und der Steuerzahler trägt dann die Kosten.

²: Siehe auch: Lammermann.eu: „FTTH – eine Nischentechnologie“.

³: Zugänge direkt am Gerät sind günstiger; dort wird ein eigenes Glasfaserkabel erst an die Technik herangeführt und nur die „letzte Meile“ des regulierten Netzbetreibers verwendet. Zugänge auf einer höheren Netzebene sind dementsprechend dann teurer, weil eine weite Strecke und mehrere Geräte des regulierten Netzbetreibers genutzt werden.

⁴: Messpunkt ist immer die Stelle, an der vom Netz des Netzbetreibers auf das Netz des Hauseigentümers gewechselt wird. Bei der Kupfer-Doppelader und beim Kupfer-Koaxialkabel ist dies der Abschlusspunkt, der sich meist im Gebäudekeller befindet. Bei Glasfaserprodukten wird bei Mehrfamilienhäusern unterschieden zwischen „Fibre To The Building“ (= Glasfaserabschluss im Keller) und „Fibre To The Premises“ (= Glasfaserabschluss in der Wohnung).

Hands on Ubuntu Touch – nice, but long way to go

I just received my pre-ordered BQ Aquaris M10 Ubuntu edition and had a few days to test it. Time for me to share my experience.

The tablet itself is quite nice. Good form factor, great display and easy to hold. The device came with a case and a display protector, even though I don’t seem to have a talent for putting foils on displays.

The Aquaris M10 comes with only 16 GB of internal memory but offers a MicroSD slot for another 64 GB, which is not overwhelming but enough for my everyday use. Wifi and Bluetooth are on board but LTE is missing and plugging a dongle into the MicroUSB port doesn’t seem to work, at least not without doing some handicrafts. Furthermore the device is equipped with an audio jack and a MicroHDMI port.

The latter one works quite nicely. Just plug in a display and the tablet switches to desktop mode. The tablet display then turns into a touch pad and allows you to control the mouse arrow. The keyboard appears whenever text has to be entered. Does not work perfectly yet but good enough in case you left your Bluetooth keyboard and mouse at home.

There are some standard apps preinstalled and the store offers a lot more to download. Many of those programmes seem to be ‚Web Apps‘, which means that a browser is wrapped around a frame and opens a fixed URI. Works, but in my eyes this does not always guarantee quality and speed.

The Ubuntu Touch software keyboard is better than I expected. It responds quickly and typing is relatively easy as long as you use a two-finger system. The auto-correction could be smarter but I know Android keyboards that are way worse.

But it’s still a long way to go. I love Ubuntu and have been a user for more than ten years on my PCs. It is a safe, fast, powerful and easy-to-use  operating system and my expectation was to get exactly that on a tablet. Sadly Ubuntu Touch does not share much but the name with the regular OS. It just works differently. It has a different look. And the programmes I am used to just don’t run. In addition it has to be said that the system is pretty much locked and you just can’t tweak those tiny things you can in Ubuntu.

Furthermore Ubuntu Touch is still quite buggy. I have no idea why Canonical has not been able to fix minor problems with the display rotation. It’s nerve-racking that the lock screen is headlong when you have been typing on a desk. Why doesn’t it rotate as well?!

And why doesn’t the Google login work? I am coming from Android and trying to migrate to Ubuntu Touch. Whenever I start a Web App I have to log into my Google account every single time. That makes them unusable.

Let’s have a look at the browser: I am a Firefox guy. Firefox is on my laptop. Firefox is on my phone. Firefox is even preinstalled on the Aquaris. But it doesn’t work without external mouse and keyboard (same with LibreOffice by the way). Ubuntu Touch comes with it’s own browser which seems to be based on Safari. It is okay but surely not the best thing out there.

Chrome doesn’t run as well, which makes it impossible to use Netflix or Amazon Prime Video on the device. Of course there is no app available even though it would be ridiculously easy IF Chrome would work. I did this myself on my laptop even though I am not a programmer.

The philosophy behind Ubuntu Touch differs from the one of Android or iOS. It’s convertibility – from phone to tablet to desktop, depending on your need in that very moment – is a huge plus and this is where I see Canonicals chance to take a niche, grow it constantly and become the segment’s third largest player.

I am not as happy as I expected. Nevertheless I will stick with my new tablet and keep improving this – potentially – great OS with comments and bug reports.

image
Why?

Mein Europa (1) – der Europäische Bundesstaat

Ich hatte schon vor einiger Zeit angekündigt, mich etwas ausführlicher der Zukunft zu widmen, genauer meiner Vorstellung davon. Dies ist der erste Teil einer kleinen Serie, die ich unregelmäßig fortsetzen werde.

Von dem Land, in dem ich leben und sterben möchte, habe ich eine ziemlich klare Vorstellung. Dieses Land heißt Europa, gerne auch Europäische Union oder ähnlich in der Langversion, aber Europa trifft es ganz gut.

Dieses Europa, das ich mir vorstelle, ist ein Bundesstaat nach klassischem Verständnis. Es gibt eine Bundesebene, bei der das direkt gewählte Europäische Parlament in Brüssel gemeinsam mit dem Europäischen Rat, der Vertretung der Länder, die Legislative bildet. Die Rolle der Exekutive wird durch die Kommission wahrgenommen, zukünftig eine „richtige“ Regierung. Der Europäische Gerichtshof wiederum übernimmt die Funktion der höchsten legislativen Instanz.

Im Gegensatz zum Status quo soll das Parlament die volle Gesetzgebungskompetenz erhalten, während der Rat diese nur eingeschränkt ausübt, abhängig vom Themenkomplex des Gesetzes. Dennoch sollen beide Einrichtungen ein Initiativrecht erhalten. Die Kommission wird nicht mehr benannt, sondern der Kommissionspräsident vom Parlament gewählt, der diesem dann wiederum ein Kabinett vorschlägt, welches zumindest bestätigt werden muss. Aus praktischen Gründen kann dies aber auch en bloc geschehen. Das System ähnelt damit dem der Bundesrepublik Deutschland bzw. der Republik Österreich, was auf der Hand liegt, betrachtet man die Verfassungsgeschichte beider Staaten.

Dennoch sollen die heutigen Mitgliedsstaaten in meinen Augen nicht einfach in neue Unionsländer überführt werden, da ich befürchte, dass dann ein großes Ungleichgewicht zwischen den Staaten herrschen wird. Ich plädiere dafür, viele kleinere Länder zu schaffen, die sehr viel stärker regionalisiert sind als heute. Man könnte auch sagen, dass ich ein „Europa der Regionen“ bevorzuge. Kleinere Staaten, wie zum Beispiel Malta, Dänemark oder auch die Niederlande, könnten praktisch eins zu eins Gliedstaaten der neuen Union werden. Die Bundesrepublik hingegen würde ich in etwa sieben Staaten aufteilen, die dann jeweils gleichberechtigte Unionsländer werden. Grundsätzlich sollten kleinere Staaten im Rat bevorzugt werden und, im Verhältnis der Stimmen zur Bevölkerungszahl, einen deutlichen Stimmenbonus erhalten, schon allein um einen Anreiz für die Teilung der heutigen großen Mitgliedsländer zu schaffen.

Die Bundesebene ist zuständig für allerlei klassische Bundesangelegenheiten, wie zum Beispiel Außenpolitik und Verteidigung, Standardisierung, Verkehr, Handel, das Zollwesen und den Grenzschutz. Aber auch die Gewährung von Asyl und der Zusammenschluss der Sozialversicherungen gehört für mich dazu. Im Gegensatz dazu möchte ich den Unionsländern mehr Kompetenzen zugestehen als den deutschen oder österreichischen Bundesländern heute. Einerseits, weil die Verteilung von Entscheidungsspielräumen auf einzelne Regionen den Einfluss der Wählerinnen und Wähler stärkt, und damit auch die Demokratie, und weil sich bestimmte Themen gar nicht unionsweit einheitlich regeln lassen. Man denke da beispielsweise an das Baurecht oder an den Verwendungszeitraum von Winterreifen. Andererseits gibt es unterschiedliche Traditionen im Umgang mit bestimmten Themen, für die ich keine Notwendigkeit einer Vereinheitlichung sehe. Möchte Finnland beispielsweise weiterhin, dass Spirituosen nur in den staatlichen „Alko“-Läden verkauft werden dürfen, während Portugal den Verkauf in Supermärkten, Tankstellen oder Kiosken erlaubt, dann sollen beide Länder das so handhaben dürfen. Auch bei Ladenöffnungszeiten, religiösen Feiertagen, der Regulierung von Campingmöglichkeiten und vielen anderen Dingen hat der Bund in meinen Augen gar kein Interesse daran, eine einheitliche Gesetzeslage her- und deren Einhaltung sicherzustellen.

Dieser Europäische Bundesstaat, den ich mir wünsche, stellt, so bekannt einem das System auch erscheinen mag, trotzdem etwas völlig Neuartiges dar. Denn dieser Staat wäre postnational.

Im Gegensatz zu den Nationalstaaten, die ab dem späten 18. Jahrhundert in Europa entstanden sind und nicht nur den Kontinent mehrfach in Schutt und Asche gelegt haben, kommt die neue Europäische Union am ehesten einer Willensnation nahe. Die klassische Nationalität, also der Ort meiner Geburt bzw. die entsprechende Zuschreibung, spielt bewusst keine Rolle mehr.

Um mich präziser auszudrücken: die Herkunft der Bürgerinnen und Bürger spielt nicht keine Rolle und die Heterogenität der Menschen wird auch nicht verschwiegen. Vielmehr bildet die Vielfältigkeit Europas den positiven Gründungsmythos des neuen Staates, auf den wir stolz sein können, den wir pflegen und den wir immer im Bewusstsein halten. Denn solange die breite Bevölkerungsmehrheit Pluralität als etwas Positives begreift, ist sie auch immun gegen Nationalismus, der, und auch das ist mir bewusst, immer seinen dunklen Schatten auf den Kontinent werfen wird.

Die Serie wird demnächst fortgesetzt. Konstruktive Kommentare sind gerne gesehen. Wer Hass verbreitet, spamt oder dieses Blog als Plattform für sonstige zweifelhafte Dinge nutzen möchte, wird aber blockiert.

Asyl – Chancen nutzen, Europa verändern

Hinweis: Ich verwende im nachfolgenden Blogeintrag den Begriff „Flüchtlinge“, da dieser in der aktuellen Debatte der gängigste ist. Mir ist bewusst, dass „Geflüchtete“ oder „Vertriebene“ die Situation dieser Menschen treffender beschreibt.

Nun ist es soweit. Die Mauer der Festung Europa hält, wie erwartet, dem Migrationsdruck nicht mehr Stand und immer mehr Menschen aus den Krisengebieten in Afrika, Osteuropa und insbesondere aus dem Nahen Osten fliehen zu uns in Sicherheit. Noch gibt es eifrige Bemühungen, die Außengrenzen wieder abzuschotten, aber ich gehe nicht davon aus, dass diese von „Erfolg“ gekrönt sein werden. Gut so.

Leider wird in der aktuellen Situation auch deutlich, wie uneins Europa wieder einmal ist. Der Süden stöhnt seit Jahren und wurde bisher konsequent ignoriert. Der Norden kann nicht mehr anders und nimmt, mehr halbherzig und mit ziemlicher Verspätung, endlich Flüchtlinge auf. Der Osten weigert sich bisher konsequent, auch nur ansatzweise einen akzeptablen Teil der Last zu tragen. Und die Unionsorgane sind so schwach, dass man kaum etwas von Ihnen hört und niemand protestiert ernsthaft gegen die gefährliche Aushöhlung der Reisefreiheit. Stattdessen pochen alle, soweit es geht, auf die Dublin-Verordnung, auch wenn alle wissen, dass sie nicht mehr funktionieren kann. Hauptsache, der Kelch geht irgendwie an einem vorüber und niemand muss dem eigenen Wahlvolk erklären, dass plötzlich „Ausländer“ ins Land kommen. Gefundenes Fressen für alle Naziparteien.

Was aber tun, in diesem Ausnahmezustand? Ich empfehle, Vernunft walten zu lassen und die Chancen zu nutzen, die diese dramatische Lage mit sich bringt. Ganz konkret schlage ich folgende Maßnahmen vor:

1. Asyl wird Unionskompetenz

Alle Staaten der Europäischen Union geben die Kompetenz, Asylverfahren zu bearbeiten und Asyl zu gewähren, an eine gemeinsame Europäische Asylagentur ab. Diese Asylagentur bearbeitet unionsweit alle Asylanträge in einer Einzelfallprüfung nach einheitlichen Kriterien. Alle Anträge werden digital erfasst, so lässt sich eine Bearbeitung an jedem Ort innerhalb der Union und in jeder Sprache sicherstellen. Die Bearbeitungszeit sollte im Regelfall maximal zwei, in Ausnahmesituationen maximal vier Wochen betragen.

Registrierungsstellen dieser Agentur werden an den Außengrenzen, an Fernbahnhöfen, Häfen und Flughäfen eingerichtet; und gegebenenfalls auch dicht an den Krisenherden (zum Beispiel in der Türkei). Falls nötig, wird in der Nähe dieser Registrierungsstellen durch die Europäische Union ein Unterbringungsmöglichkeit organisiert und/oder finanziert, in der Flüchtlinge solange bleiben können und versorgt werden, bis die Bearbeitung des Asylantrags abgeschlossen ist. Wird Asyl gewährt, werden die Menschen nach einem festzulegenden Schlüssel auf die Unionsstaaten verteilt. Fairerweise muss man an dieser Stelle auch sagen, dass eine Abschiebung stattfindet, sollte der Antrag endgültig abgelehnt werden.

Nord- und Südeuropa könnten sich sicherlich schnell auf einen Schlüssel zur Verteilung der Flüchtlinge einigen. Doch der Osten blockiert; und dies kann ich nachvollziehen. Die Wirtschaftsleistung ist dort noch immer deutlich schwächer als im Westen und bisher waren all diese Staaten seit jeher Auswanderungsländer. Migration ist dort nach wie vor ein weitgehend unbekanntes Phänomen.

Was also tun? Osteuropa aus der Verantwortung entlassen? Natürlich nicht. Ganz im Gegenteil, es sollte ganz deutlich auf die Verantwortung hingewiesen werden, die diese Staaten tragen. 2004, 2007 beziehungsweise 2013 haben sich all diese Bürgerinnen und Bürger bewusst für die Werte Europas und die Freiheit entschieden, und mit Freiheit kommt Verantwortung!

Dennoch glaube ich nicht, dass es eine gute Idee ist, beispielsweise Tschechien „mal eben“ mit 300.000 Flüchtlingen allein zu lassen. Die Bedenken müssen ernst genommen und der Umgang mit Migration erlernt werden. Die Situation ist hier vergleichbar mit Ostdeutschland nach der Wende.

Zurück zum Schlüssel: Generell sollten die Bevölkerungszahl, die Bevölkerungsdichte und die Wirtschaftsleistung pro Kopf für die Verteilung der Flüchtlinge ausschlaggebend sein. Demnach würde beispielsweise Luxemburg mehr Flüchtlinge aufnehmen als Malta, weil Malta wirtschaftlich weniger Leistungsfähig und dichter besiedelt ist, obwohl beide eine ähnliche Bevölkerungszahl haben. Osteuropa sollte bei Einführung dieses Schlüssels einen „Flüchtlingsrabatt“ bekommen, also deutlich weniger Menschen aufnehmen müssen, als es dem Schlüssel zufolge eigentlich müsste. Über einen Zeitraum von 15 bis 20 Jahren wird der Wert dann stufenweise angehoben, bis am Schluss der reguläre Verteilungsschlüssel Anwendung findet.

2. Gemeinsamen Grenzschutz einrichten

Bisher unterhält jeder Unionsstaat eigene Grenzschutzeinheiten und ist für die Sicherung seiner Grenzen selbst verantwortlich. Dies führt zu einem Ungleichgewicht innerhalb der Union, da insbesondere der wirtschaftlich starke Norden hier kaum Anstrengungen unternehmen muss, während  der Osten und der Süden nahezu alleine die Außengrenzen sichern. Zwar gibt es mit Frontex eine Agentur der Union, die bei der Kooperation unterstützt, allerdings genießt sie weder einen guten Ruf noch ist sie ausreichend demokratisch kontrolliert.

Ich schlage vor, dass alle Grenzschutzaufgaben zukünftig von einer gemeinsamen Europäischen Grenzwacht wahrgenommen werden. Diese übernimmt sowohl den unmittelbaren Schutz der Außengrenzen, Tätigkeiten im Landesinneren (z. B. Einsatz an Flughäfen und Bahnhöfen) als auch die Aufgaben der Küstenwache. Bestehende Organe sollten in dieser Grenzwacht aufgehen.

Die Europäische Grenzwacht wird als Polizei organisiert, und damit nicht als militärische oder paramilitärische Einheit. Sie untersteht dem Kommissar für Inneres und wird von einem Ausschuss des Europäischen Parlaments kontrolliert. Sie darf nicht im Ausland eingesetzt werden, mit der Ausnahme von Kooperationen mit ähnlichen Organen, UN-Polizeieinsätzen oder ähnlichem.

In Ausnahmesituationen kann die Grenzwacht Amtshilfe der Polizeiorgane der Unionsstaaten anfordern. Primär ist die Polizeieinheit des jeweiligen Staates gefordert, allerdings können unter bestimmten Umständen auch Kräfte aller Staaten zur Unterstützung herangezogen werden, wobei das Oberkommando immer bei der Grenzwacht verbleibt.

Sollte innerhalb der Union temporär eine Grenzkontrolle eingeführt werden, was ich im Übrigen strikt ablehne, so muss diese zwingend von der Europäischen Grenzwacht durchgeführt werden.

3. Migration steuern

Die Europäische Union ist die reichste Volkswirtschaft der Welt. Und auch, wenn der Reichtum innerhalb Europas sehr ungleich verteilt ist, so ist er es weltweit betrachtet noch viel mehr. Bis wir aufhören, unseren Wohlstand auf Kosten anderer zu finanzieren, werden immer Menschen zu uns kommen, die hier eine bessere Zukunft suchen. Man kann versuchen, diese Menschen davon abzuhalten, aber gelingen wird es nie.

Deshalb ist es klüger, Migration nach Europa zu ermöglichen und zu steuern. Klare Regeln für Einwanderung, die am Schluss auch zu einer Staatsbürgerschaft führen, ermöglichen nicht nur einen transparenten Umgang mit Migrantinnen und Migranten. Nein, sie motivieren die Einwandernden auch, engagierte Bürgerinnen und Bürger zu werden.

Und genau das kann dieser Kontinent gut gebrauchen.

FTTH – eine Nischentechnologie

Hinweis: ein anderer Beitrag geht näher auf die hier behandelte Technologie ein.

Glasfaseranschlüsse sind seit einigen Jahren in aller Munde. Da ich in der Branche arbeite und mich täglich mit den unterschiedlichen Technologien beschäftige, ist es Zeit für mich, das Thema FTTH & Co. kritisch zu beleuchten.

1. Übertragungsrate

Es stimmt, die Glasfaser in der Wohnung bietet die höchste Übertragungsrate. Zumindest theoretisch. Denn auch wenn ein Ende der maximal möglichen Bitrate über Glas noch nicht in Sicht ist, bietet der Markt keine außergewöhnlichen Produkte. Üblicherweise werden, je nach TK-Unternehmen, 50 bis 200 Mbit/s angeboten. Die Preise für diese Anschlüsse liegen in der Regel ein gutes Stück über dem von vergleichbaren Produkten auf Kupferbasis. Produkte mit mehr als 100 Mbit/s werden darüber hinaus auf dem Markt fast gar nicht nachgefragt.

Die relativ niedrige Übertragungsrate lässt sich einerseits dadurch erklären, dass im Bereich der Massenprodukte keine hochwertigen Netzkomponenten eingesetzt werden, wie dies beispielsweise im Weitverkehrsnetz der Fall ist. Es ist auch nicht sinnvoll, hier ein Maximum herauszuholen, da dann jeder Anschluss mehr kosten würde, als das Gebäude wert ist. Ferner haben gerade die kleineren Anbieter, wie z. B. Stadtwerke, viel Geld in den Ausbau des Zugangsnetzes investiert und sparen nun an der Anbindung ins Weitverkehrsdatennetz.

Wird man durch einen VDSL-Anschluss mit Vectoring versorgt, sind ebenfalls Übertragungsraten von 100 Mbit/s möglich, und das für niedrigere monatliche Kosten. Mittelfristig kann diese Übertragungsrate in vielen Orten auf 250 Mbit/s gesteigert werden und es besteht ferner die Möglichkeit, den Festnetzanschluss mit LTE zu kombinieren. Hierdurch sind auch ohne Glasfaser in der Wohnung vielerorts sehr hohe Übertragungsraten möglich.

2. Kosten

FTTH ist die mit Abstand teuerste Technologie auf dem Markt. Dies liegt nicht an den verbauten Geräten, hier kann sogar ein Kostenvorteil bestehen. Nein, Treiber ist der Tiefbau.

Trassen von Leitungsträgern sind in der Bundesrepublik vergleichsweise hohen Auflagen unterworfen, z. B. bei der Verlegetiefe. Dafür sind die Gehwege hierzulande aber auch in einem relativ guten Zustand. Allerdings steigert dies die Tiefbaukosten; man kann pauschal mit etwa 100 € pro laufendem Meter in bebautem Gebiet rechnen. Da man für FTTH-Netze nicht nur an jedem Gebäude entlanggraben, sondern auch noch die Tiefbaustrecke über das Grundstück einkalkulieren muss, ergeben sich leicht mehrere tausend Euro Investitionskosten pro Gebäude. Wird ein Mehrfamilienhaus versorgt, teilen sich diese Kosten zwar auf alle Wohneinheiten auf. Dafür muss, im Gegensatz zum Einfamilienhaus, aber auch noch ein Glasfasernetz im Gebäude errichtet werden, was viele Unternehmen der Wohnungswirtschaft ablehnen.

Im Vergleich dazu ist der Ausbau von anderen Technologien deutlich preiswerter. Da der Preistreiber die „letzte Meile“ zum Kunden ist, macht es wirtschaftlich mehr Sinn, auf eine Technologie zu setzen, die ein Bestandsnetz nutzt. Dies kann sowohl Vectoring auf der klassischen Kupfer-Doppelader als auch der neue Datenübertragungsstandard auf dem Koaxialkabel des Fernsehnetzes sein. So lassen sich mit einem festgelegten Investitionsvolumen deutlich mehr Haushalte mit hohen Übertragungsraten versorgen.

3. Ausbaudauer und technischer Fortschritt

Mal angenommen, heute würde jemand beschließen, dass ab sofort nur noch FTTH-Anschlüsse gebaut werden dürfen, wie lange würde der Ausbau in der Bundesrepublik dann dauern? Experten schätzen 20 Jahre, wobei ich noch eine Schippe drauflegen würde. Ich gehe nicht davon aus, dass mehr als 2 Mio. Haushalte pro Jahr an ein FTTH-Netz angeschlossen werden könnten. Der Engpass ist hier nicht einmal die mangelnde Planungsressource, sondern schlicht die Tiefbaukapazität, die bereits jetzt nicht in ausreichendem Maße zur Verfügung steht. Es gäbe schlichtweg niemanden, der so einen Netzausbau schneller realisieren könnte.

Und mal angenommen, man würde in dem Gebäude wohnen, das zuletzt angeschlossen wird. Dann hätte man bis 2035 einen Übertragungsrate von vielleicht 10 Mbit/s, während der Rest der Republik schon seit Ewigkeiten deutlich schneller unterwegs ist. Aber es ist davon auszugehen, dass dann auch andere Technologien so hohe Übertragungsraten bieten, dass der Glasfaseranschluss überhaupt nicht mehr benötigt wird. Spätestens wenn der Mobilfunk an der Gigabit-Grenze kratzt und eine gewisse digitale Sättigung eingesetzt hat, müssen wir uns fragen, ob ein Festnetzanschluss überhaupt noch sinnvoll ist.

4. Finanzielles Risiko

Unabhängig von der technischen Realisierbarkeit ist ein FTTH-Netz ein großes finanzielles Risiko. Wie oben beschrieben, ist die Investitionssumme immens hoch. Und die Refinanzierung des Netzes muss binnen weniger Jahre erfolgen, da sonst der technische Fortschritt am Investor vorbeizieht.

Schon einige Investoren, leider allen voran kommunale, haben sich hier verkalkuliert. Die Nachfrage bleibt hinter den Erwartungen zurück, trotz eines Monopols auf das Glasfasernetz. Die Kredite für den Ausbau belasten teilweise über Jahrzehnte die öffentlichen Haushalte. Ein Verkauf ist meist nicht wirtschaftlich oder scheitert schlicht an nicht vorhandenen Interessenten.

5. Plädoyer für die Zukunft

Um zum Ende hin eines klarzustellen: ich finde FTTH super! Aber ich plädiere für einen Einsatz mit Augenmaß. Überall dort, wo neue Netze entstehen, wie beispielsweise in Neubaugebieten, macht ein FTTH-Ausbau selbstverständlich Sinn. Auch bestimmte Bestandsgebiete eignen sich zum Überbau, sei es aufgrund vorhandener Rohranlagen oder bautechnisch günstig gelegener Gebäudekomplexe. Aber eine Forderung nach einer flächendeckenden Realisierung von Glasfaseranschlüssen bis in die Wohnung ist schlichtweg Quatsch.

Besser ist es, auf die Evolution des Netzes zu setzen. So erhält immer ein Teil der Bevölkerung, der bisher schlecht versorgt ist, die jeweils neueste Technologie, wodurch sich für alle Haushalte in einer relativ kurzen Zeit eine deutliche Steigerung der Übertragungsrate sicherstellen lässt. Und das zu verhältnismäßig geringen Ausbaukosten.

Internetzugangsmedien, ein Überblick

Als generelle Zusammenfassung für Interessierte und als Basiswissen für andere Blogeinträge, stelle ich hier einmal die gängigen Medien vor, mit denen zumindest in der Bundesrepublik das Gros der Internetverbindungen realisiert wird. Aber zunächst ein paar Basisinformationen zur Situation in Deutschland:

Die grundsätzliche Netzstruktur wird von der Bundesnetzagentur vorgegeben und ist für alle Telekommunikationsanbieter verbindlich. Es gliedert das Landesnetz der Bundesrepublik in Ortsnetze, die jeweils über eine einheitliche Ortsnetzkennzahl verfügen, besser bekannt als Vorwahl. So hat Hamburg beispielsweise die Ortsnetzkennzahl „40“, Leipzig die „341“ und Castrop-Rauxel die „2305“. Diese Ortsnetzkennzahl kann maximal fünfstellig sein, wobei die Führende „0“ übrigens nicht Teil der Vorwahl ist, sondern lediglich die sogenannte Verkehrsausscheidungsziffer darstellt. Aber das nur am Rande…

Die Ortsnetze sind wiederum in Anschlussbereiche unterteilt und durchnummeriert. Kleine Ortsnetze bestehen häufig nur aus einem Anschlussbereich, Großstädte hingegen aus einer Vielzahl. Die Grenzen der Anschlussbereiche und Ortsnetze stimmen eher selten mit politischen Grenzen überein und können nur schwer und auch nur durch die BNetzA geändert werden.

Es bleibt jedem Telekommunikationsunternehmen selbst überlassen, wie der Netzaufbau realisiert wird. Allerdings besteht die Vorgabe, dass die Versorgung der Kunden von einem „Verteiler“ aus dem jeweiligen Anschlussbereich heraus erfolgen muss. Die Telekom Deutschland, als einziges reguliertes TK-Unternehmen in der Bundesrepublik, unterhält in jedem Anschlussbereich eine Vermittlungsstelle, die in der Größe von einem Einfamilien- bis zu einem Hochhaus variieren kann und auch Technik von Wettbewerbern „beherbergen“ muss.

In Deutschland schreibt das Telekommunikationsgesetz vor, dass Telekommunikationsleitungen nicht konzessioniert werden dürfen. Das bedeutet, dass im Gegensatz zu allen anderen Leitungsträgern (Wasser, Abwasser, Strom, Gas etc.) von einer Gemeinde kein alleiniges Nutzungsrecht vergeben werden darf, wodurch sich in der Regel Trassen von mehreren Telekommunikationsunternehmen parallel in den Gehwegen befinden. Wenn möglich werden diese nach einer DIN-Norm vergeben; hierdurch liegen Telekommunikationsleitungen meist hausseitig, gefolgt von Stromleitungen, Gas, Wasser & Co. Wird einer Trasse von der jeweils zuständigen Behörde zugestimmt, so ist diese üblicherweise 30 cm breit (Breite einer Baggerschaufel) und steht diesem Unternehmen exklusiv zur Verfügung.

Soviel zum Hintergrund. Jetzt aber zum eigentlichen Thema:

1. Kupfer-Doppelader

Die Kupfer-Doppelader nutzen hierzulande die mit Abstand meisten Menschen, um zu Hause ihre Verbindung mit dem Internet zu realisieren. Das Kupfernetz stammt aus der Zeit der Bundespost und war dort zunächst das nach dem Zweiten Weltkrieg bzw. nach der Wiedervereinigung komplett neu errichtete Telefonnetz. Fast alle Gebäude verfügen hierzulande über einen Anschluss an ein Verzweigerkabel, das bis zu einem Kabelverzweiger in der Nähe führt. Von dort wurde über einen „Schaltdraht“ die Verbindung zu einem Hauptkabel hergestellt, das wiederum vom Verzweiger bis in die Vermittlungsstelle führt.

Da Kupfer eine relativ hohe Signaldämpfung hat, sinkt die verfügbare Übertragungsrate mit dem Abstand zur Vermittlungsstelle. Daher sind seit den 2000er Jahren immer mehr TK-Unternehmen dazu übergegangen, die aktive Technik näher an die Kunden zu verlagern, um den Signalweg über das Kupferkabel zu verkürzen. Üblich ist, hierbei den Kabelverzweiger mit einem größeren Gehäuse zu überbauen, in das aktive Technik gesetzt wird. Dieses Gerät ist auf der einen Seite an ein Glasfaserkabel angeschlossen und direkt mit dem Weitverkehrsdatennetz des Anbieters verbunden. Auf der anderen Seite wird das Kupfer-Verzweigerkabel genutzt, um die Verbindung zum Kunden herzustellen. Durch diese Maßnahme erhöht sich die mögliche Übertragungsrate deutlich; aktuell werden in der Bundesrepublik bis zu 100 Mbit/s über diesen Weg angeboten. Der nächste Technologiesprung steht hier bereits in den Startlöchern, aus diesem Grund ist in den kommenden Jahren mit einer Erhöhung der möglichen Übertragungsrate bis auf 250 Mbit/s zu rechnen. Technisch sind langfristig ca. 800 Mbit/s auf der Kupfer-Doppelader möglich.

Die Kupfer-Doppelader ist kein geteiltes Medium. Da für die ursprüngliche Funktion des Netzes, die Telefonie, jeder Teilnehmer Signale sowohl senden als auch empfangen muss, verfügt jeder Kunde auch über eine exklusiv für ihn nutzbare Kupferstrecke. Aufgrund der Kabeleigenschaften (Kabellänge bis in die Wohnung, verwendete Kabeltypen) hat jeder xDSL-Anschluss zwar eine individuelle maximal mögliche Übertragungsrate, die auch deutlich unter dem liegen kann, was die Technologie hergibt. Dafür steht diese Übertragungsrate dem Kunden konstant und zur alleinigen Nutzung zur Verfügung.

2. Koaxialkabel

Seit in den 1970er Jahren das Kabelfernsehnetz verlegt worden ist, sind zumindest in den Ballungszentren parallel zu den „alten“ Kupfer-Doppeladern auch Kupfer-Koaxialkabel vorhanden. Dieses Netz war ursprünglich dazu gedacht, die Fernsehsignale, von wenigen Kopfstellen ausgehend, über verschiedene Verteilerebenen bis in die Haushalte zu senden. Jedes Haus in einem Straßenzug wurde an dasselbe Kabel angeschlossen. Ein Rückkanal war zunächst nicht vorgesehen.

Mit dem Verkauf der Kabelnetze war Anfang der 2000er Jahre der Weg für einen rückkanalfähigen Ausbau frei. Seitdem wird ein Teil des zur Verfügung stehenden Frequenzspektrums des Fernsehsignals für den Datenverkehr genutzt. Die Verteilerschränke sind mittlerweile in vielen Fällen mit einem eigenen Glasfaseranschluss ausgestattet und ein Gerät in diesem Schrank trennt die Datensignale vom Fernsehsignal. Genau wie beim Telefonnetz wird somit in der Regel nur noch auf dem letzten Stück zwischen Verteiler und Kunde das Kupferkabel genutzt.

Mit dem aktuellen Standard sind auf dem Koaxialkabel theoretisch Übertragungsraten bis zu 1,6 Gbit/s möglich. Um nicht zu viele Fernsehkanäle einzubüßen, werden hiervon in der Regel aktuell aber nur gut 300 Mbit/s genutzt. Mit Einführung der neuesten Technologie können diese Übertragungsraten in naher Zukunft annähernd verzehnfacht werden.

Im Gegensatz zum Telefonnetz ist das Fernsehnetz ein geteiltes Medium. Das bedeutet, dass sich alle Kunden in einem Segment die maximal verfügbare Übertragungsrate teilen müssen, da sie alle an dasselbe Kabel angeschlossen sind. Dies geschieht über Zeitschlitze; alle Kunden sind nacheinander an der Reihe und dürfen jeweils für einen definierten Zeitabschnitt Daten senden bzw. empfangen. Die individuelle Übertragungsrate ist somit davon abhängig, wie viele Kunden im Netzsegment gerade Daten übertragen möchten. Hierdurch kann es durchaus vorkommen, dass tagsüber bis zu 30 Mbit/s zur Verfügung stehen, abends, wenn die Nachfrage nach Datenverkehr steigt, aber nur etwa 10 Mbit/s.

3. Luft

Spätestens seit der Einführung von Long Term Evolution, besser bekannt als LTE oder 4G, Anfang der 2010er Jahre sind in der Bundesrepublik nahezu flächendeckend mobile Breitbandverbindungen möglich. Diese Zugangstechnologie wird nicht mehr nur für mobile Endgeräte und Anwendungen genutzt, sondern soll darüber hinaus auch als Ersatz für klassische Breitband-Festnetzanschlüsse dienen.

In Europa wird LTE in drei verschiedene Frequenzbereich aufgeteilt: Der Bereich um 800 MHz ermöglicht hohe Reichweiten, aber nur Übertragungsraten bis etwa 50 Mbit/s. Im Frequenzblock um 1.800 MHz sind dann bis zu 150 Mbit/s möglich. Der dritte Frequenzbereich um 2.600 MHz hat zwar die geringste Signalreichweite, bietet aber schon heute Übertragungsraten bis 300 Mbit/s an. Mit der Einführung von LTE-Advanced wird es außerdem zu einer Steigerung bis auf 1 Gbit/s kommen.

Die tatsächliche mögliche Übertragungsrate beim Kunden ist von vielen Faktoren abhängig. Grundsätzlich gilt, dass die Rate sinkt, je weiter Sender und Empfänger voneinander entfernt sind. Aber auch Hindernisse, wie z. B. Bäume oder Wände, oder das Wetter haben Einfluss auf die Signalqualität. Darüber hinaus bedeutet beim Mobilfunk eine theoretisch mögliche Übertragungsrate von bspw. 1 Gbit/s nicht, dass der Funkturm auch „schnell“ genug angebunden ist, um diese Daten ins Weitverkehrsnetz zu transportieren. Die Funktürme die meisten Anbieter verfügen heutzutage aber über eine ausreichende Glasfaseranbindung.

Funknetze sind geteilte Medien. Das bedeutet, dass sich alle Teilnehmer in einer Funkzelle die verfügbare Übertragungsrate teilen, was wie beim Fernsehkabelnetz über Zeitschlitze realisiert wird. Die an stationären LTE-Anschlüssen verfügbare Übertragungsrate ist somit grundsätzlich auch davon abhängig, wie viele Daten die anderen Teilnehmer in der Funkzelle übertragen.

Insbesondere für abgelegene oder schlecht versorgte Landstriche bieten stationäre Internetverbindungen über LTE eine Alternative, da in diesen ein Ausbau der Festnetztechnologien in vielen Fällen unwirtschaftlich ist. In Städten hingegen lässt sich LTE mit einer klassischen Festnetztechnologie kombinieren, um einerseits die Gesamtübertragungsrate zu erhöhen und andererseits einen Zweitweg und damit eine höhere Ausfallsicherheit des Anschlusses zu realisieren.

4. Glasfaser

Da momentan sehr viele Zugangstechnologien mit dem Schlagwort „Glasfaser-Technologie“ beworben werden, sei an dieser Stelle darauf hingewiesen, dass natürlich alle Internetanschlüsse über Glasfaser realisiert werden. Die Frage ist, bis zu welchem Punkt diese Glasfasern verlegt worden sind. Wie oben erläutert, enden diese für den überwiegenden Großteil der versorgten Haushalte entweder in einem Verteilerschrank in der Nachbarschaft oder am Mobilfunkmast.

Es gibt aber auch Zugänge, bei denen die Glasfaser mehr oder weniger direkt bis zum Kunden verlegt worden ist:

Bei „Fibre to the Building“ (FTTB) endet die Glasfaser im Hausanschlussraum des versorgten Gebäudes. Dort befindet sich ein Gerät, dass die optischen Signale der Glasfaser wieder in elektrische Signale wandelt und die Haushalte in der Regel über das hausinterne Kupfernetz (Telefonnetz) versorgt. Insbesondere kleinere Telekommunikationsanbieter, wie z. B. Stadtwerke, nutzen diese Technologie.

Bei „Fibre to the Premises“ (FTTP) wird ein Glasfaserkabel bis in jede Wohnung verlegt und erst dort an einem Kundengerät abgeschlossen. Diese Technologie bietet das höchste Potenzial an Übertragungsrate, ist aber auch am aufwendigsten zu realisieren, da nicht nur das Gebäude versorgt werden, sondern auch ein Glasfaser-Inhausnetz gebaut werden muss.

Für Einfamilienhäuser werden beide Varianten häufig unter dem Begriff „Fibre to the Home “ (FTTH) zusammengefasst, da sie hier baulich identisch sind.

Im Gegensatz zu den oben vorgestellten Technologien ist der „Glasfaseranschluss“ am wenigsten genormt. Die Qualität der Netzwerkstruktur fällt daher recht unterschiedlich aus. Manche Anbieter installieren Technik mit Standardnetzwerkkomponenten, der de facto alle Kunden zu einem Netzwerk vor Ort zusammenschließt. Die Kunden werden an Netzwerkweichen, sogenannte Switche, angeschlossen und der Datenverkehr so Segment für Segment gebündelt, bis er schließlich an das Weitverkehrsdatennetz übergeben wird. Hierdurch lässt sich formal eine Übertragungsrate von üblicherweise 1 Gbit/s herstellen, die in der Praxis aber durch die vielen Netzsegmente deutlich geringer ausfällt.

Andere Anbieter hingegen verwenden auf ihrer Glasfaserstrecke gar keine aktive Technik mehr und binden jeden Kunden direkt an einen zentralen Netzwerkknoten an. Da der Abschluss von Glasfasern in Technikstandorten relativ viel Platz einnimmt, ist es auch üblich, eine Faser im Hauptkabel über optische Koppler mehreren Kunden zur Verfügung zu stellen. Diese fest definierte Anzahl an Kunden teilt sich auf der Faser den Datenverkehr in maximal 32 Zeitschlitzen. Da die Zeitschlitze fest definiert sind, stehet jedem Teilnehmer immer dieselbe Übertragungsrate zur Verfügung. Diese Variante von FTTB gilt daher nicht als geteiltes Medium.

Bundesweit werden aktuell üblicherweise Übertragungsraten zwischen 50 und 200 Mbit/s für Privatkundenanschlüsse angeboten. Eine Grenze nach oben ist technisch zurzeit nicht in Sicht.

Märchenstunde

Es waren einmal zwei Nachbarn. Eines Tages war der eine Nachbar knapp bei Kasse, denn er hatte sein gesamtes Monatseinkommen bereits für einen langen Urlaub, sein luxuriöses Auto, schöne neue Kleidung und Geschenke ausgegeben und ging häufig in noblen Restaurants essen. Da fragte er den anderen Nachbarn, der viel und hart arbeitete und sich seinen bescheidenen Wohlstand vom Munde absparte, ob er ihm nicht etwas Geld leihen könne, um über die Runden zu kommen. Der sparsame Nachbar willigte ein, aus Nächstenliebe und Mitleid, bestand aber darauf, das Geld im nächsten Monat zurückgezahlt zu bekommen.

Monat für Monat ging ins Land und immer und immer wieder hatte der erste Nachbar sein gesamtes Einkommen ausgegeben. Höflich fragte der Fleißige, wann er denn sein Geld zurückerhalten würde. Doch der Lebemann von nebenan wurde pampig und weigerte sich, auch nur einen Taler zurückzuzahlen. Schließlich meldete er Insolvenz an und der gutmütige Nachbar sah keinen Kreuzer seiner Leihgabe jemals wieder.

So ungefähr ist das Verhalten „der Griechen“ gegenüber ihren Gläubigern, insbesondere „uns“, wenn man dem Axel-Springer-Verlag und vielen anderen Medien glaubt.

Und nun zu einer völlig anderen Geschichte:

Es waren einmal zwei Nachbarn. Der eine verfügte über großzügige Ländereien, auf denen er Getreide und Gemüse anbaute. Der andere hatte lediglich ein kleines Stück Land, um seine Familie zu ernähren. Nach einem heißen und trockenen Sommer fiel die Ernte so mager aus, dass der Kleinbauer nicht genug zu Essen hatte, um seine Familie über den Winter zu bringen. Er klopfte an der Tür des benachbarten Großgrundbesitzers und bat ihn darum, ihm einen Teil seiner Ernte abzugeben. Dieser willigte sofort ein, unter der Bedingung, dass der Kleinbauer im kommenden Jahr mehr zurückgeben werde, als ihm dieses Jahr geliehen worden sei. Der Kleinbauer nahm das Angebot an, um nicht zu verhungern.

Der nächste Sommer kam und die Ernte des Kleinbauern war dieses Mal ausreichend, um seine Familie zu ernähren. Doch sein Nachbar kam und bestand darauf, den vereinbarten Teil der Ernte plus Zinsen zu erhalten. „Lieber Nachbar“, erwiderte der Kleinbauer, „dann bleibt mir und meiner Familie dieses Jahr noch weniger zu Essen als im letzten Winter, und du hast große Ländereien und Vorräte, die für viele Jahre reichen. Willst du mir meine Schuld nicht erlassen?“ Doch sein Nachbar verneinte. „Willst du mir im kommenden Winter Getreide geben, ohne dass ich dir ein Vielfaches davon zurückzahlen muss, sodass ich meine Schuld bei dir nach und nach begleichen kann?“, fragte der Kleinbauer dann. Doch sein Nachbar verneinte. „Willst du mir nicht einen Teil deines Landes abgeben, damit ich mehr Getreide anbauen kann und nicht mehr auf deine Hilfe angewiesen bin?“ Doch sein Nachbar verneinte.

Und so begab es sich, dass der Kleinbauer jahrein jahraus weniger seiner Ernte für sich und seine Familie behalten konnte und auch in guten Erntezeiten von der Gnade seines wohlhabenden Nachbarn abhängig war.

Dies entspricht in etwa dem, was mit Griechenland tatsächlich geschehen ist.