Private Internetpräsenz
Prof. Dr.-Ing. C.C. Timmermann

   Mannheim/Plankstadt  Germany


Die Entwicklung von
Internet und Optischer Nachrichtentechnik
C. C. Timmermann
tätig auf diesem Gebiet seit 1971
Copyright Profund Verlag 2000 - 2018

1. Der Beginn: Internet nur für Spezialisten
Noch Mitte der 1980er bis Anfang der 1990er Jahre nutzen nur sehr wenige Spezialisten, meist Diplomingenieure, Informatiker  und Physiker, die Möglichkeiten der Datenübertragung zwischen ihrem Heimrechner und anderen Rechnern in der Welt. Im einfachsten Fall einer speziellen Punkt-zu-Punkt-Verbindung nutzte man dafür z.B. das Programm TELIX, und beide Teilnehmer waren mit einem einfachen 2400 Baud-Modem über die Telefonleitung miteinander verbunden.

Der Datenverkehr in Netzen begann mit der Verbreitung des Internetprotokolls.  Der notwendige Einwahlknoten in das Netz, das Internet, lag meist im Rechenzentrum einer Hochschule oder Großforschungseinrichtung, und er bestand aus einem Server mit Vielfach-Modemanschluß. Der Nutzer mußte sich dann mit einer Zugangskennung authorisieren. In aller Regel erteilten die jeweiligen Rechenzentren  solche Einwahlberechtigung nur den Mitarbeiter aus den technischen Forschungs- und Entwicklungsabteilungen, denn  weder in den Verwaltungen von Staat und Wirtschaft noch im Privatbereich war das Internet sonderlich bekannt. Nach der Einwahl in das Internet konnte nun in Verzeichnissen anderer Rechner nach interessanter, herunterladbarer Software gesucht werden. Jeder angewählte Rechner verlangte dabei wieder eine neue Einwahlberechtigung - abgesehen von einem öffentlich zugänglichen Verzeichnis (pub).  Es gab schon Suchmaschinen (z.B. Archie) für Datenfiles. Man arbeitete meist noch mit UNIX-Befehlen, um Dateien zu laden, zu versenden oder um elektronische Post abzuwickeln. Dieses FTP-System ist heute unter Windows oder Linux automatisiert und existiert nach wie vor. Umfangreiche Dateiangebote lieferten zunächst nur die Großforschungseinrichtungen (CERN, NASA etc.) und Universitäten.

Mittels Telnet konnte man außerdem den eigenen Heimrechner als verlängertes Terminal eines Großrechners, der an einem anderen Ort der Welt steht, nutzen und betreiben. So boten schon frühzeitig die Staatsbibliotheken (Kongreßbibliothek, Deutsche Bibliothek etc.) den Internetnutzern entsprechende Recherchemöglichkeiten per Internet.  Telnet wird auch heute noch als einfaches Textterminal verwendet.

Den nächsten Fortschritt brachte dann das von CERN erfundene Hypertexttransferprotokoll (http) zur Darstellung und Übertragung von www-Seiten, die aus Texten, Bildern und Verweisen (Links auf andere Seiten eines anderen Rechners) bestehen. Gleichzeitig kamen die dafür notwendigen Programme (Browser) zur Darstellung einer www-Seite heraus. Diese Technik ist heute gemeint, wenn populärwissenschaftlich über das "Internet" gesprochen wird. Ein beliebter Browser war Anfang/Mitte der 1990er Jahre das Programm "MOSAIC", später "NETSCAPE".
 

2. Die Verbreitung des Internet
Der nächste Entwicklungsschritt zeichnete sich ab Mitte der 1990er Jahre dadurch aus, daß bessere Browser  aufkamen, sogar mit einem html-Editor zur bequemen Erstellung von eigenen www-Hypertextseiten, und zwar  ohne Kenntnisse der html-Programmiersprache. Gleichzeitig verbreiteten sich Programme zum Aufbau eines eigenen Internet-Servers, z.B. auf einer UNIX-Plattform. Damit konnten dann kleinere und mittlere Institute selbst zu Anbietern von solchen Internetseiten werden. Ab Mitte der 1990er Jahre erhöhte sich somit schlagartig die Zahl der Anbieter und somit auch gleichzeitig die Zahl der Interessenten, die sich die Seiten anschauen wollten. Im wesentlichen waren die Anbieter nun bereits kleinere Forschungs- und Entwicklungsabteilungen aus den Bereichen der Informationstechnik und der Ingenieurswissenschaften sowie größere und mittlere Industriebetriebe, aber auch schon zukunftsweisende und weitsichtige Abteilungen in den Verwaltungen von Staat und Wirtschaft, ebenso auch Versandhäuser aller Art.

Für eine Massenverbreitung des Internet bis in die Privatwohnungen der Menschen boten sich nach wie vor nur die Telefonleitungen an. Gegen Mitte bis Ende der 1990er Jahre gliederten daher die Telefongesellschaften sogenannte Online-Unternehmen aus. Sie verwalteten und verkauften Einwahlberechtigungen in das Internet. Zur Einwahl und Übertragung wurde der vorhandene Telefonanschluß mit 56k-Modem als Nebenstellengerät verwendet. Alternativ konnte auch eine ISDN-Leitung mit einer im Heimrechner installierten ISDN-Karte genommen werden. Auf der Anbieterseite stellte dann ein Vermittlungsrechner die Verbindung zwischen Internet und Tausenden - heute Millionen -  von Kunden  her. In einer Zwischenstufe bot die Telekom diese Verbindung noch durch Einwahl in das auf Deutschland beschränkte BTX-Netz an, das selbst mit dem Internet viel Ähnlichkeit hat. In dem BTX-Fenster öffnete sich dann seinerzeit ein Internetfenster.

Zur Anbindung des Heimrechners an das Internet gab es bereits spezielle Installationssoftware, und der Kunde mußte sich  um die Gerätekonfiguration und um die Installation, die nicht immer völlig problemlos war, selbst kümmern.
 

3. 500 Jahre nach Gutenberg: Der Privatmann als globaler Verleger
Ende der 1990er Jahre hatten die Online-Unternehmen ihre Software so weit entwickelt, daß die Installation auch für Laien problemlos wurde. Zusätzlich zur Einwahl verkauften sie nun Speicherplatz, auf dem die Kunden ihre selbsterstellten Internetseiten für jedermann abrufbar unter einer persönlichen Internetadresse abspeichern konnten. Ab dieser Zeit erhielten die  Kunden auf Wunsch also eine eigene Internetadresse mit eigenem Namen und eine dazu passende email-Adresse. Diese Adresse  war und ist entweder eine weltweit einmalige Adresse in Form einer Unteradresse des Online-Unternehmens oder es ist sogar eine weltweit einmalige, individuelle Adresse vom Typ "www.Name.de" oder "www.Name.com" usw. , wobei der Kunde für "Name" seinen eigenen Namen oder den seines Unternehmens einsetzen kann. Eine weltweite Jagd auf diese sogenannten Domainnamen setzte ein, denn jeder wollte sich seinen Wunschnamen sichern. Für die Namensgebung wurde eine Klassifizierung nach Ländern (.de= Deutschland, uk=England usw.) eingeführt, aber auch eine Unterteilung nach einer Reihe von  Sachgebieten (.org=Organisationen, .com=Unternehmen, .edu= Hochschulen/Universitäten usw.).  Die Vergabe von Namen unter der TOP-LEVEL-Domain ".de" wird in Deutschland von der Interessengemeinschaft DENIC durchgeführt.

Rund 500 Jahre nach der Erfindung des Buchdruckes, der im wesentlichen  nur Kirche, Staat und später Großinstitutionen die Möglichkeit zur Massenverbreitung von Schriften eröffnet hatte, erhielt nun erstmals auch der "kleine Mann" das Privileg, seine Meinungen, Gedanken und Erkenntnisse der Weltöffentlichkeit mitzuteilen. Seit dieser Zeit kann er Informationen entgegennehmen oder unter einer unverwechselbaren Adresse verbreiten: Er besitzt mit dem Internet also ein Werkzeug, mit dem er jedem anderen Menschen auf der Welt, der dasselbe Werkzeug hat, selbsterstellte Schriften, Bilder, sowie Ton oder Film übertragen und zeigen kann.

Regierungen und Medienkonzerne verloren nun ihr Monopol zur weltweiten Verbreitung von Informationen. Das Informationszeitalter begann, und eine Umwälzung allerersten Ranges setzte ein. Die davon ausgehende Faszination entbrannte weltweit und machte in den industrialisierten Ländern das Internet innerhalb von nur 2 bis 3 Jahren zum gängigen Werkzeug von Erwachsenen, Jugendlichen und Kindern, aber auch von Organisationen und Unternehmungen aller Art. Als Endgeräte dienen vor allem im Privatbereich immer weniger die ursprünglich vorherrschenden Tischrechner (PCs), sondern immer mehr Tablets und vor allem Smartphones, die mit hervorragenden Kameras ausgerüstet sind und aufgrund ihrer enormen Rechenleistung Datenströme bis in den Bereich von einigen GBit/s vesenden und empfangen können. Die Verarbeitung von Ton und vor allem Bewegtbild ist somit jedermann an jedem Ort der Welt in exzellenter Qualität möglich. Voraussetzung ist dabei, daß für alle Menschen ein Übertragungsweg mit hinreichend großer Kanalkapazität existiert.
 

4. Das Problem: Die Bandbreite oder Übertragungskapazität der Leitungen
Durch den Massenbetrieb einerseits und durch den Wunsch nach Übertragung nicht nur von Text und Bild, sondern von Ton oder gar Film andererseits entstand ab dem Jahr 2000  ein Bedarf an Übertragungskapazität, der für Laien kaum faßbar ist. Die notwendigen Bitraten bei Textübertragung sind zwar noch klein, bei Standbild aber schon höher, bei Tonübertragung in CD-Qualität  sehr hoch und bei Videofilmen in TV-Qualität extrem hoch - jeweils verglichen mit den Datenübertragungsmöglichkeiten der früheren ISDN-Telefonleitungen mit 2 x 64 Kbit/s. Eine Faustregel besagt:   Ein Tonsignal benötigt in jeder Sekunde  etwa so viel Daten wie insgesamt einige Textseiten. Ein qualitativ hochwertiges Fernsehbild wiederum beinhaltet 100- 1000 mal so viel Übertragungskapazität wie ein Tonsignal. Die weltweite Zahl der Internetnutzer steigt nach Schätzungen von Cisco von 2016 bis 2021 von 3,3 auf 4,5 Milliarden Menschen, und der Datenverkehr verdreifacht sich dabei auf ca. 3,3 ZettaByte= 3,3 E21 Byte jährlich. Diese Zahl erscheint gewaltig. Rechnet man sie aber mit 1 Byte = 8 Bit und weiter auf eine Person und pro Sekunde um, verbleibt pro Person ein täglich ununterbrochener, mittlerer Datenstrom von nur noch 8*3,3E21 Bit/Jahr/4,5E9 Personen = 186 KBit/s pro Person - also ein erstaunlich geringer Wert, zumal alle Institutionen und die gesamte Weltwirtschaft damit versorgt sein müssen. Setzt man zur groben Orientierung nur einmal für einen einzelnen Haushalt ein typisches Internet-Datenvolumen von 50 GByte pro Monat an,  bedeutet dies auf die Sekunde umgerechnet eine mittlere Datenrate von 154 KBit/s, also ein ähnlicher Wert. Würde allerdings pro Tag 3 Stunden Fernsehen mit z.B. 8 MBit/s übertragen, entspräche dies einer ständig anstehenden, mittleren Datenrate von 1 MBit/s, also etwa das 6-fache des obigen Wertes. Ständig mitlaufende Hintergrundmusik erfordert z.B. 128 KBit/s. Telefonate, die im einfachsten Fall sogar schon mit 10 KBit/s abgewickelt werden können und meist kurzzeitig laufen, spielen dann zunächst keine große Rolle. Obige Schätzung von Cisco erscheint insgesamt also keinesfalls übertrieben. Sie ist für die nachfolgenden Jahre sicherlich nach oben zu korrigieren.

Es geht also bei der Frage der Übertragungskapazität für zukünftigen Internetbetrieb nicht um eine kleine,  zusätzlich notwendige Kapazität neben bisherigen Kapazitäten, sondern um den Aufbau von Übertragungskapazitäten in einem Umfange, der das bisher Dagewesene in völliger Bedeutungslosigkeit versinken läßt. Aus diesem Grunde kann die mittel- bis langfristige Lösung des Problems nicht in einer vielfachen Anwendung einer alten Technik bestehen, indem  z.B. 10-fach mehr Kupfer-Zweidrahtleitungen verlegt werden.

Die einfache Vorstellung, über die vorhandenen alten Telefonleitungen doch einfach  zusätzlich noch den Internetverkehr der gesamten Bevölkerung mit Text, Bild, Ton oder Film abzuwickeln ist ebenso absurd wie die Vorstellung, auf den Militärstraßen der Römer in Germanien zusätzlich zu den antiken Gespannen noch die Abermillionen PKW und LKW der Neuzeit laufen zu lassen.

Hier geht es um ganz andere Dimensionen. Das Umdenken fällt angesichts der großen Zahlen  vielen schwer. Ein GigaByte erfaßt eine Milliarde Zeichen, und es handelt sich dabei um eine Zahl mit nur 9 Nullen. Bei 1 ZettaByte handelt es sich um eine Zahl mit 21 Nullen. Mit einer kleinen Änderung ist es nicht getan. Die "Elektronik" ist nicht mehr das alleinige Zauberwort der Zukunft. Optische Nachrichtentechnik (Photonik) und Hochfrequenzelektronik werden jedoch diese Aufgaben bewältigen. Diesen Bereichen gehört die Zukunft.  

5. Genügend Übertragungskapazität durch die Optische Nachrichtentechnik
Von allen denkbaren Einschränkungen, die heute im Internetbereich aufgelistet werden können, bleibt also am Ende einer sorgfältigen Analyse eigentlich nur die Bandbreite der Übertragungs- und Vermittlungseinrichtungen übrig. Verkürzt gesprochen kann man sagen, daß alles vorhanden ist, nur nicht die Übertragungskapazität.

Der Internetverkehr befindet sich insofern mancherorts noch in einer frühen Entwicklungsphase, die manchem Benutzer im ländlichen Raum große Bescheidenheit abverlangt: Der Textaufbau und Bildaufbau verläuft dort zwar noch schnell, die Übertragung von Filmen kann aber eingeschränkt sein, weil bei Videos die notwendige Bitrate bei weitem am höchsten ist und bei den oft alten Telefonleitungen in abgelegenen Gegenden nicht realisiert werden kann. Filme guter Qualität lassen sich selbst  in schlecht versorgten Gebieten  manchmal noch passabel  übertragen, wenn die Zahl der Nutzer, die sich die Kanalkapazität teilen müssen,  nicht zu groß wird.  Es liegt also in einigen Bereich heute eine Situation vor, die vor 100 Jahren dem Fall entsprach, daß kein fließendes Wasser vorhanden war und sanitäre Anlagen unter vielen geteilt werden mußten. Um mit der alten, schmalbandigen Übertragungstechnik effizienter arbeiten zu können, schneidet man ohnehin redundante (überflüssige) Informationen weg, was unschädlich und nicht zu kritisieren ist. Diese Methoden sind aber bei den modernsten optischen Verfahren längst Standard und stellen nichts Besonderes dar. Man steigert bei der Nachrichtenübertragung die Effizienz weiter, indem man neben irrelevanten Informationen auch gezielt relevante Informationen beseitigt, wodurch dann tatsächlich Qualitätseinbußen entstehen, die man im Gegenzug für die geringere Bandbreite hinnimmt. Dabei ist abzuwägen, welche Qualitätseinbußen hingenommen werden sollen und welche Effizienzsteigerung man im Gegenzug dafür erzielt.  Redundanzreduktion ist Standard, aber keine Lösung für alte Leitungen.

Dieses "ewige Hängen und Würgen" hat immer wieder seinen Grund in einer bei weitem zu kleinen Übertragungskapazität alter Kupferleitungen. Das Problem bedarf insofern einer grundsätzlichen Lösung. Sie ist fundamental und aufwendig, Über die Notwendigkeit der fortgeschrittensten optischen Informationstechnologie ist dabei ebenso wenig zu diskutieren wie vor 100 Jahren über die Frage einer lückenlosen Versorgungsinfrastruktur aus Straßen, Eisenbahn, Flugzeug, Strom, Gas, Wasser und Abwasser. Diese Infrastruktur gehört zu einer fortgeschrittenen Zivilisation. Keine Lösung ist die Arme-Leute-Lösung, bei der aus Geldmangel statt Lichtwellenleitern immer wieder die alten Kupferleitungen mit stets neuen Endgeräten versehen werden. Damit schiebt man das Problem nur hinaus, löst es aber nicht.

Genügend Übertragungskapazität bieten auf mittlere und ferne Sicht nur  die Verfahren der Optischen Nachrichtentechnik mit Glasfasern bzw. Lichtwellenleitern (LWL), Lasern, Photodioden, optischen Verstärkern, Teilern, Kopplern und all den anderen dafür notwendigen Komponenten. Die Vermittlung der Signale wird mit optischen Schaltmatrizen erfolgen. Integrierte optische Schaltungen auf speziellen Substraten sind dabei die Schlüsselkomponenten der etwas ferneren Zukunft. Ebenso wie man heute integrierte Schaltungen (ICs) verwendet, so verwendet man dann OICs (optical integrated circuits) in der Integrierten Optik, die mikroskopisch kleine optische Wellenleiter,Weichen und Verzweigungen auf einem geeigneten Substrat integriert, z.B. auf LiNbO3 (Lithiumniobat). Für viele Jahre wird die Vermittlungstechnik (Router) aber noch auf elektronischer Ebene verbleiben. Die Rechner bestehen dabei aus sehr vielen Rechenkernen, die unter Ausreizung der Methoden der Hochfrequenzelektronik im GHz-Bereich takten.  Die logischen Zustände - im einfachsten Fall O und I - werden dabei durch elektrische Ströme und Spannungen dargestellt und mit Abermilliarden von Transistoren im GHz-Bereich verändert, um logische Zustände darzustellen.  Geschaltet und gesteuert werden bei diesen Rechnern heute immer elektrische Ströme und Spannungen und noch nicht wie bei einem zukünftigen optischen Rechner optische Wellen. Da die Theorie von den elektrotechnischen Frequenzen bis hin zu den optischen Frequenzen letztlich auf einer gemeinsamen Grundlage steht und die Fragen bei elektrotechnischen Frequenzen nur einen Sonderfall dessen darstellen, was für die Optische Nachrichtentechnik gilt, ist eine universelle Betrachtungsweise jederzeit der optimale Weg.

Im 21. Jahrhunderts ist in der Informationstechnik nicht mehr die Elektronik allein die dominierende Schlüsseltechnologie,
sondern vor allem die Optische Nachrichtentechnik (Photonik).

6. Die Optische Nachrichtentechnik liefert optische Netzwerke
Die Erforschung der Optische Nachrichtentechnik erfolgte ab etwa 1965 und ist eine in der Öffentlichkeit kaum  wahrgenommene technische Revolution fundamentalster Art. Auch im Ingenieurswesen selbst war die Zahl der Fachleute, die sich mit dieser Technik beschäftigte, zunächst sehr klein, und sie stieg nur langsam an. Noch im Jahre 1970 kannten sich die Forscher weltweit alle persönlich. In Deutschland konzentrierte sich  bis 1970 die Arbeit bei ganz wenigen Institutionen, z.B. bei Siemens in München,  bei AEG-Telefunken in Ulm, am Institut für Hochfrequenztechnik der TU Braunschweig (Prof. Unger), an der TH in Karlsruhe (Prof. Grau) oder bei der Firma Schott.  An vorderster Front forschten die Bell Laboratorien, einschlägige japanischen Firmen, aber auch Institutionen im heutigen Rußland, in England, Frankreich und vielen anderen Ländern der Welt.  Wie auch heute, so war schon ab Mitte der 1960er Jahre insbesondere in Japan und in den USA die Einsicht außerordentlich tief ausgeprägt,  daß  in diese zukunftsträchtige Technologie nicht halbherzig, sondern ganz massiv zu investieren ist. In China war man ebenfalls von Anfang an dabei, was in der Öffentlichkeit gänzlich unbekannt ist, aber der Forschung selbstverständlich geläufig, weil auch in frühester Zeit wissenschaftliche Verbindungen dorthin bestanden. Heute werden die Früchte dieser gesunden Grundeinstellung zu Lernen, Forschen und Arbeit geerntet: Die USA, Japan, China und Deutschland haben die weltweit stärksten Volkswirtschaften, und international tätige Firmen haben auch in Deutschland Forschungs- und Entwicklungszentren aufgebaut, um diese Technologie weiter voranzubringen.

Die Optische Nachrichtentechnik ist heute relativ weit entwickelt und kann als Anwendung ihrer vielfältigen Möglichkeiten schon sehr leistungsfähige optische Netzwerke für Internet und Datenverkehr liefern. Nachrichtennetze der Zukunft beinhalten dabei für kleine Bandbreiten u.U.  weiterhin noch einfache Kupferleitungen oder auch Funkzellen, wie man sie heute aus der Mobilfunktechnik her kennt. Für große Bandbreiten - und hier liegt die technische Herausforderung - kommen nur festverlegte Lichtwellenleiter (LWL) zum Einsatz. Man arbeitet dabei wie in der sonstigen Nachrichtentechnik mit zusammenhängenden Schwingungszügen bei optischen Frequenzen (kohärente Optische Nachrichtentechnik). Nur für ganz einfache Anwendungen genügt es, nach dem ganz alten Prinzip des Löschfunkensenders den Sender - also die Lichtquelle (Laser, LED) - ein- und auszuschalten, um so einen Datenstrom von Nullen und Einsen zu senden. Mit diesen preiswerten Methoden der inkohärenten Optischen Nachrichtentechnik lassen sich bereits mehrere GBit/s über Glasfasern übertragen. In vielen Fällen ist dies ausreichend, z.B. auch im Bereich der Automatisierungstechnik und überall dort, wo die Kabellängen nicht sehr groß sind.

Wie der nachfolgende Vergleich zeigt, erschließt diese Technik der Menschheit Frequenzbänder und somit Datenübertragungsmöglichkleiten von schier unerschöpflichem Ausmaß:  Das 20 MHz breite UKW-Frequenzband  von 88 MHz bis 108 MHz reicht mit der aus den 1940er Jahren stammenden Frequenzmodulation (FM) für einige Radioprogramme. Die Bandbreite der ASTRA-Satelliten beträgt schon ca. 2 GHz und reicht für hunderte digitale Videoprogramme in bester Qualität.

Das Frequenzspektrum der heutigen Optischen Nachrichtentechnik hingegen beginnt bei ca. 187,5 THz (1,6 Mikrometer Wellenlänge)  und endet bei etwa  375 THz (0,8 Mikrometer Wellenlänge) . Es hat also eine Bandbreite von 187,5 THz, gerundet 200 THz pro LWL. Ein Kabel mit z.B. 100 LWL wäre nur wenige Zentimeter dick und hätte theoretisch 20 000 THz = 20 Peta Hz Bandbreite *), also 10 Million mal mehr als beim ASTRA-System und sogar 1 Milliarde mal mehr als im UKW-Band mit 20 MHz Bandbreite.  Daß im Jahr 2000 ein vergleichsweise lächerlich schmales 5 MHz -Band des Funkfrequenzspektrums für 20 Jahre zu 7 Milliarden DM vermietet werden konnte,  erscheint in diesem Zusammenhang "gespenstisch".  *) Anmerkung: Peta = P = 10 ^ 15

Im Jahr 2017: experimentell pro Faser 1 PetaBit/s über 200 km
Bislang erreicht man zwar noch nicht die oben genannten Übertragungskapazitäten. Längst Stand der Technik sind aber 1 Tbit/s  pro Lichtwellenleiter, z.B. im Frequenzmultiplex mit 25 Kanälen (25 Laser bei 25 dicht nebeneinander liegenden Emissionswellenlängen) zu je 40 Gbit/s. Bei weit höheren Datenraten pro Kanal (auf der elektronischen Ebene) und bei vielen Glasfasern pro Kabel und/oder vielen lichtführenden Kernen pro Faser erhöht sich die Gesamtdatenrate entsprechend.  So wurde 2017 bei NTT in Japan in Zusammenarbeit mit europäischen Forschungseinrichtungen  über eine einzige Glasfaser aus 32 Kernen im Frequenzmultiplex mit 46 Laserwellenlängen à 640 GBit/s über eine Distanz von 205 km eine Datenrate von 46 * 32* 640 GBit/s= 1 PetaBit/s übertragen.  Bei großen Kabellängen arbeitet man vorzugsweise im Bereich um 1,5 Mikrometer Wellenlänge, weil in diesem Bereich die Dämpfung von Lichtwellenleitern am kleinsten ist. Die heute genutzten Bänder reichen bei Systemen mit hoher Datenrate von ca. 1260 nm bis etwa 1675 nm. Analog zur Anordnung verschiedener Kanäle im elektrotechnischen Bereich bündelt man dabei die Kanäle für hohe Effizienz platzsparend möglichst dicht auf der Frequenzachse im optischen Bereich und trennt sie am Empfänger mit mikroskopisch kleinen optischen Filtern. 

Im Jahr 2018: kommerzielles Transatlantikkabel MAREA mit 0,16 PetaBit/s über 6000 km
Weltweit stellen heute Glasfaserkabel die notwendigen Datenübertragungskapazitäten her, und der Bedarf steigt immer weiter. In den Ozeanen liegen Hunderte von Breitband-Lichtwellenleiterkabeln. Im Jahr 2018 wird z.B. ein neues Glasfaser-Transatlantikkabel mit 160 Tbit/s = 0,16 PBit/s in Betrieb genommen. Bei derartigen kommerziellen Systemen verwendet man bislang Monomode-Lichtwellenleiter mit einem Kern und splittet die Kanäle wieder im Frequenzmultiplex auf verschiedene Frequenzbänder auf. Als Zwischenverstärker auf obiger über 6000 km langen Strecke dienen optische Wanderwellenverstärker. Einen solchen Verstärker kann man sich als gewöhnliche Glasfaser mit einigen hundert Meter Länge vorstellen, aber mit negativer Dämpfung, so daß an deren Ende das schwache und zu verstärkende Eingangssignal verstärkt herauskommt. Diese verstärkende Eigenschaft hat eine Erbium-dotierte, konventionelle Faser, in die man vom Ende her entgegen der Signalrichtung Pumplicht einspeist.  Ein Seekabel enthält je nach Länge viele dieser Erbium-dotierten Faserverstärker (EDFA), die dann die innerhalb des sogenannten Erbiumfensters (1530 .. 1565 nm Wellenlänge) positionierten Kanäle verstärken können.

Optische MIMO-Systeme
Eine weitere Steigerung der Datenrate ist erzielbar, indem man nicht nur Monomode-LWL mit einem Kern oder gar Mehrkern-Monomodefasern - jeweils mit Frequenzmultiplex - einsetzt, sondern die Fasern für Multimodebetrieb dimensioniert und dann auf die MIMO-Technik (Multiple Input Multiple Output) zurückgreift. Wenn bei einer Glasfaser statt Monomodebetrieb der Multimodebetrieb mit vielen Moden (Eigenwellen oder "Strahlrichtungen") gewählt wird, läßt sich die Kapazität dann noch einmal vervielfachen.  Während im Mobilfunkbereich oder bei WLAN-Systemen die Kanalkapazität durch Ausnutzung der Mehrwegeausbreitung der elektromagnetischen Wellen erhöht wird, nutzen Lichtwellenleiter-MIMO-Systeme die Mehrwegeausbreitung verschiedener „Strahlrichtungen“ bei Multimode-Lichtwellenleitern. Die verschiedenen Eigenwellen bzw. „Strahlrichtungen“ im Multimodebetrieb bei optischen Frequenzen entsprechen dabei den verschiedenen Strahlwegen bei der freien Wellenausbreitung in MHz-bzw. GHz-Funksystemen. Die Multimodefaser, die in den Anfängen der Optischen Nachrichtentechnik zunächst nur für kleine Datenraten zur Anwendung kam, weil die Dispersion aufgrund unterschiedlicher Gruppenlaufzeiten (unterschiedliche Flugzeiten der "Strahlrichtungen") zu groß ist, erfährt bei optischen MIMO-Systemen somit eine Renaissance. Man dimensioniert den Lichtwellenleiter für MIMO dabei durchaus für eine große Zahl ausbreitungsfähiger Eigenwellen (Feldbilder bzw. „Strahlrichtungen“).  Die Kanalkapazität vervielfacht sich durch das MIMO-Verfahren aber nicht einfach entsprechend der Zahl der Eigenwellen im Multimodebetrieb, sondern um einen kleineren Faktor. 

Zusammenfassung
Die enorme Übertragungskapazität eines Lichtwellenleiterkabels basiert darauf, daß die Datenraten auf der elektronischen Ebene von z.B. 1 TBit/s und evt. mehr in zunächst nur einem Kanal nun auf der optischen Ebene jeweils in vielen Kanälen übertragen werden können durch ein multiplikatives Zusammenwirken von

a) Frequenzmultiplex:                                  viele Kanäle durch viele Laser bei verschiedenen Wellenlängen
b) Raummultiplex mit Vielkernfaser :          viele Kanäle durch viele lichtführende Kerne in jeder Faser
c) Modenmultiplex mit Multimodefaser:      Vervielfachung durch Multimodebetrieb (viele Strahlrichtungen) in jedem Kern bei jeder Faser (MIMO-Verfahren)
d) Ausnutzung beider Polarisation:             Verdopplung der Kanäle, wenn die beiden möglichen Polarisationen der Eigenwellen ausgenutzt werden
e) Raummultiplex durch viele Fasern:         viele Kanäle durch viele Fasern nach a) bis c) im Lichtwellenleiterkabel

Bei der obigen experimentellen Strecke von 1 PetaBit/s werden vom Lichtwellenleiterkabel in dieser Darstellung viele Datenströme, die auf elektronischer Ebene jeweils mit 0,64 TBit/s ankommen, auf der optischen Ebene gebündelt: Das multiplikative Zusammenwirken von a) bis e) ergibt bei dieser Bündelung eine Gesamtvervielfachung um den Faktor 46 * 32 * 1 * 1 *1 = 1472, weil jeder dieser vielen Datenströme von 0,64 TBit/s bei 46 Wellenlängen und in jedem der 32 Kerne der Faser laufen kann. Wegen Monomodebetrieb (nicht Multimodebetrieb) und ohne Ausnutzung der beiden Polarisationen sowie wegen einer Faser im Kabel sind die letzten drei Faktoren nach c) bis e) Eins, und man hat eine Gesamtdatenrate von 1472 * 0,64 TBit/s = 1 Peta Bit/s. Bei Multimodebetrieb mit MIMO-Verfahren ist der tatsächlich erzielbare Multiplikationsfaktor nach Punkt c) ähnlich wie in der Mobilfunktechnik dann aber kleiner als die Zahl der Eigenwellen ("Strahlrichtungen"). Deren Zahl sollte zur Erzielung eines guten Vervielfachungseffektes nicht zu klein sein, aber auch nicht zu groß, um den MIMO-Aufwand für die Kanaltrennung in Grenzen zu halten. 

Ein Lichtwellenleiterkabel bzw. Glasfaserkabel mit 1 ExaBit/s  hätte man, wenn in diesem Beispiel das Produkt der letzten drei Faktoren bezüglich c) bis e) nicht 1, sondern 1000 wäre. Dazu könnte man sich einen Multimodebetrieb mit so vielen Eigenwellen  vorstellen, daß mit MIMO 10 Kanäle errechenbar wären, so daß in Punkt c) der Faktor 10 entstünde. Nutzte man beide Polarisationen aus und hätte das Kabel bei Punkt e) 50 Fasern dieser Art, entstünde der zusätzliche Faktor 10*2*50=1000. Zu prüfen wäre dann,  über welche Entfernung die Gesamtdatenrate von 1 ExaBit/s mit einer maximal zulässigen Bitfehlerwahrscheinlichkeit übertragen werden kann.

Zusammenfassend kann also gesagt werden, daß der zukünftige Internetbetrieb mit qualitativ hochwertiger Filmübertragung für jedermann und an jedem Ort - der aufwendigste Fall - mit Hilfe der Optischen Nachrichtentechnik realisierbar ist. Optische Netzwerke bilden das Rückgrat dieser Technik. Die weitere Erforschung und Implementierung dieser Technik wird immer weiter voranschreiten und noch für Jahrzehnte andauern. Schrittweise werden immer mehr elektronische Komponenten durch optische Komponenten und Baugruppen abgelöst werden bis hin zu einer weitgehend optischen Übertragungs- und Vermittlungstechnik.
 

7. Funkzellen und hochfrequent genutzte Kuperleitungen für Schmalbandanwendungen
Der verordnete Wettbewerb zwischen Telekommunikationsunternehmen zwingt die Gesellschaften im Prinzip dazu, eigene Netze aufzubauen. Das ist eine Investitionsaufgabe von ungeheurem Ausmaß - vergleichbar mit dem Bau der Eisenbahnen in früheren Zeiten. Die Gesellschaften investieren daher zum Teil in Zwischenlösungen, die die Datenraten nur so weit erhöhen, wie dies für weitere gute Geschäfte notwendig ist. Visionäre Lösungen verbergen sich hinter solchen Zwischenlösungen, die immer noch als Schmalbandlösungen zu bezeichnen sind, manchmal aber nicht. Man versucht bisweilen nur, auch die nächste technische Runde noch einmal mit der alten Technik - wenn auch verbessert - zu bewerkstelligen und dabei für das investierte Kapital möglichst schnell einen Gewinn zu erwirtschaften. Es gibt dafür die unterschiedlichsten Konzepte. Zwei Zwischenlösungen seien genannt:

Die erste Zwischenlösung besteht darin, ab einer Kopfstation, die noch mit Lichtwellenleitern versorgt wird, bis zum Hauskeller die alten Kupferleitungen mit äußerst hochfrequenten Signalen zu beaufschlagen und dabei moderne Modulationsverfahren zur Datenübertragung anzuwenden. Bei einfachsten Telefonleitungen aus dem letzten Jahrhundert werden dabei Frequenzen von 100 MHz und mehr verwendet. Dieses Verfahren mag aus ökonomischer Sicht verlockend sein, weil die vorhandenen Leitungen mit neuen Endgeräten weiter verwendet und besser genutzt werden können. Die übertragbaren Datenraten sind dabei aber recht bescheiden, und von einer zukunftsweisenden Lösung kann dabei überhaupt keine Rede sein. Aus ordnungspolitischer Sicht gibt es hier außerdem zu bedenken, daß diese Leitungen bei so hohen Frequenzen wie Antennen abstrahlen. Die Leitungen sind somit nicht abhörsicher, und gleichzeitig durchsetzen sie die Umwelt mit Störstrahlung, so daß u.U. andere Dienste beeinträchtigt werden.  Umgekehrt kann in diese Leitungen auch eingestrahlt und die Übertragung gezielt gestört oder manipuliert werden.

Die zweite Zwischenlösung vermeidet die Verlegung von Lichtwellenleitern bis zum Hauskeller ebenfalls und greift - eigentlich recht ungeniert - zum Funkfrequenzspektrum,  dieses Mal aber gezielt und nicht unbeabsichtigt wie im ersten Fall, bei dem  die alten Leitungen, die mit sehr hochfrequenten Signalen beaufschlagt werden, dann abstrahlen. Bei diesem zweiten Verfahren, das ebenfalls überhaupt nicht abhörsicher ist, wird die "letzte Meile" von einem Verteilerkasten zum Hauskeller per Funk überbrückt. Das nur einmalig vorhandene, äußerst wertvolle Funkspektrum wird hierbei also partiell geopfert, weil gesagt wird, die ortsfeste Kabelverlegung sei zu aufwendig. Auch diese  Idee, die wiederum allein kommerzielle Hintergründe hat, ist ordnungspolitisch gründlich zu durchdenken.

Keine dieser Ideen ist zukunftsträchtig - gut vergleichbar mit dem Bau eines Feldweges dort, wo eine 6-spurige Autobahn hingehört. Es sind zaghafte Zwischenlösungen, die alle über kurz oder lang an ihre Grenzen stoßen werden. Beide Lösungen, die jeweils Befürworter und Gegner haben,  tasten unnötigerweise sogar noch das kostbare Funkfrequenzspektrum an, das Edelste, was da ist und das im Gegensatz zu Lichtwellenleitern, die de facto in beliebiger Zahl verlegt werden können, nur einmalig existiert.

8. Der zweite Teil der Internetrevolution kommt noch
Der Internetverkehr ist nicht beim Austausch von Texten stehengeblieben. Er dehnt sich über den Austausch von Ton-Dokumenten aus bis hin zu qualitativ hochwertigen Filmdokumenten. Nach einfacher Telefonie wird sich die hochqualitative Bildtelefonie etablieren, danach die Verteilung von privaten TV-Programmen und der bidirektionale Austausch von qualitativ hochwertigen Filmdokumenten.  Während es heute im Internet hunderte von Millionen "Verleger" für Textseiten mit Standbildern gibt, wird es in diesem Sinne zukünftig Millionen privater TV-Stationen geben, die ihre Filmdokumente zeigen. Für kurze Filmsequenzen mit mäßiger Filmqualität gibt es solche Videoplattformen längst. Nach den einfachen Printmedien haben damit auch die klassischen TV-Medien ihr Sendemonopol unumkehrbar verloren. Eine Videokamera mit bester Qualität hat bereits jeder Jugendliche in der Hosentasche. Zusammen mit dem breitbandigen Übertragungskanal realisiert er somit eine private, mobile TV-Station.

Unternehmen, die die dafür notwendige, enorme Übertragungskapazität kostengünstig anbieten können, werden mit ihren haushoch überlegenen optischen Netzwerken alle bisher dagewesenen Schmalband-Zwischenlösungen ablösen. Sie werden neben hochqualitativer Bildtelefonie diverse neue Anwendungen anbieten, von denen man sich heute noch keine Vorstellungen macht. Alle diese Anbieter werden langfristig  mit LWL arbeiten, denn nur so sind allerhöchste Datenraten in beide  Richtungen möglich. Für eine  gewisse Zeit mögen sich auch die aus der Vergangenheit noch existierenden TV-Koaxialkabel, die für Internetdienste mit anderen Endgeräten nachgerüstet wurden, halten. Aber eine zukunftsträchtige Lösung ist all dies ganz sicherlich nicht. Wenn jeder Teilnehmer für sich allein eine Datenrate von z.B. 1 GBit/s verlangt, ist mit dieser hoffnungslos antiquierten Kupfer-Koaxialtechnik endgültig Schluß. Dann stößt die Gesellschaft in einen wirklich neuen Bereich vor, der vergleichbar ist mit der Situation, als das Aufdrehen des Wassershahns nicht mehr mit der Frage verknüpft war, ob auch wirklich genug Wasser aus der Leitung kommen wird. Im Jahr 2018 ist es zwar jedem möglich, selbst ein qualitativ hochwertiges Video in 4K-Qualität mit z.B. einer Stunde Laufzeit auf einem Smartphone aufzunehmen. Veranschlagt man z.B. 30 MBit/s im upload und gesteht diese Datenrate allen Bewohnerns eines Wohngebietes ebenso gleichzeitig zu wie man im Hochsommer allen gleichzeitigt ermöglicht, den Rasen zu sprengen, so führt an Lichtwellenleitern kein Weg vorbei. 

9. Der Schutz des Funkfrequenzspektrums: Notdienste, Sicherheitsdienste, Internet of Things (IoT)
Festnetzanwendungen gehören in ein LWL-Kabel unter die Erde.  Das Funkspektrum muß in Zukunft primär für Dienste und Anwendungen reserviert bleiben, die von Natur aus mobiler Natur sind: Für das private Mobiltelefon, für mobile Geschäftstelefone, für Verkehrsleitsysteme und Notdienste aller Art - kurz für alle Dienste, die wirklich mobil sind und wo deshalb das Funkspektrum die einzig mögliche Lösung darstellt. Der Begriff Internet of Things (IoT) faßt dabei all diese Dienste zusammen, die mobile Endgeräte erfordern. Ein wichtiges Beispiel  ist die Vernetzung von Fahrzeugen. Wenn sie autonom fahren, sollten die Daten aller Verkehrsteilnehmer per Funk ausgetauscht werden können. 

Eine Ausnahme bei der restriktiven Vergabe von Funkfrequenzen muß die Vergabe von Funkfrequenzen für die Verbreitung von TV-Programmen per Satellit bleiben. Mit 2 GHz Bandbreite wird schon heute die TV-Versorgung eines ganzen Kontinents mit Hunderten von Millionen Menschen und Hunderten von Programmen aus allen Teilen der Welt realisiert. Für solche Anwendungen sollte durchaus auch in Zukunft das wertvolle Funkspektrum genutzt werden dürfen, denn dadurch werden Pluralismus und internationale Meinungsvielfalt gefördert, wichtige Werte, die bei kabelgebundenen Lösungen sehr leicht auf der Strecke bleiben können: Ein Zugriff auf das Kabel ist nämlich leicht möglich, ein Zugriff auf Satelliten dagegen nur mit sehr hohem Aufwand. Insofern ist das Funkfrequenzspektrum für Satelliten die allerletzte Rückversicherung hinsichtlich Pluralismus.

10. Abhörsicherheit in der Optischen Nachrichtentechnik
Das Abhören von Nachrichten basiert auf zwei Voraussetzungen: auf einem Zugriff auf das noch kodierte Signal und auf der anschließenden Dekodierung dieses Signals. Betrachtet man zunächst Systeme ohne Quantenkommunikation, sind beide Fragen weitgehend unabhängig voneinander, und es stellt sich die Frage, ob ein kodiertes Signal zur Erfüllung der ersten Voraussetzung überhaupt ausgeblendet werden kann. Dieser Zugriff ist bei Funksystemen problemlos und erweist sich auch bei elektrischen Kabeln als leicht möglich, weil Leitungen wie Antennen abstrahlen. Im einfachsten Fall kann sogar galvanisch ausgekoppelt werden. Der Zugriff auf Glasfaserkabel ist bei allen Lichtwellenleitertypen wegen der kleinen Abmessungen ganz erheblich schwieriger, selbst im "einfachsten Fall"  trivialer Multimodefasern, die Datenströme mit einfacher Intensitätsmodulation der Lichtwelle transportieren. Das Kabel muß dazu geöffnet und die Glasfaser gekrümmt oder u.U. bis zum Kern freigelegt werden, um dann mit Kopplern Licht auszublenden.  Da jedes Lichtwellenleitersystem mit einer gewissen Systemreserve am Empfänger mit mehr Empfangsleistung arbeitet als im Grenzfall für eine vorgegebene maximale Bitfehlerwahrscheinlichkeit notwendig ist, verbleibt Spielraum, um Licht abzuzweigen, ohne daß das System zusammenbricht. Das Auskoppeln ist möglich, aber sehr aufwendig. Ungleich schwieriger, aber ebenfalls möglich, ist eine Auskopplung bei Monomodefasern. Viel Leistung darf nie ausgekoppelt werden, damit dies nicht bemerkt wird. Mit ganz großem Abstand am schwierigsten würde sich der Zugriff auf Daten in Lichtwellenleiterkabeln gestalten, wenn der zu dekodierende Datenstrom in Pakete zerlegt und diese Pakete auf Tausende optische Kanäle nach 6a) bis e) verteilt wären. Selbst der Zugriff auf einen einzigen dieser Kanäle ist nur schwer vorstellbar. Notwendig ist aber der Zugriff auf alle Kanäle. Lichtwellenleiter bieten also je nach Typ eine sehr hohe bis extrem hohe Sicherheit gegen Zugriff. Sie sind diesbezüglich Funksystemen und elektrischen Kabelsystemen haushoch überlegen. Je nach LWL-Kabeltyp kann der Zugriff so schwierig sein, daß er wie im letzteren Fall sogar aussichtslos erscheint. Dennoch ist die Realisierung eines unbemerkten Zugriffs nicht ausgeschlossen und der Versuch eines Zugriffs nicht a priori sinnlos.

Quantenkommunikation
Völlig anders sieht es bei optischen Systemen aus, die auf quantenmechanische Effekte zurückgreifen. Die obige Frage,  ob ein unbemerkter Zugriff überhaupt realisierbar ist, stellt sich hier gar nicht. Die Mühe lohnt nicht, weil der Versuch sinnlos ist. Sobald hier nämlich zugegriffen wird, wird der Zugriff auch bemerkt, und damit ist das Abhören von Anfang an fehlgeschlagen. Man nutzt in der Quantenkommunikation die Verschränkung von Photonen aus, die wie "gedankenverwandte oder gedankenverschränkte Zwillinge" ihre Eigenschaften und somit jede auf sie einwirkende Störung selbst über große Entfernungen auf den anderen "Zwilling" übertragen und weitermelden. Am Rande sei ergänzend angemerkt, daß nicht nur elektromagnetische Wellen bei optischen Frequenzen, sondern alle elektromagnetischen Wellen bis hin zu tiefsten Frequenzen f aus Photonen oder Quanten der Energie hf  (h = Planksches Wirkungsquantum) bestehen, auch im GHz, MHz oder KHz-Bereich: Wird nun bei zwei miteinander verschränkten Photonen 1 und 2 auf das Photon 1 am Ort 1 zugegriffen, um ein Signal auszukoppeln, überträgt sich der Zugriff  bzw. diese Störung auf das damit verschränkte Photon 2 am entfernten Ort 2, wo der Zugriff dann sofort bemerkt wird. Diese quantenmechanische Eigenschaft läßt sich für die Kryptographie auswerten und so umsetzen, daß ein Nachrichtenübertragungssystem zumindest nach heutigem Stand der Wissenschaft abhörsicher ist. Im Jahr 2018 wurde von China nach Wien/Österreich über eine Entfernung von 5600 km erstmals eine optische Satellitenweitverkehrsübertragung dieser Art  mit verschränkten Photonen bei optischen Frequenzen experimentell realisiert und der Austausch von Quantenschlüsseln vorgeführt (über den chinesischen Satellit Micius). Über kürzere Entfernungen bis 2000 km wurde weiterhin Quantenkommunikation per Glasfaser demonstriert. In einer ferneren Zukunft ist es insofern denkbar, daß Nachrichtensysteme in größerem Umfang und für breite Kreise abhörsicher sein werden.

Prof. Dr. Timmermann