Private Internetpräsenz
Prof. Dr.-Ing. C.C. Timmermann

   Mannheim/Plankstadt  Germany


Die Entwicklung von
Internet und Optischer Nachrichtentechnik
C.C. Timmermann, 2000
Copyright Profund Verlag

1. Der Beginn: Internet nur für Spezialisten
Noch Mitte der 80er bis Anfang der 90er Jahre nutzen nur sehr wenige Spezialisten, meist Diplomingenieure, Informatiker  und Physiker, die Möglichkeiten der Datenübertragung zwischen ihrem Heimrechner und anderen Rechnern in der Welt. Im einfachsten Fall einer speziellen Punkt-zu-Punkt-Verbindung nutze man dafür z.B. das Programm TELIX, und beide Teilnehmer waren mit einem einfachen 2400 Baud-Modem über die Telefonleitung miteinander verbunden.

Der Datenverkehr in Netzen begann mit der Verbreitung des Internetprotokolls.  Der notwendige Einwahlknoten in das Netz, das Internet, lag meist im Rechenzentrum einer Hochschule oder Großforschungseinrichtung, und er bestand aus einem Server mit Vielfach-Modemanschluß. Der Nutzer mußte sich dann mit einer Zugangskennung authorisieren. In aller Regel erteilten die jeweiligen Rechenzentren  solche Einwahlberechtigung nur den Mitarbeiter aus den technischen Forschungs- und Entwicklungsabteilungen, denn  weder in den Verwaltungen von Staat und Wirtschaft noch im Privatbereich war das Internet sonderlich bekannt. Nach der Einwahl in das Internet konnte nun in Verzeichnissen anderer Rechner nach interessanter, herunterladbarer Software gesucht werden. Jeder angewählte Rechner verlangte dabei wieder eine neue Einwahlberechtigung - abgesehen von einem öffentlich zugänglichen Verzeichnisse (pub).  Es gab schon Suchmaschinen (z.B. Archie) für Datenfiles. Man arbeitete meist noch mit UNIX-Befehlen, um Dateien zu laden, zu versenden oder um elektronische Post abzuwickeln. Dieses FTP-System ist heute unter Windows oder Linux automatisiert und existiert nach wie vor. Umfangreiche Dateiangebote lieferten zunächst nur die Großforschungseinrichtungen (CERN, NASA etc.) und Universitäten.

Mittels Telnet konnte man außerdem den eigenen Heimrechner als verlängertes Terminal eines Großrechners, der an einem anderen Ort der Welt steht, nutzen und betreiben. So boten schon frühzeitig die Staatsbibliotheken (Kongreßbibliothek, Deutsche Bibliothek etc.) den Internetnutzern entsprechende Recherchemöglichkeiten per Internet.  Telnet wird auch heute noch als einfaches Textterminal verwendet.

Den nächsten Fortschritt brachte dann das von CERN erfundene Hypertexttransferprotokoll (http) zur Darstellung und Übertragung von www-Seiten, die aus Texten, Bildern und Verweisen (Links auf andere Seiten eines anderen Rechners) bestehen. Gleichzeitig kamen die dafür notwendigen Programme (Browser) zur Darstellung einer www-Seite heraus. Diese Technik ist heute gemeint, wenn populärwissenschaftlich über das "Internet" gesprochen wird. Ein beliebter Browser war Anfang/Mitte der 90er Jahre das Programm "MOSAIC", später "NETSCAPE".
 

2. Die Verbreitung des Internet
Der nächste Entwicklungsschritt zeichnete sich ab Mitte der 90er Jahre dadurch aus, daß bessere Browser  aufkamen, sogar mit einem html-Editor zur bequemen Erstellung von eigenen www-Hypertextseiten, und zwar  ohne Kenntnisse der html-Programmiersprache. Gleichzeitig verbreiteten sich Programme zum Aufbau eines eigenen Internet-Servers, z.B. auf einer UNIX-Plattform. Damit konnten dann kleinere und mittlere Institute selbst zu Anbietern von solchen Internetseiten werden. Ab Mitte der 90er Jahre erhöhte sich somit schlagartig die Zahl der Anbieter und somit auch gleichzeitig die Zahl der Interessenten, die sich die Seiten anschauen wollten. Im wesentlichen waren die Anbieter nun bereits kleinere Forschungs- und Entwicklungsabteilungen aus den Bereichen der Informationstechnik und der Ingenieurswissenschaften sowie größere und mittlere Industriebetriebe, aber auch schon zukunftsweisende und weitsichtige Abteilungen in den Verwaltungen von Staat und Wirtschaft, ebenso auch Versandhäuser aller Art.

Für eine Massenverbreitung des Internet bis in die Privatwohnungen der Menschen boten sich nach wie vor nur die Telefonleitungen an. Gegen Mitte bis Ende der 90er Jahre gliederten daher die Telefongesellschaften sogenannte Online-Unternehmen aus. Sie verwalteten und verkauften Einwahlberechtigungen in das Internet. Zur Einwahl und Übertragung wurde der vorhandene Telefonanschluß mit 56k-Modem als Nebenstellengerät verwendet. Alternativ konnte auch eine ISDN-Leitung mit einer im Heimrechner installierten ISDN-Karte genommen werden. Auf der Anbieterseite stellte dann ein Vermittlungsrechner die Verbindung zwischen Internet und Tausenden - heute Millionen -  von Kunden  her. In einer Zwischenstufe bot die Telekom diese Verbindung noch durch Einwahl in das auf Deutschland beschränkte BTX-Netz an, das selbst mit dem Internet viel Ähnlichkeit hat. In dem BTX-Fenster öffnete sich dann seinerzeit ein Internetfenster.

Zur Anbindung des Heimrechners an das Internet gab es bereits spezielle Installationssoftware, und der Kunde mußte sich  um die Gerätekonfiguration und um die Installation, die nicht immer völlig problemlos war, selbst kümmern.
 

3. 500 Jahre nach Gutenberg der Privatmann als globaler Verleger
Ende der 90er Jahre hatten die Online-Unternehmen ihre Software so weit entwickelt, daß die Installation auch für Laien problemlos wurde. Zusätzlich zur Einwahl verkauften sie nun Speicherplatz, auf dem die Kunden ihre selbsterstellten Internetseiten für jedermann abrufbar unter einer persönlichen Internetadresse abspeichern konnten. Ab dieser Zeit erhielten die  Kunden auf Wunsch also eine eigene Internetadresse mit eigenem Namen und eine dazu passende email-Adresse. Diese Adresse  war und ist entweder eine weltweit einmalige Adresse in Form einer Unteradresse des Online-Unternehmens oder es ist sogar eine weltweit einmalige, individuelle Adresse vom Typ "www.Name.de" oder "www.Name.com" usw. , wobei der Kunde für "Name" seinen eigenen Namen oder den seines Unternehmens einsetzen kann. Eine weltweite Jagd auf diese sogenannten Domainnamen setze ein, denn jeder wollte sich seinen Wunschnamen sichern. Für die Namensgebung wurde eine Klassifizierung nach Ländern (.de= Deutschland, uk=England usw.) eingeführt, aber auch eine Unterteilung nach einer Reihe von  Sachgebieten (.org=Organisationen, .com=Unternehmen, .edu= Hochschulen/Universitäten usw.).  Die Vergabe von Namen unter der TOP-LEVEL-Domain ".de" wird in Deutschland von der Interessengemeinschaft DENIC durchgeführt.

Rund 500 Jahre nach der Erfindung des Buchdruckes, der im wesentlichen  nur Kirche, Staat und später Großinstitutionen die Möglichkeit zur Massenverbreitung von Schriften eröffnet hatte, erhielt nun erstmals auch der "kleine Mann" das Privileg, seine Meinungen, Gedanken und Erkenntnisse der Weltöffentlichkeit mitzuteilen. Seit dieser Zeit kann er Informationen entgegennehmen oder unter einer unverwechselbaren Adresse verbreiten: Er besitzt mit dem Internet also ein Werkzeug, mit dem er jedem anderen Menschen auf der Welt, der dasselbe Werkzeug hat, selbsterstellte Schriften, Bilder, sowie Ton oder Film übertragen und zeigen kann.

Regierungen und Medienkonzerne verloren nun ihr Monopol zur weltweiten Verbreitung von Informationen. Das Informationszeitalter begann, und eine Umwälzung allerersten Ranges setzt ein. Die davon ausgehende Faszination entbrannte weltweit und machte in den industrialisierten Ländern das Internet innerhalb von nur 2 bis 3 Jahren zum gängigen Werkzeug von Erwachsenen, Jugendlichen und Kindern, aber auch von Organisationen und Unternehmungen aller Art.
 

4. Das Problem: Die Bandbreite oder Übertragungskapazität der Leitungen
Durch den Massenbetrieb einerseits und durch den Wunsch nach Übertragung nicht nur von Text und Bild, sondern von Ton oder gar Film andererseits entstand um das Jahr 2000  ein Bedarf an Übertragungskapazität, der für Laien kaum faßbar ist. Die notwendigen Bitraten bei Textübertragung sind zwar noch klein, bei Standbild aber schon höher, bei Tonübertragung in CD-Qualität  sehr hoch und bei Videofilmen in TV-Qualität extrem hoch - jeweils verglichen mit den Datenübertragungsmöglichkeiten heutiger ISBN-Telefonleitungen mit 2 x 64 Kbit/s. Eine Fausregel besagt:   Ein Tonsignal benötigt in jeder Sekunde  etwa so viel Daten wie insgesamt einige Textseiten. Ein qualitativ hochwertiges Fernsehbild wiederum beinhaltet 100- 1000 mal so viel Übertragungskapazität wie ein Tonsignal.

Es geht also bei der Frage der Übertragungskapazität für zukünftigen Internetbetrieb nicht um eine kleine,  zusätzlich notwendige Kapazität neben bisherigen Kapazitäten, sondern um den Aufbau von Übertragungskapazitäten in einem Umfange, der das bisher Dagewesene in völliger Bedeutungslosigkeit versinken läßt. Aus diesem Grunde kann die mittel- bis langfristige Lösung des Problems nicht in einer vielfachen Anwendung einer alten Technik bestehen, indem  z.B. 10-fach mehr Kupfer-Zweidrahtleitungen verlegt werden.

Die einfache Vorstellung, über die vorhandenen Telefonleitungen der 90er Jahre doch einfach  zusätzlich noch den Internetverkehr der gesamten Bevölkerung mit Text, Bild, Ton oder Film abzuwickeln ist ebenso absurd wie die Vorstellung, auf den Militärstraßen der Römer in Germanien zusätzlich zu den antiken Gespannen noch die 40 Millionen PKW  und die Abermillionen von LKW der Neuzeit laufen zu lassen.

Hier geht um ganz andere Dimensionen. Das Umdenken fällt daher vielen schwer. Dies hängt vor allem auch damit zusammen, daß das Wort "Elektronik" nicht mehr das alleinige Zauberwort der Zukunft sein wird.
 

5. Genügend Übertragungskapazität durch die Optische Nachrichtentechnik
Von allen denkbaren Einschränkungen, die heute im Internetbereich aufgelistet werden können, bleibt also am Ende einer sorgfältigen Analyse eigentlich nur die Bandbreite der Übertragungs- und Vermittlungseinrichtungen übrig. Verkürzt gesprochen kann man sagen, daß alles vorhanden ist, nur nicht die Übertragungskapazität.

Der Internetverkehr befindet sich insofern noch in einer frühen Entwicklungsphase, die dem Benutzer große Bescheidenheit abverlangt: der Textaufbau verläuft heute so langsam, daß er zum Teil sichtbar ist;  der Bildaufbau eines Photos  kann sogar Sekunden in Anspruch nehmen. Gleichzeitig akzeptiert man eine Bildqualität, die  gegenüber der ursprünglichen Qualität der Aufnahme oft dramatisch herabgesetzt ist. Filme guter Qualität lassen sich mit der heute angebotenen Übertragungstechnik überhaupt nicht übertragen.  Um mit der alten Übertragungstechnik irgendwie auszukommen, schneidet man  zunächst redundante (überflüssige) Informationen weg, was unschädlich und nicht zu kritisieren ist. Da damit das Problem aber nur ein wenig gemildert wird, beseitigt man auch massiv relevante Informationen und nimmt dabei in Kauf, daß die Bild- und Tonqualität herabgesetzt wird, sogar dramatisch. Das ist mit der heutigen Übertragungstechnik unvermeidlich, denn die Kompressionsverfahren haben theoretische Grenzen. Immer weitergehende Kompressionen führen zwangsläufig irgendwann zu flimmernden, ruckenden und zugleich unscharfen Filmen oder zu einem unscharfen Photo.

Die Übertragungskapazität ist also heute noch viel zu gering. Die Internet-Kunden werden deshalb durch entsprechende Werbung dahingehend beeinflußt, daß sie sich mit kleinen und unscharfen Bildern zufrieden geben, obwohl in ihren Alben doch bereits Photos kleben, deren Qualität um den Faktor 100 bis 1000 größer ist. Zum Vergleich sei genannt, daß ein gutes Photo im Kodakformat (.pcd) rund 4 MB groß ist. Es ist insofern ein Meisterstück der Werbung, wenn Kunden heutige 40k- jpg-Standbilder hinnehmen und sich ruckende Flimmerfilme ansehen.

Dieses "ewige Hängen und Würgen" hat immer wieder seinen Grund in einer bei weitem zu kleinen Übertragungskapazität. Das Problem bedarf insofern einer grundsätzlichen Lösung. Sie ist fundamental und aufwendig.

Genügend Übertragungskapazität bieten auf mittlere und ferne Sicht nur die Verfahren der Optischen Nachrichtentechnik mit Lasern, Photodioden, Lichtwellenleiter, optischen Verstärkern, Teilern, Kopplern und all den anderen dafür notwendigen Komponenten. Die Vermittlung der Signale wird mit optischen Schaltmatrizen erfolgen. Integrierte optische Schaltungen auf speziellen Substraten sind die Schlüsselkomponenten der Zukunft.
 

Im 21. Jahrhunderts ist in der Informationstechnik nicht mehr die Elektronik allein, sondern vor allem die Optische Nachrichtentechnik (Photonik) die dominierende Schlüsseltechnologie.

6. Die Optische Nachrichtentechnik liefert optische Netzwerke
Die Erforschung der Optische Nachrichtentechnik erfolgte ab etwa 1965 und ist eine in der Öffentlichkeit kaum  wahrgenommene technische Revolution fundamentalster Art. Auch im Ingenieurswesen selbst war die Zahl der Fachleute, die sich mit dieser Technik beschäftigte, zunächst sehr klein, und sie stieg nur langsam an. Noch im Jahre 1970 kannten sich die Forscher weltweit alle persönlich. In Deutschland konzentrierte sich  bis 1970 die Arbeit bei ganz wenigen Institutionen, z.B. bei Siemens in München,  bei AEG-Telefunken in Ulm, am Institut für Hochfrequenztechnik der TU Braunschweig (Prof. Unger) und bei der Firma Schott.  An vorderster Front forschten die Bell Laboratorien und die einschlägigen japanischen Firmen. Wie auch heute, so war schon vor 30 Jahren insbesondere in Japan und in den USA die Einsicht außerordentlich tief ausgeprägt,  daß  in diese zukunftsträchtige Technologie nicht halbherzig, sondern ganz massiv zu investieren ist.  Heute werden die Früchte dieser gesunden Grundeinstellung zu Lernen, Forschen und Arbeit geerntet: Die USA, Japan und Deutschland haben die weltweit stärksten Volkswirtschaften. US-Firmen haben auch in Deutschland Forschungs- und Entwicklungszentren aufgebaut, um diese Technologie weiter voranzubringen.

Die Optische Nachrichtentechnik ist heute relativ weit entwickelt und kann als Anwendung ihrer vielfältigen Möglichkeiten schon sehr leistungsfähige optische Netzwerke für Internet und Datenverkehr liefern. Nachrichtennetze der Zukunft beinhalten dabei für kleine Bandbreiten u.U.  zusätzlich noch einfache Kupferleitungen oder Funkzellen, wie man sie heute aus der Mobilfunktechnik her kennt. Für große Bandbreiten - und hier liegt die technische Herausforderung - kommen nur festverlegte Lichtwellenleitern (LWL) zum Einsatz. Die anspruchvollste Lösung arbeitet mit zusammenhängenden Schwingungszügen bei optischen Frequenzen (kohärente Optische Nachrichtentechnik).

Wie der nachfolgende Vergleich zeigt, erschließt diese Technik der Menschheit Frequenzbänder und somit Datenübertragungsmöglichkleiten von schier unerschöpflichem Ausmaß:  Das 20 MHz breite UKW-Frequenzband  von 88 MHz bis 108 MHz reicht mit der aus den 40er Jahren stammenden Frequenzmodulation (FM) für einige Radioprogramme. Die Bandbreite der ASTRA-Satelliten beträgt schon ca. 2 GHz und reicht mit dem jetzt eingeführten MPEG2-Standard für einige hundert digitale Videoprogramme in bester Qualität.

Das Frequenzspektrum der heutigen Optischen Nachrichtentechnik hingegen beginnt bei ca. 187,5 THz (1,6 Mikrometer Wellenlänge)  und endet bei etwa  375 THz (0,8 Mikrometer Wellenlänge) . Es hat also eine Bandbreite von 187,5 THz, gerundet 200 THz pro LWL. Ein Kabel mit z.B. 100 LWL wäre nur wenige Zentimeter dick und hätte theoretisch 20 000 THz = 20 Peta Hz Bandbreite *), also 1 Million mal mehr als beim ASTRA-System und sogar 1 Milliarde mal mehr als im UKW-Band mit 20 MHz Bandbreite.  Daß im Jahr 2000 ein vergleichsweise lächerlich schmales 5 MHz -Band des Funkfrequenzspektrums für 20 Jahre zu 7 Milliarden DM vermietet werden konnte,  erscheint in diesem Zusammenhang vorsichtig gesprochen "interessant", deutlicher gesprochen "gespenstisch".  *) Anmerkung: Peta = P = 10 ^ 15

Im Jahr 2000 erreicht man zwar noch nicht die oben genannten Übertragungskapazitäten. Demonstriert wurden pro LWL etwa 1 Tbit/s, und zwar  im Wellenlängenmultiplex mit typ. 25 Kanälen zu je 40 Gbit/s . Baut man die Zahl der Kanäle auf  bis zu 1000  aus, hat man bereits 40 Tbit/s pro LWL bzw. 4 Pbit/s bei einem Kabel mit 100 LWL.

Zusammenfassend kann also gesagt werden, daß der zukünftige Internetbetrieb mit Filmübertragung - der aufwendigste Fall - mit Hilfe der Optischen Nachrichtentechnik realisierbar ist. Optische Netzwerke bilden das Rückgrat dieser Technik.

Dies erklärt auch, warum keine andere Technik heute so hohe Zuwachsraten aufweist wie die Optische Nachrichtentechnik. Die Börsen reagieren entsprechend. Die weitere Erforschung und Implementierung dieser Technik wird immer weiter voranschreiten und noch für Jahrzehnte andauern.
 

7. Funkzellen und hochfrequent genutzte Zweidrahtleitungen für Schmalbandanwendungen
Der verordnete Wettbewerb zwischen Telefonunternehmen zwingt die Gesellschaften im Prinzip dazu, eigene Netze aufzubauen. Das ist eine Investitionsaufgabe von ungeheurem Ausmaß - vergleichbar mit dem Bau der Eisenbahnen in früheren Zeiten. Die Gesellschaften investieren daher zum Teil in Zwischenlösungen, die die Datenraten nur so weit erhöhen, wie dies für weitere gute Geschäfte notwendig ist. Visionäre Lösungen verbergen sich hinter solchen Zwischenlösungen, die immer noch als Schmalbandlösungen zu bezeichnen sind, manchmal aber nicht. Man versucht bisweilen nur, auch die nächste technische Runde noch einmal mit der alten Technik - wenn auch verbessert - zu bewerkstelligen und dabei für das investierte Kapital möglichst schnell einen Gewinn zu erwirtschaften. Es gibt dafür die unterschiedlichsten Konzepte. Zwei Zwischenlösungen seien genannt:

Die erste Zwischenlösung besteht darin, normale Kupfer-Zweidrahtleitungen mit äußerst hochfrequenten Signalen zu beaufschlagen und dabei moderne Modulationsverfahren zur Datenübertragung anzuwenden. Frequenzen von 100 MHz und mehr werden dabei verwendet. Dieses Verfahren mag aus ökonomischer Sicht verlockend sein, weil die vorhandenen Leitungen mit neuen Endgeräten weiter verwendet und besser genutzt werden können. Die übertragbaren Datenraten sind dabei aber immer noch  relativ klein, allerdings viel höher als auf normalen Telefonleitungen.  Aus ordnungspolitischer Sicht gibt es hier andererseits zu bedenken, daß diese Leitungen bei so hohen Frequenzen wie Antennen abstrahlen. Die Leitungen sind somit nicht abhörsicher, und gleichzeitig durchsetzen sie die Umwelt mit Störstrahlung, so daß u.U. andere Dienste beeinträchtigt werden.  Umgekehrt kann in diese Leitungen auch eingestrahlt und die Übertragung gezielt gestört oder manipuliert werden.

Die zweite Zwischenlösung vermeidet die Verlegung von Datenleitungen auf Ortsebene aus Kostengründen ganz und greift - eigentlich recht ungeniert - zum Funkfrequenzspektrum,  dieses Mal aber gezielt und nicht unbeabsichtigt (durch Abstrahlung). Bei diesem Ansatz wird die "letzte Meile" von der Ortsvermittlung zum Hauskeller per Funk überbrückt. Das nur einmalig vorhandene, äußerst wertvolle Funkspektrum wird hierbei also partiell geopfert, weil gesagt wird, die ortsfeste Kabelverlegung sei zu aufwendig. Auch diese  Idee, die wiederum allein kommerzielle Hintergründe hat, ist ordnungspolitisch gründlich zu durchdenken.

Keine dieser Lösungen  ist sehr breitbandig und visionär. Es sind zaghafte Zwischenlösungen, die alle über kurz oder lang an ihre Grenzen stoßen werden. Beide Lösungen, die jeweils Befürworter und Gegner haben,  tasten leider das Funkspektrum an, das Edelste, was da ist. Diesen Nachteil hat das heutige ISDN mit 2x 64 kBit/s nicht, auch nicht die jetzt eingeführte DSL-Technik, denn dabei werden die vorhandenen Ortsleitungen noch nicht bei derartig extrem hohen Frequenzen genutzt, daß die Abstrahlung und Einstrahlung zum dominanten Problem wird. Dafür erzielt man aber bei DSL auch nur eine mäßige  Bandbreite im unteren MHz-Bereich, was allerdings weit mehr ist als im normalen Telefonverkehr. Von einem Breitbandanschluß ist man aber dennoch entfernt. Vor 30 Jahren hieß der Anschluß mit 2x 64 kBit/s unter Wissenschaftlern daher auch noch "Schmalband-ISDN", und erst bei 140 MBit/s sprach man von  "Breitband-ISDN".
 

8. Der zweite Teil der Internetrevolution kommt noch
Der Internetverkehr wird - und das ist sicher - nicht beim Austausch von Texten stehen bleiben. Er wird zunehmen, und zukünftig werden die Menschen den heute beginnenden Ton-Datenverkehr auf entsprechend hochqualitative Filmdokumente ausdehnen wollen: Nach einfacher Telefonie wird die hochqualitative Bildtelefonie kommen, danach die Verteilung von TV-Programmen und der bidirektionale Austausch von Filmdokumenten.  Während es heute im Internet Hunderte von Millionen "Verleger" für Textseiten mit Standbildern gibt, wird es in diesem Sinne zukünftig Millionen privater TV-Stationen geben, die ihre Filmdokumente zeigen. Dies wird Teil 2 der Internetrevolution sein. Nach den einfachen Printmedien werden die TV-Medien ihr Sendemonopol verlieren.

Unternehmen, die die dafür notwendige, enorme Übertragungskapazität kostengünstig anbieten können, werden mit ihren haushoch überlegenen optischen Netzwerken alle bisher dagewesenen Schmalband-Zwischenlösungen ablösen. Sie werden neben hochqualitativer Bildtelefonie diverse neue Anwendungen anbieten, von denen man sich heute noch keine Vorstellungen macht. All diese Anbieter werden langfristig  mit LWL arbeiten, denn nur so sind allerhöchste Datenraten in beide Richtungen möglich. Für 1 bis 3 Jahrzehnte mag  auch die Zweitnutzung vorhandener Koaxialkabel mit neuen Endgeräten in Frage kommen - aber nur als Zwischenlösung!
 

9. Der Schutz des Funkfrequenzspektrums
Festnetzanwendungen gehören in ein LWL-Kabel unter die Erde.  Das Funkspektrum muß in Zukunft primär für mobile Dienste und Anwendungen reserviert bleiben: Für das private Mobiltelefon, für mobile Geschäftstelefone, für Verkehrsleitsysteme und Notdienste aller Art - kurz für alle Dienste, die wirklich mobil sind und wo deshalb das Funkspektrum die einzig mögliche Lösung darstellt.

Eine Ausnahme wird die alternative Verbreitung von TV-Programmen per Satellit bleiben. Mit 2 GHz Bandbreite wird schon heute die TV-Versorgung eines ganzen Kontinentes mit hunderten von Millionen Menschen und hunderten von Programmen aus allen Teilen der Welt realisiert. Für solche Anwendungen sollte durchaus auch in Zukunft das wertvolle Funkspektrum genutzt werden dürfen, denn dadurch werden Pluralismus und internationale Meinungsvielfalt gefördert, wichtige Werte, die bei kabelgebundenen Lösungen sehr leicht auf der Strecke bleiben können: Ein Zugriff auf das Kabel ist nämlich leicht möglich, ein Zugriff auf Satelliten dagegen nur mit sehr hohem Aufwand. Insofern ist das Funkfrequenzspektrum die allerletzte Rückversicherung hinsichtlich Pluralismus.
 

home