Ein Annäherungsversuch an die technische und gesellschaftliche Gemeinressourcenverträglichkeit des Internets.
„LO“. Das war sie, die erste Nachricht, die je von einem Computer zu einem anderen Computer über mehr als ein paar Kilometer hinweg übertragen wurde. Am 22.10.1969, um 22:30 Uhr schickte der SDS Sigma 7 der University of California, Los Angeles, diese zwei Buchstaben an den knapp 630 Kilometer nördlich gelegenen SDS 940, den Computer der Stanford University. Geplant war ein ganzes „LOGIN“ zu versenden, nach dem „O“ crashte jedoch das System.
Eigenschaften einer Allmende
Die Rolle des Internets für die heutige Welt kann man gar nicht hoch genug einschätzen. Es wäre langweilig hier einfach aufzulisten, wie viele Menschen täglich über das Internet kommunizieren, wie viele Menschen mittlerweile online Liebe finden, wie viele Menschen ihre Finanzen online regeln oder wie viele Industrien ohne das Internet nur noch einige wenige Minuten überleben würden. Das Internet ist heute wohl so etwas wie der Sauerstoff des globalen Welthandels: mehr als vier Billionen US-Dollar trug das Internet allein 2017 zur globalen Wirtschaft bei. Wenn wir fragen, wem gehört die Luft, die wir täglich einatmen, dann werden wir uns notwendigerweise auch fragen müssen, wie wir diese Luft schützen können und wer dafür verantwortlich sein sollte. Wenn wir alle darauf zugreifen, alle damit interagieren, Content produzieren, Content konsumieren, gehört es uns dann nicht irgendwie allen? Wenn wir einerseits von Open Access sprechen, könnte das Internet dann eine Allmende sein? Welche technischen Eigenschaften des Internets können eine potentielle Tragik der Allmende erzeugen? Gibt es Folgen des Internets? Könnte es, die gesellschaftlich zu einer Tragik der Allmende für die Gesellschaft führen?
Nicht-kommerzielle Anfänge: die TCP/IP Protokolle
Ähnlich kompliziert wie der Besitzeranspruch oder die Folgenanalyse des Internets auf technischer und gesellschaftlicher Ebene, ist dessen Geschichte. Wer hat’s erfunden? Die Schweizer in CERN? Nein, das waren die Amerikaner! Das Internet, oder besser gesagt dessen Vorgänger „ARPANET“ geht klar an das Amerika der späten 1960er Jahre. Was oben so trivial beschrieben wurde, dass ein Computer über ein langes Kabel mit einem anderen Computer „sprechen“ kann, ist genau diesem ARPANET geschuldet. Was ist daran aber so besonders? Dabei stellt man sich am besten eine sehr internationale Party vor, auf der jeder Gast nur seine eigene Sprache spricht. In etwa so wäre die Welt für Computer ohne Internet. Computer haben unterschiedliche Betriebssysteme und unterschiedliche Hardware, sie sprechen daher verschiedene Sprachen. Das ist das erste Problem, das eine Interaktion zwischen zwei Computern sehr schwer macht. Zweitens gibt es dann auch noch unterschiedliche Netzwerktypen. Computer sind also „eigen“, aber die Universitätsnetzwerke der University of California und der Stanford University sind es eben auch! Wir kennen hierfür meistens nur irgendwelche Abkürzungen, die uns nicht wirklich viel sagen, wie etwa „LAN“ (Local Area Network), „CAN“ (Campus Area Network), „MAN“ (Metropolitan Area Network), oder „WAN“ (Wide Area Network). Jedes dieser Netzwerktypen, die hier nach Größe aufgelistet wurden, sind Teil des Internets. Das Internet ist damit ein Netzwerk von unterschiedlichen Netzwerken. Ein „Netzwerk aller Netzwerke“ sozusagen.
Es ist die Fähigkeit, die Vielfalt an Hardware, Software und Netzwerktypen auf einen Nenner zu bringen, die das Internet so besonders macht. Wie ist das möglich? Ein amerikanisches Team um die beiden Internetpioniere Robert E. Kahn und Vinton Cerf, schufen Anfang der 70er Jahre hierfür die entscheidende Technologie: die Internetprotokollfamilie Transmission Control Protocol/Internet Protocol (TCP/IP) – ein Kommunikationsprotokoll für ein globales Computernetzwerk. Durch Kommunikationsprotokolle können Regeln für die Kommunikation zwischen unterschiedlichen Netzwerkentitäten festgelegt werden. Das TCP/IP Protokoll beinhaltet somit die Regeln, wie zwei Computer, zum Beispiel einer in San Francisco und einer in München, Informationen austauschen können. Das Protokoll bestimmt wie die Daten zerlegt werden, denn Informationen werden immer in Datenpaketen verschickt, über welche Route die Daten an die gewünschte (IP-)Adresse gelangen, und wie die Daten über unterschiedliche physikalische Medien (zum Beispiel Kupferdraht, Glasfaser, Luft, bei drahtloser Verbindung) hinweg übertragen werden. Zwischen den zwei Hosts (den Computern) stehen noch andere wichtige Transaktionsteilnehmer zum Beispiel Router, die die Datenpakete von einem Netzwerk zum nächsten weiterleiten können. Das ist er in etwa, der ganze Zauber, definiert in einem großen Kommunikationsprotokoll TCP/IP.
Das World Wide Web
Auf diese Netzwerktechnologie, die es ermöglicht mit jedem IP-fähigen Gerät, das am Internet angeschlossen ist, über eine beliebige Route zu kommunizieren, baut nun das sogenannte World Wide Web auf. Diese Idee wiederum geht zurück auf das CERN in der Schweiz. Um genauer zu sein, auf den englischen Wissenschaftler Tim-Berners Lee, der 1989 den ersten Internet Browser programmierte. Mit diesem Browser-Programm können über das ebenso von Lee kreierte HTTP-Protokoll verlinkte Hypertextseiten (Webseiten) geladen werden. Das http-Protokoll liegt dabei auf der obersten Schicht des Internets auf. Das World Wide Web ist eine der vielen Möglichkeiten, die die Grundtechnologie des Internets zur Verfügung stellt und ermöglicht. E-Mail und File-Transfer funktionieren beispielsweise auch dank dem Internet, werden aber über andere Protokolle umgesetzt.
Die Technologien hinter dem Internet haben sich in den letzten Jahren und Jahrzehnten nur inkrementell verändert. Wir nutzen Google und andere bekannte Webdienste immer basierend auf der Funktion des TCP/IP – das hat alles nichts mit großer artifizieller Intelligenz zu tun, entscheidend sind hierfür immer noch die Protokolle der 1970er Jahre. Die Richtlinien dieser Protokolle, die Regeln, die den Datenstrom formulieren und kontrollieren, sind von unabhängigen und nicht-kommerziellen Institutionen und Organisationen bestimmt worden. Das gilt heute noch: seit dem Ende der 1960er Jahre befasst sich die Internet Engineering Task Force (IETF), heute eine von vielen Gremien der Nichtregierungsorganisation Internet Society, mit der Entwicklung und Standardisierung der technischen Protokolle des Internets. Die IETF ist offen für alle, es gibt keine Mitmachkriterien. Im Gegenteil, die IETF ist abhängig von einer internationalen Freiwilligengemeinschaft, die sich um die Weiterentwicklung des Internets kümmert. Es gibt sie also wirklich, die Teile des Internets, welche nicht kommerzialisiert sind.
Die Tragik der Allmende Teil 1: Netzneutralität
Die Frage nach der Netzneutralität, die sich gerade durch die Medienlandschaft zieht, ist genau deshalb so wichtig, weil es um die ursprünglich festgelegten Standards des Internet geht, wie sie ursprünglich in TCP/IP definiert worden sind. Die Netzneutralität besagt ganz einfach, dass Internet Service Provider (ISP), wie in Deutschland zum Beispiel die Telekom, bestimmte Datenpakete nicht bevorzugen darf. Wenn sie das machen würde, hieße das: „Wenn du mehr zahlst, bekommst du dein Streaming-Angebot, dein File-Transfer etc. schneller also die anderen.“ Vor dem TCP/IP r Netzneutralität sind aber alle Datenpakete gleich. Hier, auf dieser technischen Ebene des sogenannten Packet-Forwading, entstehen Probleme der Kategorie wie sie Garitt Hardin in seiner Tragik der Allmende formulierte. Wenn jeder ISP das Maximum der Datenübertragung für seine Kunden verfolgt, zum Beispiel indem immer noch ein weiteres ressourcenfressendes UDP-Datenpaket – wie etwa beim Streaming – dazwischengeschoben wird, kollabiert irgendwann die gesamte Verbindung für alle Teilnehmer. Dass das Internet in gewisser Weise also doch eine Gemeinressource ist, offenbart sich genau dann, wenn wir unter der Woche zwischen 20:00 und 22:00 Uhr einen Film sehen wollen. Tja, da sind auch noch andere in der Leitung, die Datenpakete anfordern, denn das Limit des physikalischen Leitmediums ist eben sehr konkret. Analog dazu kann man sich ganz einfach einen Stau auf der Autobahn während des Berufsverkehrs vorstellen. Die Aufhebung der Netzneutralität könnte. dazu führen, dass eines der bedeutendsten Eigenschaften des Internet kommerzialisiert werden würde: die Norm, dass jedes angeforderte Datenpaket – egal ob von einem globalen Unternehmen oder einer Privatperson zu Hause – gleichberechtigt ist.
Die Tragik der Allmende Teil 2: Aufmerksamkeitslimits
oft überfordern, ablenken und stören. Diese Nachrichten sind so gestaltet, dass wir sie nicht ignorieren können: meistens rot, meistens mit einer Vibration oder einem Ton begleitet, strahlen sie Gefahr und somit Bedeutung aus. In diesem Fall sind die App-Developer daran interessiert, die Anzahl an Push-Nachrichten, die ein Nutzer pro Zeiteinheit bekommen kann, auf die Spitze zu treiben. Zusammen genommen ruiniert die Summe der App-Developer dadurch den Home Screen und möglicherweise auch den konstruktiven Umgang mit dem Smartphone. In diesem Fall ist die Allmende also unsere persönliche Aufmerksamkeit, vielleicht auch die der anderen, wenn die Notifications unseres Smartphones andere Mitmenschen ablenkt. Ist das Internet eine Allmende? Diese Frage kann man nicht stellen, denn das Internet ist viel zu groß und multidimensional, als dass man es als Ganzes evaluieren könnte. Es ist besser, man nimmt sich einen kleinen Teil heraus –egal ob technisch oder gesellschaftlich – und analysiert diesen nach Potentialen der Gemeinressourcenverträglichkeit! Dann mal Lo’.
(c) Titelbild: Pixabay