Trendy |

Czy zabraknie internetu?02.07.2020

ilustracja: Kuba Ferenc | animacja: Paweł Szarzyński Kinhouse

Nie tak łatwo popsuć internet. Zwykła bomba atomowa nie wystarczy.

Poradniki na czas apokalipsy są świetne. Zwłaszcza czytane po latach. Otóż w jednym takim poradniku, sprzed kilkunastu lat, przeczytałem, że na czas apokalipsy trzeba brać pod uwagę, że może nagle zabraknąć internetu. I co wtedy? I wtedy – radził poradnik sprzed kilkunastu lat – zawczasu wydrukuj sobie całą zawartość Wikipedii. Przyda się. 

OK, świetna rada. To ile by tego było? Kilkanaście lat temu Wikipedia była trochę mniejsza niż dzisiaj, ale czy aż tak bardzo mniejsza? Bo dzisiaj do takiego zadania potrzebowalibyśmy co najmniej pięć ton papieru (na samą wersję angielską). Kilkanaście lat temu wystarczyłaby tona? Czy może jednak ciut więcej? 

Dzisiaj Wikipedią pewnie mało kto by się kłopotał. Bo teraz na najwyższym miejscu w skali potrzeb cywilizacyjnych znajduje się najpewniej kontent Netfliksa. No ale do rzeczy: co z tym internetem? Może go zabraknąć? Bo takie widmo zaczęło nieśmiało krążyć nad nami, gdy w marcu tego roku Komisja Europejska wystąpiła do Netfliksa z prośbą o obniżenie jakości transmisji. Obawiano się, że te wszystkie zoomy, calle i inne telekonferencje zjedzą całą przepustowość sieci, a jeśli doda się do tego streaming w 4K, to sieć po prostu imploduje.

Przetrwanie ataku jądrowego miało być podstawowym zadaniem sieci. Pierwotnie nikt nie miał bowiem pomysłu na to, do czego miałaby taka sieć komputerowa służyć.

Nic takiego się jednak nie wydarzyło. „W normalnych, czyli przedkowidowych warunkach, największy ruch obserwowano wieczorami, bo wtedy ludzie oglądają filmy – mówi dr inż. Jordi Mongay Batalla, zastępca dyrektora ds. naukowych w Instytucie Łączności w Warszawie. – Po rozpoczęciu lockdownu nieznacznie zwiększył się ruch w sieci w ciągu dnia, ale i tak nie dorównywał on transmisji obserwowanej wieczorami. A ta pozostała w zasadzie taka sama, jak wcześniej. Streaming filmów jest dla sieci najbardziej obciążający, ale margines jej przepustowości jest znacznie większy, więc w żadnym momencie nie groziło nam przeciążenie”.

Stworzony, by przetrwać atak atomowy

Tu by się przydała mała wycieczka w przeszłość, do czasów, gdy rodził się współczesny internet. Bo warto wiedzieć, że podstawowa architektura sieci została zaprojektowana tak, by przetrwać atak jądrowy. I to nie jest żadna metafora. Przetrwanie ataku jądrowego miało być podstawowym zadaniem sieci. Pierwotnie nikt nie miał bowiem pomysłu na to, do czego miałaby taka sieć komputerowa służyć. Mówimy o przełomie lat 50. i 60. XX wieku. World Wide Web to jeszcze pieśń przyszłości. Twórcom sieci przyświecał jeden cel: zapewnić podstawową łączność pomiędzy ocalałymi ośrodkami władzy i służb w wypadku nuklearnej zagłady. Sieć miała działać nawet gdyby nie przeżył nikt z jej obsługi. Nawet gdyby zniszczeniu uległa znaczna część samej infrastruktury zapewniającej łączność między poszczególnymi komputerami.

Bezpośredni przodek współczesnego internetu, czyli ARPANET, powstał w wyniku paniki, jaką w kręgach amerykańskiej władzy wywołał start radzieckiego Sputnika. Nie żeby Amerykanie nie byli świadomi radzieckiego programu kosmicznego, ale uważali Rosjan za technologicznie zacofanych i niezdolnych do wystrzelenia rakiety w kosmos. A już na pewno nie zanim zrobią to sami Amerykanie. Sputnik trafił na orbitę 4 października 1957 i przez kolejne trzy tygodnie dumnie nadawał regularny impuls radiowy, łatwy do namierzenia przez byle radioamatora w dowolnym miejscu na świecie. Amerykanie wpadli w popłoch nie tyle z powodu tej wąsatej metalowej kuli nadającej nic nieznaczące sygnały, ile z powodu implikacji, jakie niosło za sobą jej wystrzelenie w kosmos. Oznaczało to bowiem, że Rosjanie dysponują rakietą zdolną wynieść ładunek na orbitę. Ale pokojowy charakter misji był tylko przykrywką – w istocie rakieta R-7 była przede wszystkim rakietą balistyczną przeznaczoną do przenoszenia głowic jądrowych. Tym sposobem Rosjanie dowiedli, że są zdolni dosięgnąć dowolnego celu na świecie.

Indeksowanych stron w internecie jest 5,5 miliarda. Zawierają one w sumie 300 eksabajtów danych. Żeby przeczytać same strony tekstowe, musielibyśmy spędzić jakieś 24 miliony lat.

Po ataku na WTC internet w okolicy nie działał tylko przez 15 minut

W obliczu zaistniałej sytuacji amerykański rząd powołał między innymi program ARPA (obecnie DARPA), czyli Agencję Rozwoju Zaawansowanych Projektów (Advanced Research Projects Agency), w ramach którego finansowano rozmaite prace badawcze na potrzeby wojska. ARPANET budowano więc pierwotnie z myślą o zastosowaniach militarnych – celem nadrzędnym było stworzenie systemu łączności odpornego na atak nuklearny. W odróżnieniu bowiem od tradycyjnej sieci telefonicznej, w której proste urządzenia końcowe (telefony) są ze sobą połączone dzięki inteligentnemu jądru (centrali), sieć ARPANET pomyślano jako połączenie inteligentnych urządzeń końcowych (komputerów) za pomocą prostej sieci nieposiadającej scentralizowanej infrastruktury. O ile centralę da się zniszczyć i tym sposobem przerwać komunikację, o tyle rozproszona sieć zapewnia łączność nawet jeśli niektóre połączenia zostaną zerwane. Perspektywa wojny atomowej była w latach 50. i 60. XX wieku zupełnie realną groźbą (w 1962 Rosjanie zainstalowali rakiety z głowicami jądrowymi na Kubie). Zakładano, że zniszczeniu uległyby największe amerykańskie miasta, ale rozległe prerie, pustynie i góry byłyby pewnie bezpieczne. To tam, do odpowiednio zabezpieczonych schronów planowano skierować ewakuowanych przedstawicieli władz i administracji. ARPANET zapewniłby łączność między tymi oddalonymi od siebie komórkami.

Współczesny internet jest w prostej linii następcą ARPANETU. Łatwo więc pojąć, że jeśli coś u swego zarania było projektowane tak, by przetrwać atak jądrowy, to jest to też odporne na pandemię. Współczesny internet jest samonaprawiającą się strukturą. Na przykład podczas ataku na World Trade Center w 2001 roku uległa zniszczeniu jedna z centrali na Manhattanie. Dostęp do internetu został w okolicy przerwany na 15 minut, po czym system samoczynnie się naprawił – odpowiednie automatyczne mechanizmy przekierowały cały ruch innymi ścieżkami. 

Czy da się przeczytać cały internet

Szacuje się, że funkcjonuje obecnie między 20 a 50 miliardów urządzeń w jakiś sposób podłączonych do sieci. To nie tylko komputery, telefony i tablety, ale także wszelkiego rodzaju urządzenia, czujniki, kamerki, sterowniki wchodzące w skład tak zwanego Internet of Things (IoT). Wspomniana wcześniej Wikipedia obejmuje w sumie 30 milionów haseł. Sama angielska wersja stanowi równowartość 2700 tomów drukowanej Encyclopedia Britannica. Ile obejmuje cały internet? Stron indeksowanych jest 5,5 miliarda. Zawierają w sumie 300 eksabajtów danych (1 eksabajt to 1 trylion bajtów). Żeby przeczytać same strony tekstowe w internecie, musielibyśmy spędzić jakieś 24 miliony lat. Ale to dane dotyczące jedynie widzialnego, indeksowanego internetu. Ile obejmuje „ciemna” sieć, tego nie wie nikt. Obejrzenie całego Youtube’a jest technicznie niemożliwe, ponieważ co minutę do serwisu trafia kolejnych kilkaset godzin filmów. Francuski think tank Shift Project wyliczył, że technologie konieczne do utrzymania sieci generują około 4% globalnych emisji CO2, przy czym za 60% tych emisji odpowiada sam przesył filmów (VoD, pornografia, youtube i podobne).

Gdy myślimy o sprawności działania sieci, to historia ostatnich lat pokazuje, że prawdziwym zagrożeniem są dla niej politycy, a nie pandemia.

Czy internet faktycznie zwolnił z powodu pandemii

Wiele osób zaobserwowało widoczny spadek prędkości internetu w marcu i kwietniu. Nie tylko spadek jakości streamingu z Netfliksa, ale także z innych stron czy serwisów. Jordi Batalla potwierdza, że takie zjawisko mogło mieć miejsce, ale nie świadczy to o kondycji całej sieci, lecz raczej o chwilowym obciążeniu lokalnym i działaniach podejmowanych przez naszych dostawców internetu. „Wszystko działa na bazie protokołów HTTP – mówi Batalla. – Użytkownik, klikając na link łączący nas na przykład z filmem w jakości 4K, wysyła prośbę (request) do sieci. Taki request oznacza, że użytkownik chce odtworzyć konkretny film w jakości 4K. Gdy ten request dojdzie do firewalla zainstalowanego u naszego dostawcy internetu, to oprogramowanie tego firewalla może taki request zablokować. I co się wówczas dzieje? Nasza aplikacja lub przeglądarka internetowa, jeśli nie otrzyma odpowiedzi na request, to automatycznie wyśle go ponownie, ale tym razem z obniżoną jakością. I tym razem firewall tę prośbę przepuści i będziemy mogli obejrzeć film. To nie znaczy jednak, że takie procedury są stosowane przez wszystkich operatorów i że dzieje się to stale, ale takie możliwości są i operator może zastosować taką politykę gdy obciążenie sieci staje się zbyt duże”.

Nie da się już naprawić początkowych błędów

Gdy myślimy o sprawności działania sieci, to historia ostatnich lat pokazuje, że prawdziwym zagrożeniem są dla niej politycy, a nie pandemia. Bo pokusa cenzury i manipulacji informacją stanowi dla wielu z nich pokusę, przed którą trudno im się powstrzymać. 

Jak powszechnie wiadomo, internet jest też stosunkowo mało odporny na wirusy. Wynika to po części z decyzji, jakie podjęli twórcy ARPANET-u, którzy postawili na szybkość i prostotę użytkowania, kosztem bezpieczeństwa. Przede wszystkim jednak nikt nie przewidział, że internet stanie się czymś więcej, niż siecią łączącą kilka najważniejszych ośrodków akademickich w Stanach i Europie Zachodniej. Globalny zasięg sieci nigdy nie był brany pod uwagę przez jej twórców. A gdy stał się faktem, nie dało się już naprawić początkowych błędów.

000 Reakcji

zobacz także

zobacz playlisty