Głęboka kontrola pakietów


Głęboka inspekcja pakietów (DPI) to kluczowa technika klasyfikacji pakietów. Informacje przesyłane przez Internet są dzielone na pakiety, które składają się z nagłówków w różnych warstwach oraz ładunku. Nagłówki pakietów dostarczają informacji, takich jak adresy źródłowe i adresy docelowe, w celu wspomagania transmisji pakietów, podczas gdy ładunki pakietów zawierają komunikaty protokołu aplikacji. Urządzenia sieciowe zwykle klasyfikują przychodzące pakiety i określają sposób ich przetwarzania zgodnie z wcześniej skonfigurowanymi regułami, które wiążą działania z wynikami klasyfikacji. Działania obejmują, by wymienić tylko kilka, upuszczanie, rejestrowanie, przekazywanie i nadzorowanie. Konwencjonalne urządzenia, takie jak przełączniki i routery, sprawdzają tylko nagłówki pakietów, aby określić sposób ich przetwarzania (np. przekazanie pakietu do określonego portu wyjściowego zgodnie z docelowym adresem IP). DPI oznacza, że inspekcja obejmuje ładunki pakietów, które dostarczają bogatszych informacji do przetwarzania pakietów na urządzeniach sieciowych i sprawiają, że klasyfikacja pakietów jest bardziej szczegółowa. W DPI reguły obejmują zwykle wzorce, które mają być dopasowane w ładunkach. Na przykład urządzenia sieciowe mogą przekazywać pakiety do różnych miejsc docelowych na podstawie adresu URL (Uniform Resource Locator) w ładunkach HTTP. System zapobiegania włamaniom może przeszukiwać ładunki pod kątem złośliwych wzorców w celu zidentyfikowania włamania. Ze względu na postęp w projektowaniu sprzętu i algorytmów, DPI było praktyczne w wielu urządzeniach sieciowych o średniej lub wysokiej wydajności. Ten wpis wprowadza koncepcję DPI, opisuje sposób działania DPI, omawia wyzwania i kontrowersje związane z DPI oraz przedstawia tematy przyszłych badań.

Aplikacje i funkcje DPI

Wiele urządzeń sieciowych jest wyposażonych w funkcje DPI. Typowe zastosowania to między innymi systemy wykrywania/zapobiegania włamaniom, filtrowanie zawartości, przełączanie w warstwie 7 (L7), zapobieganie wyciekom danych, kontrola aplikacji i różne bramy bezpieczeństwa. Wzorce do dopasowania w ładunkach mogą być oferowane przez producentów urządzeń lub dostosowywane przez użytkowników. Na przykład producenci systemów wykrywania włamań aktualizują najnowsze wzorce ataków, korzystając z ich wiedzy. Użytkownicy mogą również określić, które słowa kluczowe mają zostać odfiltrowane w filtrowaniu treści na podstawie własnej polityki. Wzory mogą być reprezentowane w stałych ciągach lub w bardziej wyrazistych formach, takich jak wyrażenia regularne, lub mogą być ich kombinacją z logicznym spójnikiem. W niektórych aplikacjach DPI może również szukać pewnych atrybutów statystycznych w ładunkach. Wzorce są zwykle powiązane z pewnym kontekstem, aby dopasowanie wzorca było precyzyjne i zmniejszyło liczbę fałszywych trafień. Na przykład dopasowanie wzorca jest istotne tylko wtedy, gdy występuje w określonych pozycjach, zakresach lub pól protokołu aplikacji w ładunkach. Urządzenia sieciowe mogą wymagać zaimplementowania pewnych funkcji pomocniczych na etapie przetwarzania wstępnego w celu obsługi precyzyjnego DPI. Po pierwsze, komunikaty aplikacji zwykle obejmują kilka kolejnych pakietów, więc ładunki w pakietach należy ponownie złożyć przed DPI, aby przywrócić oryginalne komunikaty. Po drugie, analiza protokołów aplikacji jest niezbędna do wyodrębnienia pól protokołów, z którymi powiązane są niektóre wzorce. W takim przypadku składnia i semantyka obsługiwanych protokołów aplikacji powinna znajdować się w implementacji DPI. Po trzecie, niektóre pola protokołów mogą wymagać zdekodowania lub przekształcenia do znormalizowanego formatu, ponieważ umożliwiają reprezentowanie tych samych informacji na wiele sposobów. Bez normalizacji osoby atakujące mogą zmutować zawartość do nietypowej formy i uniknąć wykrycia. Ta funkcja jest szczególnie ważna w przypadku aplikacji zabezpieczających. Po czwarte, działanie reguły może zostać wymuszone dopiero po dopasowaniu kilku wzorców w sekwencji, dlatego konieczne jest śledzenie, które wzorce zostały dopasowane w regule.

Algorytmy dla DPI

DPI jest bardziej skomplikowane niż kontrola nagłówka pakietu i zajmuje więcej czasu z dwóch powodów. Po pierwsze, typowe ładunki pakietów mogą być dłuższe niż 1000 bajtów, a DPI może wymagać sprawdzenia tak wielu bajtów, aby potwierdzić wynik klasyfikacji. Po drugie, pola protokołów aplikacji zwykle nie są w stałej pozycji i nie mają ustalonej długości, więc konieczne jest parsowanie protokołu, jak wspomniano. W przeciwieństwie do tego stosunkowo łatwiej jest zlokalizować pole nagłówka w niższych warstwach do kontroli. Dodatkowo, DPI zwykle musi dopasować tysiące lub nawet więcej wzorców jednocześnie. Dlatego wydajne algorytmy DPI przyciągnęły uwagę zarówno środowiska akademickiego, jak i przemysłu. Wśród kwestii związanych z realizacją wydajnego DPI, najbardziej badano dopasowywanie wielu wzorców w ładunkach, ponieważ w przeszłości uważano je za wąskie gardło wydajności w DPI. Ten problem jest zdefiniowany jako taki, że przy danym zestawie wzorców wielokrotne dopasowywanie wzorców skanuje ładunki tylko raz, aby określić, czy jeden lub więcej wzorców w zestawie się w nich pojawia, czy nie. Dopasowywanie wielu wzorców składa się ze zwartej struktury danych reprezentującej wzorce do dopasowania oraz algorytmu zaimplementowanego w oprogramowaniu lub sprzęcie do śledzenia stanu dopasowania. Struktura danych to zwykle automat skończony lub tablica mieszająca (lub bardziej zwarty wariant, taki jak wektor bitowy). W pierwszym przypadku automat składa się ze zbioru stanów i przejść między nimi przy danym jednym lub większej liczbie bajtów wejściowych. Algorytm dokonuje przejścia stanu z jednego do drugiego zgodnie z sekwencją bajtów wejściowych z ładunków. Jeśli osiągnięty zostanie jeden ze stanów końcowych, odpowiadający mu wzorzec zostanie dopasowany stan będzie żądany. Zaletą stosowania automatu jest deterministyczny czas wykonania, niezależnie od wartości wejściowych bajtów. Wyrażenia regularne mogą być również łatwo reprezentowane przez automat. W tym drugim przypadku tablica skrótów przechowuje ich wzorce lub podciągi. Przesuwane okno zostanie przesunięte od początku do końca ładunków, a znajdujący się w nim ciąg znaków zostanie wyszukany w tabeli skrótów. Jeśli ciąg zostanie znaleziony w tabeli (tj. sugeruje, że pasuje do jakiegoś wzorca lub jego części), algorytm może sprawdzić otaczające bajty w pobliżu ciągu, aby zweryfikować, czy wzór się pojawia, czy nie. Takie podejście jest zwykle wydajne pod względem pamięci, ale może ucierpieć z powodu algorytmicznego ataku złożoności, który generuje ładunki z wieloma podciągami, które "prawie" pasują do jakiegoś wzorca, a tym samym wywołuje wiele niepotrzebnych weryfikacji w celu spowolnienia algorytmu. Co więcej, niektóre złożone formy wyrażeń regularnych mogą nie zawierać stałego podłańcucha, który ma być przechowywany w tablicy skrótów, więc to podejście nie działa w przypadku ogólnych wyrażeń regularnych.

Implementacja DPI w otwartym kodzie źródłowym

DPI zostało zaimplementowane w wielu narzędziach open source do różnych celów, takich jak wykrywanie włamań i identyfikacja protokołów aplikacji. Snort jest dobrze znanym przykładem tego pierwszego i stymulował intensywne badania nad szybkim dopasowywaniem wzorców. Zwykle jest wyposażony w tysiące reguł, w których jeden lub więcej wzorców charakteryzuje poszczególne włamania. Jest również wyposażony w kilka preprocesorów do ponownego składania ładunków, normalizacji wartości pól niektórych protokołów, wykrywania anomalii za pomocą funkcji statystycznych i tak dalej. Bro to kolejny przykład wykrywania włamań. Oferuje dogłębną analizę protokołów aplikacji w celu wyodrębnienia semantyki w protokołach oraz język skryptowy w celu dostosowania przetwarzania w przypadku wystąpienia zdarzenia sieciowego. Identyfikacja protokołu to kolejne ważne zastosowanie DPI. Chociaż wiele protokołów aplikacji można rozpoznać po ich powiązaniach z określonymi numerami portów (np. HTTP na porcie 80), powiązania nie są obowiązkowe. Protokoły aplikacji działające na niestandardowym porcie zostaną pominięte w identyfikacji. Protokoły peer-topeer zwykle działają na losowych portach i nie można ich rozpoznać za pomocą tego podejścia. W związku z tym bardziej niezawodna jest identyfikacja protokołu aplikacji na podstawie wzorców powiązanych z nim w ładunkach danych. Do tego celu mogą służyć dobrze znane przykłady, takie jak nDPI i libprotoident. Obie implementacje mogą identyfikować setki protokołów aplikacyjnych od 2017 r.

Kontrowersje dotyczące DPI

Ładunki pakietów zawierają prywatne informacje użytkowników Internetu, takie jak wiadomości e-mail, historia przeglądania sieci i przesyłane pliki. DPI oznacza, że ładunki pakietów powinny być ujawnione, więc każdy mechanizm wykonujący DPI ma również szansę na dostęp do prywatności użytkownika. Istnieją narzędzia, które mogą wyodrębniać wiadomości e-mail, pliki itd. z ładunków pakietów. Aby uniknąć nadużywania DPI, uprawnienia dostępu do ładunków pakietów i zakres funkcji DPI powinny być ściśle ograniczone zgodnie z polityką korporacyjną, w przeciwnym razie prywatność użytkownika może zostać niepotrzebnie naruszona. Chociaż DPI w sieci korporacyjnej jest uzasadnione ze względów bezpieczeństwa, cenzura krajowa, zwykle obejmująca wdrażanie DPI, jest nieco kontrowersyjna. Cenzura może blokować dostęp do niektórych stron internetowych lub odfiltrowywać treści z określonymi słowami kluczowymi. Istnieje kilka typowych powodów takiej cenzury, w tym egzekwowanie prawa, ochrona prawa własności intelektualnej, bezpieczeństwo narodowe, blokowanie pornografii i kwestie polityczne, ale toczą się również debaty na temat naruszania wolności słowa. Użytkownicy mogą używać szyfrowanych protokołów, takich jak HTTPS lub urządzeń, takich jak wirtualne sieci prywatne, aby ominąć filtrowanie ruchu w cenzurze. Podejścia do szyfrowania, niezależnie od tego, czy są nieodłączne (np. w wielu aplikacjach w chmurze), czy celowe (w celu uniknięcia cenzury), stanowią wyzwanie dla projektu DPI.

Wyzwania badawcze

Ponieważ prędkość sieci stale rośnie, bardzo pożądana jest szybka implementacja DPI, ale jest to wyzwanie badawcze. Istnieje kilka podejść do szybkiego DPI. Po pierwsze, gdy duża liczba wzorców są dopasowywane jednocześnie, niezbędna jest zwarta reprezentacja wzorców. Nie tylko zmniejsza zużycie pamięci, ale także zwiększa lokalizację pamięci podręcznej procesora. To ostatnie jest istotne dla szybkości DPI ze względu na dużą lukę w czasie dostępu do pamięci podręcznej procesora i pamięci głównej w nowoczesnej architekturze komputera. Obiecującym podejściem jest skompresowanie automatu poprzez zmniejszenie liczby stanów lub przejść w nim, ale wyzwanie polega na tym, jak utrzymać wydajność przejścia między stanami w tym samym czasie. Po drugie, szybki projekt może równolegle dopasowywać wiele bajtów wejściowych, ale wiele bajtów oznacza również więcej możliwości w zakresie ich wartości. Na przykład liczba stanów i przejść w automacie może znacznie wzrosnąć, aby obsłużyć wiele bajtów wejściowych, co utrudnia zwartą strukturę danych. Po trzecie, gdy używana jest tablica mieszająca, niektóre bajty w danych mogą zostać pominięte, jeśli reszta bajtów w tym samym przesuwanym oknie nie może być częścią żadnych wzorców. Pomysł można uogólnić, aby pominąć bajty w ładunkach, które nie mogą być zgodne z niektórymi kryteriami filtrowania. Jednak osoby atakujące mogą również generować ładunki z zawartością, której nie można łatwo odfiltrować, aby spowolnić dopasowywanie wielu wzorców. W związku z tym projekt powinien uwzględniać prawdopodobne ataki złożoności algorytmicznej i być na nie odporny. Ponadto w literaturze wskazywano, że wykonanie funkcji pomocniczych w fazie wstępnego przetwarzania w dużej mierze zależy od protokołów śledzenia pakietów i może być również wąskim gardłem wydajności dla niektórych protokołów. Dlatego nie tylko dopasowywanie wielu wzorców, ale także inne funkcje związane z DPI powinny zostać przyspieszone i powinny być również odporne na ataki algorytmicznej złożoności. Oczywistą piętą achillesową DPI jest to, że wiele aplikacji sieciowych, takich jak aplikacje w chmurze, szyfruje swoje ładunki przez Internet, zwykle za pomocą podstawowego protokołu bezpieczeństwa warstwy transportowej, a treści nie można sprawdzić bez odszyfrowania. Potrzeba ochrony poufności danych przez szyfrowanie jest z natury konfliktem z DPI i znacznie ogranicza funkcje związane z bezpieczeństwem przez DPI. Na przykład pracownicy mogą przesyłać poufne pliki na dysk w chmurze, nie dając się złapać, ponieważ DPI nie może sprawdzić zaszyfrowanej transmisji. Istnieją dwa główne podejścia do rozwiązania konfliktu. Po pierwsze, bramka bezpieczeństwa może przechwycić połączenie użytkownika i pełnić rolę pośrednika w celu podsłuchiwania danych użytkownika. Ponieważ bezpieczne połączenia są negocjowane i ustanawiane między użytkownikami a bramą, brama może odszyfrować dane użytkownika. Jednak takie przechwycenie jest zwykle niewykonalne, ponieważ jest to dokładnie ten problem, któremu ma zapobiegać protokół bezpieczeństwa, taki jak zabezpieczenia warstwy transportowej. W związku z tym administratorzy systemu muszą w jakiś sposób wymusić na pracownikach "zaufanie" przechwyceniu (np. poprzez zainstalowanie agenta w systemie użytkownika w celu zaakceptowania certyfikatu bramki). Większość istniejących rozwiązań stosuje to podejście, ale sama brama musi być wystarczająco szybka, aby nie stała się wąskim gardłem wydajności w środowisku sieciowym. Po drugie, kategoria algorytmów szyfrowania, znana jako szyfrowanie homomorficzne, umożliwia dopasowanie wzorców do zaszyfrowanych danych. Innymi słowy, dopasowanie może określić, czy w zaszyfrowanych danych znajduje się zestaw wzorców, przy jednoczesnym zachowaniu poufności oryginalnych danych. Jednak formaty wzorców w tym podejściu są zwykle ograniczone w tym podejściu, a prędkość wyszukiwania jest niska w istniejących rozwiązaniach. Tak więc podejście to jest nadal badane głównie w literaturze naukowej, ale rzadko można je znaleźć w produktach komercyjnych.



Powrót

Geoblokowanie


Geoblokowanie (czasami nazywane geofencingiem lub geogatingiem) to proces stosowany w celu ograniczenia dostępu użytkownika Internetu do treści internetowych na podstawie fizycznej lokalizacji użytkownika. Raz lokalizacja użytkownika jest ustalana na podstawie geolokalizacji, dostęp użytkownika do treści jest dozwolony lub zabroniony w zależności od tej lokalizacji. Ciągłe doskonalenie technologii geolokalizacji umożliwia przeprowadzanie blokowania geograficznego z coraz większą dokładnością i niezawodnością oraz na terytoriach o różnej wielkości; użytkownicy mogą zostać zablokowani, jeśli uzyskują dostęp do Internetu z określonego regionu, kraju, jednostki podziału kraju lub nawet mniejszego terytorium. Geolokalizacja może opierać się np. na samodzielnym zgłaszaniu, z wykorzystaniem informacji podanych przez użytkownika; użytkownik może odpowiedzieć na bezpośrednie pytania dotyczące lokalizacji użytkownika lub podać informacje, na podstawie których można określić lub przybliżyć lokalizację użytkownika (np. adres rozliczeniowy lub adres wysyłki). Geolokalizacja może być również oparta na danych, których użytkownik nie zgłasza. Powszechnym wskaźnikiem używanym do geolokalizacji jest adres protokołu internetowego (IP) użytkownika. Adres IP połączenia internetowego użytkownika można porównać z istniejącymi przydziałami adresów IP, aby określić lokalizację lub przynajmniej przybliżoną lokalizację połączenia. Bardziej wyrafinowane narzędzia do geolokalizacji wykorzystują nie tylko adresy IP, ale także inne wskaźniki, które mogą wskazywać, gdzie użytkownik łączy się z Internetem; takie wskaźniki obejmują dane o sygnałach telefonów komórkowych, sygnałach Wi-Fi, sygnałach GPS i opóźnieniach odpowiedzi. W tym wpisie omówiono zastosowania geoblokowania, status prawny geoblokowania i obejścia geoblokowania.

Zastosowania geoblokowania

Geoblokowanie jest wykorzystywane do różnych celów. Dostawcy treści mogą korzystać z geoblokowania dobrowolnie - bez żadnego prawnego obowiązku. Na przykład blokowanie geograficzne służy do podziału rynków, co umożliwia wprowadzenie i utrzymanie zróżnicowanych cen dla różnych terytoriów. Dostawcy treści i inne podmioty również stosują blokowanie geograficzne ze względów bezpieczeństwa: Witryna bankowości internetowej może blokować geograficznie użytkownika, który próbuje uzyskać dostęp do konta z lokalizacji, z której zwykle nie korzysta autoryzowany użytkownik konta, lub system głosowania online może blokować geograficznie wyborców, którzy nie mają dostępu do konta. systemu z określonego terytorium. Dostawcy treści stosują również blokowanie geograficzne w celu zachowania zgodności z wymogami prawnymi; takie wymogi prawne mogą wynikać na przykład z przepisów niektórych jurysdykcji regulujących hazard online. W tych jurysdykcjach dostawcy gier hazardowych online mogą być zobowiązani do stosowania blokowania geograficznego, aby umożliwić użytkownikom dostęp do usług hazardowych tylko z jurysdykcji, w których dostawca posiada licencję na te usługi. Geoblokowanie jest również wykorzystywane do respektowania praw ograniczonych terytorialnie. Właściciel praw autorskich może korzystać z blokowania geograficznego, aby udzielać dostępu do Internetu tylko użytkownikom łączącym się z Internetem z kraju lub krajów, do których właściciel praw autorskich posiada prawa autorskie. Ograniczenia terytorialne praw mogą również wynikać z umów. Właściciel praw autorskich w wielu krajach może udzielić licencji na dystrybucję i wyświetlanie dzieła tylko w niektórych krajach; licencjobiorca może stosować blokowanie geograficzne, aby zapewnić zgodność z ograniczeniami terytorialnymi licencja. Ograniczona licencja może nawet wymagać od licencjobiorcy stosowania blokowania geograficznego w celu przestrzegania warunków terytorialnych licencji. Jednak biorąc pod uwagę umowę, która nie zawiera zobowiązania do blokowania geograficznego, nie jest jasne, czy blokowanie geograficzne jest mimo wszystko wymagane jako standard branżowy w Internecie w celu przestrzegania ograniczonych terytorialnie praw i zobowiązań prawnych.

Status prawny geoblokowania
Blokowanie geograficzne ma przeciwników, którzy utrzymują, że blokowanie geograficzne jest lub powinno być nielegalne. To, czy geoblokowanie jest legalne, zależy przede wszystkim od zasadności ograniczeń terytorialnych w określonych okolicznościach. Istnieją przepisy dotyczące części krajów, całych krajów, krajów w ramach struktur regionalnych i krajów w ramach struktur międzynarodowych, które zabraniają ograniczeń terytorialnych w odniesieniu do niektórych działań; przykładami takich przepisów są klauzula uśpionego handlu w Stanach Zjednoczonych, przepisy dotyczące jednolitego rynku w Unii Europejskiej (UE) oraz przepisy Światowej Organizacji Handlu. Chociaż różne prawa mogą zapobiegać ograniczeniom terytorialnym w działalności transgranicznej, wszystkie takie przepisy mają wyjątki, które stanowią, że ograniczenia terytorialne z pewnych powodów są legalne. Ograniczenia terytorialne dotyczące gier hazardowych online zazwyczaj wchodzą w zakres tych wyjątków, jeśli ograniczenia są uzasadnione jako "niezbędne do ochrony moralności publicznej lub utrzymania porządku publicznego" (GATT, artykuł XIV(a)), uzasadnione "względami porządku publicznego, bezpieczeństwa publicznego lub zdrowia" (Traktat o funkcjonowaniu Unii Europejskiej, art. 52, mający zastosowanie do usług opartych na art. 62) lub uzasadnione "nadrzędnymi względami interesu publicznego, takimi jak ochrona konsumentów" (Digibet Ltd przeciwko Westdeutsche Lotterie, Trybunał Sprawiedliwości Unii Europejskiej, C-156/13, 12 czerwca 2014 r., pkt 23). W UE Komisja Europejska podjęła w 2015 r. walkę z wszelkimi blokowaniami geograficznymi - zarówno uzasadnionymi, jak i nieuzasadnionymi. Jej wniosek dotyczący rozporządzenia w sprawie zapewnienia transgranicznego przenoszenia usług online w zakresie treści na rynku wewnętrznym (COM(2015) 627 final z dnia 9 grudnia 2015 r.) nie zakazywałby blokowania geograficznego, ale zobowiązać dostawców niektórych płatnych treści do udostępniania treści abonentom, którzy są rezydentami krajów UE i czasowo przebywają w innych krajach UE. W 2016 r. Komisja Europejska przedstawiła kolejny wniosek dotyczący nieuzasadnionego blokowania geograficznego, takiego jak blokowanie geograficzne wyłącznie do celów dyskryminacji cenowej: rozporządzenie w sprawie przeciwdziałania blokowaniu geograficznemu i innym formom dyskryminacji ze względu na narodowość klientów, miejsce zamieszkania lub miejsce prowadzenia działalności w ramach rynku wewnętrznego (COM(2016) 289 final z dnia 25 maja 2016 r.). Chociaż rozporządzenie zakazywałoby nieuzasadnionego blokowania geograficznego, pozostawiłoby blokadę geograficzną stosowaną w celu spełnienia wymogów prawnych prawa UE lub prawa państw członkowskich UE, które jest zgodne z prawem UE. Status prawny geoblokowania jest kwestionowany także z innych powodów. Blokowanie geograficzne budzi obawy dotyczące ochrony prywatności (danych osobowych), ponieważ blokowanie geograficzne wymaga, aby lokalizacja użytkownika była określony i w niektórych przypadkach powoduje przechowywanie informacji o lokalizacji użytkownika. Blokowanie geograficzne może również wpływać na wolność słowa - swobodę przekazywania i otrzymywania informacji: opresyjne rządy mogą wykorzystywać blokowanie geograficzne do ograniczania wypowiedzi, które są lub powinny być legalne, a nawet blokowanie geograficzne, które jest legalnie stosowane, może mimo wszystko prowadzić do ograniczeń legalnej wypowiedzi, ponieważ może wpływają pośrednio na mowę prawniczą. Ostatnio wydaje się, że rządy, sądy i podmioty prywatne coraz częściej zwracają się ku geoblokowaniu jako realnemu sposobowi osiągnięcia zgodności z przepisami i decyzjami określonymi terytorialnie. Bez możliwości ograniczenia zasięgu praw i decyzji, prawa i decyzje dotyczące działań w Internecie są ponad granicami i mogą mieć skutki globalne, gdy krajowe agencje i sądy próbują egzekwować przepisy krajowe i swoje decyzje. Takie globalne skutki są niepożądane, ponieważ są one narzuceniem narodowej suwerenności. Geoblokowanie jest również coraz częściej wykorzystywane przez podmioty internetowe, które próbują ograniczyć swoje narażenie na jurysdykcję nakazową (przepisy ustawowe i wykonawcze) oraz jurysdykcję orzeczniczą (decyzje agencji i sądów) niektórych krajów. Krajowe agencje i sądy często nie znajdują jurysdykcji nad podmiotem, jeśli podmiot ten nie prowadził działalności gospodarczej ani nie był ukierunkowany na konsumentów w tym kraju; blokowanie geograficzne dostarcza najwyraźniejszych dowodów na to, że aktor nie zamierzał prowadzić działalności w danym kraju ani kierować reklam do konsumentów w tym kraju. W związku z tym może być rozsądne, aby podmioty internetowe stosowały blokowanie geograficzne w celu uniknięcia jurysdykcji, nawet jeśli nie jest to wymagane przez prawo lub praktykę. Geoblokowanie może być również korzystne w innych przypadkach. Obrońcy dyskryminacji cenowej mogą promować geoblokowanie jako narzędzie, które umożliwi dyskryminację cenową w Internecie. Skuteczny podział rynku ułatwia również udzielanie licencji na prawa autorskie na mniej niż globalnym poziomie, umożliwiając w ten sposób mniejszym licencjobiorcom (np. lokalnym webcasterom) uzyskiwanie przystępnych cenowo licencji na terytorium mniejszym niż globalny.

Obejście geoblokowania

Geoblokowanie jest krytykowane, ponieważ nie jest idealne - można je obejść. Wirtualne sieci prywatne i inne usługi umożliwiają użytkownikom zmianę adresu IP ich połączeń i wprowadzanie w błąd narzędzi geolokalizacyjnych co do rzeczywistej lokalizacji użytkownika. Istnieją bardziej wyrafinowane narzędzia do omijania geolokalizacji w celu obejścia bardziej złożonych narzędzi do geolokalizacji i geoblokowania, które polegają na kombinacjach różnych wskaźników w celu zlokalizowania użytkownika. Użytkownicy omijają geoblokady z różnych powodów: Mogą chcieć przeglądać treści chronione prawami autorskimi, które nie są dostępne w ich lokalizacji lub są niedostępne w ich lokalizacji w danym momencie, lub uzyskiwać dostęp do informacji o cenach, które są przeznaczone dla użytkowników łączących się z innej lokalizacji, lub uprawiać hazard online w innej jurysdykcji, w której hazard online jest legalny lub nie jest zabronione. Kiedy omijanie geoblokowania było znane tylko najbardziej doświadczonym internautom, nie stanowiło większego problemu dla podmiotów, które stosowały geoblokowanie, ani dla tych, dla których geoblokowanie było stosowane (np. właściciele praw autorskich-licencjodawcy). Przy ograniczonym użyciu akty obejścia były znikome. Narzędzia do obejścia stały się jednak powszechnie znane i łatwe w użyciu, a ich stosowanie podważa obecnie skuteczność blokowania geograficznego i prowadzi do znacznego efektu ubocznego (wycieku treści przez granice). Wzrost obchodzenia zabezpieczeń był spowodowany częstszym stosowaniem blokowania geograficznego oraz popytem użytkowników na treści niedostępne w lokalizacjach użytkowników. Wraz ze wzrostem częstotliwości obchodzenia geoblokowania pojawiła się kwestia legalności obchodzenia w odniesieniu do potencjalnego odpowiedzialność zarówno (a) użytkowników korzystających z narzędzi do obejścia w celu uzyskania dostępu do treści, jak i (b) dostawców, którzy opracowują i/lub dostarczają narzędzia zaprojektowane w celu obejścia blokad geograficznych. Użytkownicy, którzy omijają blokowanie geograficzne, mogą naruszać swoje umowy z dostawcami treści, jeśli umowy zawierają postanowienia zabraniające użytkownikom podawania fałszywej informacji o ich rzeczywistej lokalizacji i/lub obchodzenia geolokalizacji i narzędzi do blokowania geograficznego witryn. W zakresie, w jakim narzędzia do blokowania geograficznego można sklasyfikować jako "skuteczne środki technologiczne", które mają na celu kontrolę dostępu do utworów chronionych prawem autorskim, obchodzenie tych narzędzi może spowodować naruszenie przez użytkowników przepisów chroniących takie środki (przepisy byłyby zawarte w przepisach krajowych wdrażających , na przykład Traktat WIPO o prawie autorskim z 1996 r., art. 18). W niektórych krajach przepisy antyhakerskie mogą również prowadzić do odpowiedzialności użytkownika za obejście blokowania geograficznego. Ponadto użytkownicy mogą ponosić odpowiedzialność za naruszenia prawa, jeśli dostęp do określonych treści jest zabroniony przez prawo kraju, w którym się fizycznie znajdują, i uzyskują dostęp do treści, omijając geoblokady. Dostawcy narzędzi do omijania blokad geograficznych mogą zostać pociągnięci do pośredniej odpowiedzialności za nakłanianie użytkowników lub inny wkład w nielegalną działalność przez użytkowników, w zakresie, w jakim aktywność użytkownika jest nielegalna, a narzędzia są zaprojektowane i/lub reklamowane specjalnie w celu obejścia geoblokady w celu niezgodnym z prawem. Odpowiedzialność pośrednia może również wynikać z przepisów dotyczących ochrony "skutecznych środków technologicznych" służących kontroli dostępu do utworów chronionych prawem autorskim, a w pewnych okolicznościach dostawcy mogą zostać pociągnięci do odpowiedzialności na mocy przepisów antyhakerskich i/lub przepisów chroniących płatne usługi przed urządzeniami umożliwiającymi bezpłatny dostęp do usług. Status prawny obejścia geoblokowania nie został jeszcze wyjaśniony w sprawach sądowych ani w konkretnych aktach prawnych. W 2015 roku kilka firm medialnych złożyło pozew przeciwko GlobalMode, dostawcy narzędzi do obejścia w Nowej Zelandii; sprawa zakończyła się poufnym porozumieniem, po czym dostawca narzędzi wycofał się z działalności w Nowej Zelandii. W związku z tym w sprawie nie wydano miarodajnej decyzji o legalności narzędzia. Posiadanie narzędzi do obchodzenia i ich nielegalne stosowanie w każdych okolicznościach byłoby problematyczne, ponieważ narzędzia te są wykorzystywane przez osoby takie jak działacze na rzecz wolności słowa, dziennikarze i inne podmioty, których dostęp do treści i możliwość przekazywania informacji w Internecie jest ważna dla zachowania wolności przemówienie.



Powrót

Geoweb


Sieć geoprzestrzenna, spopularyzowana jako geosieć, pojawiła się jako element zastępczy określający pojawienie się i rozprzestrzenianie się po 2005 roku różnorodnej gamy nowych, opartych na sieci technologii informacji geograficznej, których nie można było zdefiniować ani wykorzystać pod względem materialności i zespołów konwencjonalnych, istniejących od dziesięcioleci systemów informacji geograficznej (GIS) jako samodzielnej technologii. Termin geoweb początkowo kładł nacisk na łączenie informacji geograficznych (np. Współrzędnych x, y) z innymi formami treści internetowych. Jednak jego zastosowanie szybko rozszerzyło się, obejmując sieciowy ekosystem (a) nowych obiektów sprzętu/oprogramowania, (b) nowych form treści przestrzennych, (c) praktyk związanych z danymi oraz (d) standardów i technik przetwarzania danych przestrzennych związanych z szerokie rozpowszechnianie, popularyzacja i komercjalizacja lokalizacji. Przykłady mediów przestrzennych (urządzeń, platform i artefaktów informacyjnych), praktyki związane z danymi oraz specyfikacje techniczne i techniki podsumowano w Tabeli 1. Jednak Tabela 1 nie jest w żadnym wypadku wyczerpującym wykazem. Rzeczywiście, jest to zadanie niemożliwe, biorąc pod uwagę stale rozszerzający się wszechświat powiązanych, wzajemnie konstytuujących się mediów przestrzennych, towarzyszących praktyk związanych z danymi i protokołów, które składają się na geosieć jako połączony w sieć zespół socjotechniczny. Ten wpis przedstawia historyczne szczegóły powstania geosieci i ocenia użyteczność "geosieci" jako desygnatora dla nowszych produkcji i zmian związanych z dużymi zbiorami danych przestrzennych, platformą/ekonomią współdzielenia i algorytmami.

Geoweb w kontekście historycznym

Przewaga lokalizacji nad siecią rozpoczęła się w 2005 r. wraz z uruchomieniem przez Google wszechobecnych obecnie platform map cyfrowych: Google Maps, usługi mapowania w sieci oraz Google Earth, wirtualnej kuli ziemskiej. Co ważne, wkrótce po udostępnieniu Map i Earth, Google upublicznił także swoje Maps API (interfejs programowania aplikacji), umożliwiając użytkownikom i innym podmiotom "podpinanie się" do serwisu z innych stron internetowych i tworzenie aplikacji i usług za pośrednictwem Google Maps, m.in. na przykład tworzenie prostych mashupów map, w których użytkownicy mapują własne treści tematyczne na podstawowe dane Map Google i osadzają je (wyświetlają) na swoich osobistych stronach internetowych. Wydanie interfejsu API Map Google jest szczególnie ważne, ponieważ zasygnalizowało początek znacznie szerszego, obecnie wszechobecnego "mieszania" informacji przestrzennych z innymi formami treści internetowych w sposób opisany wcześniej. Ponadto pozwoliło to na praktyki związane z danymi, które dotychczas w dużej mierze nie były wspierane przez GIS po stronie serwera: tworzenie i udostępnianie treści geograficznych generowanych przez użytkowników w sieci przez laików bez formalnego doświadczenia w kartografii, geografii lub naukach o informacjach geograficznych, którzy "dobrowolnie" przyczyniają się treści przestrzennych na platformach sieciowych. Może to obejmować wkład geokodowanych treści do Wikipedii; publikowanie zdjęć ze znacznikami geograficznymi zrobionych za pomocą smartfonów w witrynach do udostępniania zdjęć, takich jak Flickr; dokonywanie fragmentarycznych edycji platformy do tworzenia map przestrzennych OpenStreetMap; uczestnictwo na platformach "geospołecznych", takich jak Foursquare, które początkowo funkcjonowały na zasadzie zgłaszania przez użytkowników swojej obecności w miejscu (miejscu publicznym, placówce kulturalnej lub komercyjnej) w formie "check-in", ale teraz wykorzystują geofence do wykrywania użytkownika rekomendacje lokalizacyjne i push dotyczące jedzenia, picia, handlu detalicznego i konsumpcji kulturalnej jako powiadomienia na urządzenia mobilne; oraz celowe przypisywanie lokalizacji postom w mediach społecznościowych poprzez, na przykład, włączenie natywnego geokodowania tweetów lub dodanie lokalizacji do posta na Instagramie. Te wygenerowane przez laików dane przestrzenne zostały nazwane dobrowolnymi informacjami geograficznymi (VGI). Nacisk na nowy dobrowolny charakter codziennych produkcji treści przestrzennych zbiegł się w tamtym czasie z teoretyzowaniem geosieci jako rozszerzenia pragmatyki Web 2.0 (logiki biznesowej) i technik do domeny geoprzestrzennej. Wiązało się to z odejściem od stron internetowych i repozytoriów danych w kierunku synergicznych platform i usług zorientowanych na afordancje interakcji i uczestnictwa użytkowników oraz równoległym rozwojem cyfrowych modeli biznesowych opartych na crowdsourcingu, otwartych danych i otwartych platformach oraz treści tworzonych przez użytkowników, w tym crowdsourcingu. Rzeczywiście, VGI i geoweb były tylko dwoma spośród kilku neologizmów krążących pod koniec 2000 roku w celu scharakteryzowania i uchwycenia ogromnych zmian w mapowaniu, wszechobecności afordancji lokalizacyjnych (szczególnie jako natywnie wbudowanych w urządzenia mobilne) oraz świadomości społecznej treści przestrzennych, z różnymi desygnatorami profilującymi różne aspekty tego samego zjawiska. Mapy 2.0, Where 2.0 i GeoWikis odwoływały się do charakterystycznych architektur, struktur partycypacyjnych i interaktywnych funkcji Web 2.0, które umożliwiają użytkownikom generowanie informacji geograficznych, przy czym VGI mówiło o naturze tych wkładów i praktykach ich tworzenia. CyberGIS zwiastował rozszerzenie funkcji obliczeń przestrzennych na usługi i platformy sieciowe, ale pozostał zaangażowany w materialność, architekturę i infrastrukturę danych GIS. Nowe media przestrzenne lepiej genealogicznie powiązały rozwój technologii geoprzestrzennych z nowymi technologiami medialnymi i gatunkami produkcji socjotechnicznej, a później zostały użyte do dyskursywnego wyodrębnienia składowych materiałów (obiektów sprzętowych/programowych i artefaktów informacyjnych) do analizy i dyskusji. Podczas gdy media przestrzenne zyskały na popularności w geografii dyscyplinarnej, w badaniach nad mediami jako preferowany termin, który nadal jest często używany i odnosi się zarówno do obiektów/urządzeń do badań, jak i do badań angażujących się z lokalizacją/świadomymi /zdolne media cyfrowe i praktyki medialne wokół tych technologii. Szczególnie dwa terminy zyskały popularność w popularnym języku poza kręgami akademickimi: (1) neogeografia i (2) usługi lokalizacyjne (LBS). Neogeografia uwydatniła świeckie pochodzenie wielu współpracowników (neogeografów) tworzących VGI, a także nieeksperckie racjonalności reżimów produkcji VGI. W innym miejscu firma LBS podkreśliła wartość użytkową powstających aplikacji zorientowanych na lokalizację dla użytkowników końcowych. Geoweb jest najmniej specyficznym z tych desygnatorów i zawiera wiele z nich: LBS, VGI, GeoWikis (np. OpenStreetMap), neogeografów i media przestrzenne/lokalne. Jako taki, funkcjonował jako sposób odniesienia się do całości zespołu geosieci bez wymieniania lub wyliczania jego komponentów (np. szybko stał się anachroniczny, tak jak w przypadku desygnatorów z sufiksem lub prefiksem 2.0 lub cyber. Ponieważ geosieć była i nadal jest rozumiana jako asamblaż socjotechniczny, wielu socjologów skłaniało się ku geosieci jako rubryce, ponieważ sygnalizowała ona zaangażowanie nie tylko w składową materialność i praktyki geosieci, ale także w szersze społeczne, polityczne, instytucjonalne, i ekonomiczne konteksty wzrostu lokalizacji w sieci. Ten nacisk na szersze warunki umożliwiające i podtrzymujące oraz konteksty powstających praktyk danych przestrzennych i obecności nowych materiałów dodatkowo zagwarantował porywające zaangażowanie w społeczne skutki geosieci jako zespołu, w tym między innymi erozję prywatności lokalizacyjnej; zmiany w sposobie wykorzystywania danych geograficznych przez grupy społeczne podczas ustalania i negocjowania roszczeń politycznych; implikacje dla podmiotowości i formowania podmiotu; intensyfikacja miejskich nierówności społecznych; reprodukcja wykluczeń społecznych wzdłuż osi rasy, klasy i płci; mediacja życia codziennego; a także implikacje utowarowienia danych przestrzennych i przewagi korporacyjnych reżimów zarządzania treścią geokodowaną.

Geoweb w aktualnym kontekście

Elastyczność geosieci jako zespołu socjotechnicznego i związana z nią użyteczność jako inkluzyjnej rubryki i punktu wejścia dla podejść nauk społecznych do nowych form treści informacji przestrzennej, urządzeń i praktyk związanych z danymi, niezależnie od tego, geosieć była terminem najbardziej entuzjastycznie przyjętym przez geografów akademickich. Pozostało to w dużej mierze ograniczone do dyskusji akademickich w ramach geografii dyscyplinarnej. Jednak nawet tutaj jego użycie jako słowa kluczowego i odniesienia znacznie zmalało. Jest tego kilka powodów. Po pierwsze i najważniejsze, termin geosieć sugeruje, że istnieje oddzielna, odrębna sfera sieci, którą jest "geo", którą można wyraźnie odróżnić od obecności, form treści i sieci niezwiązanych z geoprzestrzennością. Afordancje lokalizacyjne to natywne komponenty wielu urządzeń, w tym smartfonów, czujników i obiektów sieciowych, które uczestniczą w Internecie rzeczy, takich jak podłączone urządzenia i czujniki "inteligentnego" domu. Śledzenie lokalizacji jest również centralnym elementem wielu praktyk skwantyfikowanego ja. Rozproszone, bezproblemowo osadzone sieci czujników inteligentnego miasta rejestrują lokalną obecność i przepływy przestrzenne (ruch pieszy i samochodowy). Geokodowanie jest wbudowaną funkcjonalnością wielu platform mediów społecznościowych (np. Geofiltry Snapchata, znaczniki lokalizacji na Instagramie, natywne geotagowanie na Twitterze). Wiele interfejsów aplikacji i usług zostało uprzestrzennionych, obejmując widok mapy w celu umożliwienia dostępu do treści i/lub wykorzystania geografii (zamiast chronologii) jako logiki organizacyjnej dla treści, interfejsów i doświadczenia użytkownika. Ponadto usługi platformy/ Gospodarka współdzielenia, taka jak aplikacje do wspólnych przejazdów (Uber i Lyft) oraz rynek zakwaterowania eer-to-peer Airbnb, byłaby niemożliwa i kosztowna bez przestrzennych interfejsów API, które umożliwiają rozwój aplikacji i usług w oparciu o podstawowe dane mapy. Niezależnie od tego, czy chodzi o treści, usługi, platformy, afordancje, urządzenia, funkcjonalność i/lub praktykę w zakresie danych, lokalizacja stała się nieodłączną i wszechobecną cechą sieci, obiektów sieciowych, łączności i gospodarki cyfrowej. W związku z tym odwoływanie się do sieci geoprzestrzennej jako odrębnego, ograniczonego wszechświata obiektów, obecności i praktyk oddzielonych od innych sieci nie ma już sensu. Jednocześnie udowadniamy i walczymy z rozwojem przestrzennych dużych zbiorów danych i algorytmów, które stały się wszechobecne w przestrzeniach i praktykach życia codziennego. Duże zbiory danych i algorytmy stanowią wyraźne zmiany epistemologiczne i stanowią wyzwanie metodologiczne i epistemologiczne, a także możliwości w naukach przyrodniczych, fizycznych, stosowanych i społecznych. Na przykład w geografii nauka o informacjach geograficznych jest coraz bardziej powiązana z nauką o danych, co prowadzi do znacznych postępów w geoobliczeniach i nauce o danych geoprzestrzennych. Big data i algorytmy są zjawiskami i obiektami/przedmiotami badań w wielu dyscyplinach i są to wspólne referencje w różnych dziedzinach badań. W naukach społecznych obejmuje to między innymi socjologię, antropologię, humanistykę (cyfrową), geografię i media. Jako taka, w geografii, gdzie geosieć została zasadniczo przyjęta jako nomenklatura, geosieć została w dużej mierze przyćmiona i wyparta przez terminologie (geo)lokalizacji, (przestrzennych) dużych zbiorów danych, a ostatnio algorytmy, ponieważ pozwoliło to na geograficzną naukę o przestrzennych mediów, praktyk związanych z danymi i ich szerszych kontekstów społecznych (zespół geoweb), aby stać się częścią szerszej interdyscyplinarnej rozmowy na temat roli, statusu i skutków sieci cyfrowych oraz mieć większy wpływ na debatę publiczną i rozwój polityki.



Powrót

Google


Google to duża korporacja świadcząca usługi internetowe i ikona społeczna. Na podstawie aktualnych raportów inwestorów napędza najcenniejszą spółkę notowaną na giełdzie na świecie. Google jest najbardziej znany ze swoich narzędzi zwiększających produktywność i usług dla przedsiębiorstw, które obejmują wyszukiwarkę internetową Google, mobilny system operacyjny Android, usługę wideo YouTube, reklamy AdWords, przeglądarkę internetową Chrome, Mapy Google i Gmail oraz wiele innych narzędzi i usług. Google jest znaczący zarówno jako korporacyjny dostawca tych popularnych usług, jak i ze względu na swój ogromny wpływ na kulturę i społeczeństwo. Pierwsza połowa tego wpisu skupia się na historii i usługach Google. Druga połowa koncentruje się na szerszym wpływie Google na kulturę.

Firma

Google jest technicznie spółką zależną Alphabet Inc., giełdowej spółki holdingowej (NASDAQ: GOOGL), utworzonej przez założycieli Google w 2015 r. w ramach wewnętrznej reorganizacji korporacyjnej. W tym roku Google wygenerował 99% przychodów Alphabet. Podstawowe usługi Google, w szczególności wyszukiwarka internetowa Google i system operacyjny Android dla urządzeń mobilnych, cieszą się ogromną popularnością. Jego wyszukiwarka może pochwalić się ponad 1 bilionem wyszukiwań rocznie, co stanowi od 67% do 75% światowego rynku wyszukiwarek internetowych. Android to najpopularniejszy mobilny system operacyjny na świecie, obejmujący około 81% światowego rynku mobilnych systemów operacyjnych. Nawet niektóre drugorzędne usługi Google, takie jak Mapy Google, są światowymi liderami w swojej dziedzinie. Firma odniosła największe sukcesy dzięki usługom zwiększającym produktywność (np. Wyszukiwarka Google, Gmail, Kalendarz Google i Mapy Google), platformom (np. Android i Chrome) oraz komercyjnym usługom internetowym (np. AdWords, AdSense i Google Analytics). Zainwestował dużo i ogólnie poniósł porażkę w mediach społecznościowych, przegrywając z młodszymi firmami, w tym Facebookiem, Twitterem i Snapchatem. Google i jego założyciele coraz częściej inwestują również w sprzęt, w tym smartfony, samochody, telekomunikację i panele słoneczne, chociaż niektóre z tych produktów są obecnie przechowywane oddzielnie w ramach Alphabet Inc. Nawet jako stosunkowo dojrzała firma zajmująca się usługami internetowymi i oprogramowaniem, Google przynosi ogromne zyski , osiągając 89,5 miliarda dolarów przychodów w 2015 roku. Od początku 2017 roku Alphabet zatrudnia około 72 000 pracowników na całym świecie, z których zdecydowana większość pracuje bezpośrednio dla Google. Google ma biura na sześciu kontynentach i ma siedzibę główną w Googleplex, rozległy kampus korporacyjny firmy w Mountain View w Kalifornii. Firma posiada również centra danych w wielu krajach, aby jak najszybciej świadczyć usługi na całym świecie. Szybkość ma znaczenie w Google. Jednym z powodów prostej strony głównej Google i ogólnie minimalistycznego wyglądu jest umożliwienie szybkiego ładowania stron internetowych i usług Google.

Historia

Google wyłoniło się z kulturowego środowiska Doliny Krzemowej obejmującego uniwersytety badawcze, kulturę hakerów i kapitał podwyższonego ryzyka. Jej założyciele, Larry Page i Sergey Brin, spotkali się na studiach podyplomowych z informatyki na Uniwersytecie Stanforda w 1995 roku. Obaj zaczęli opracowywać wyszukiwarkę, która ustalała priorytety i klasyfikowała wyniki za pomocą systemu wzorowanego na analizie cytowań - witryny internetowej, która miała wiele innych witryn (hiper) linkowanie do niego ocenione jako ważniejsze, podnoszące go w rankingu. Kolejny algorytm, nazwany PageRank, był podstawą wyszukiwarki pary, początkowo o nazwie Backrub, a następnie przemianowanej na Google, od numeru a Googol, 10100. PageRank był bezpośrednim przodkiem dzisiejszej wersji PageRank, która jest zastrzeżonym algorytmem stanowiącym tajemnicę handlową która napędza wyszukiwarkę internetową Google i wspomaga wiele innych usług Google. Backrub zaczął jako wyszukiwarka w wewnętrznej sieci Stanforda i rozrósł się, obejmując World Wide Web. W 1998 roku Page i Brin założyli firmę typu start-up skupioną na wyszukiwarce Google. Firmie brakowało jasnego sposobu zarabiania na silniku, ale udało jej się zabezpieczyć fundusze venture capital z kilku źródeł. Za radą inwestorów firma zatrudniła Erica Schmidta, doświadczonego przedsiębiorcę, który pełnił funkcję dyrektora generalnego firmy (dyrektora operacyjnego) i wdrażał jaśniejszy biznesplan. Brin i Page mieli obawy dotyczące finansowania wyszukiwarek internetowych z reklam ze względu na konflikt interesów między wynikami wysokiej jakości a reklamami. W tamtym czasie wiele innych wyszukiwarek umieszczało reklamy w wynikach wyszukiwania. W 2000 roku Google uruchomił AdWords, aby sprzedawać przestrzeń reklamową w pobliżu wyników wyszukiwania, ale nie w ich obrębie. AdWords okazał się niezwykle opłacalny, ponieważ wykorzystywał PageRank do wyświetlania reklam odpowiednich dla użytkowników, a reklamodawcy wiedzieli, kiedy reklamy działają, ponieważ użytkownicy je klikali. Kilka lat później Google uruchomił AdSense, usługę, która umieszcza reklamy na zewnętrznych stronach internetowych i dzieli przychody między Google a właściciela witryny. W 2004 roku firma dokonała pierwszej oferty publicznej. W tym czasie uruchomiono wiele nowych, odnoszących sukcesy usług, w tym Gmail, Mapy Google i Dokumenty Google. W 2011 roku Page został dyrektorem generalnym Google, a Schmidt nadal pełnił funkcję prezesa wykonawczego. Podczas reorganizacji i tworzenia Alphabet w 2015 r. Schmidt, Page i Brin zostali odpowiednio prezesami wykonawczymi, dyrektorami generalnymi i prezesami tej firmy, a Sundar Pichai został dyrektorem generalnym Google. Pomimo załamań makroekonomicznych w 2008 roku i później, sama firma nadal rozwijała się i wprowadzała na rynek nowe produkty, choć podobnie jak w przypadku wielu średnich i dużych firm informatycznych, jej osiągnięcia w opracowywaniu i wytwarzaniu nowych rentownych produktów wewnętrznie są nierówne. Wiele udanych nowych usług i produktów powstało w wyniku przejęć (np. YouTube i Android) lub przyciągnięcia niezależnych programistów do korzystania z usług Google za pośrednictwem interfejsów programowania aplikacji (API) i podobnych platform.

Jak Google zarabia pieniądze

Strategia akumulacji kapitału Google jest prosta w koncepcji, ale złożona pod względem niezliczonych sposobów jej wdrażania, wzajemnych powiązań i wpływania na działania Google i Internetu jako całości. Google zarabia dzięki wyjątkowo dobrze ukierunkowanym, a nawet zindywidualizowanym reklamom. Dopasowuje zestawy reklam do każdego użytkownika na podstawie danych, które gromadzi na jego temat, często z bezpłatnych usług Google. Ze względu na historię Google jako wyszukiwarki internetowej oraz obecną strukturę usług i biznesplan, firma polega na ogólnie otwartej sieci, w przeciwieństwie do usług "zamkniętego ogrodu" o ograniczonym dostępie i/lub płacenia za dostęp do treści. Około 90% przychodów Google pochodzi z kierowania i umieszczania reklam za pośrednictwem Google AdWords w witrynach Google oraz w ramach partnerstwa Google AdSense w witrynach osób trzecich. Wartość tej reklamy jest wysoka ze względu na szeroki zakres tematów poruszanych przez Google i obliczoną trafność takich reklam dla użytkowników. Przychody zbierane przez Google są również zwiększane przez jego system cen. Koszt umieszczenia reklamy na dany temat jest licytowany w ciągłej aukcji, co powoduje, że cena umieszczania reklam jest ustalana według elastycznej stawki rynkowej. Koszt korzystania z Google nie jest mierzony w dolarach i centach, ale w wartości danych osobowych. Konsumenci będący użytkownikami Google są ostatecznym produktem firmy, a ci, którzy się reklamują, są jej klientami. Aby reklamy były trafne dla użytkownika, a przez to wartościowe dla firmy, Google gromadzi, łączy i syntetyzuje dane o każdym użytkowniku. Dokładne szczegóły tego procesu są niejasne, ponieważ pozostają tajemnicą handlową. Oczywiste jest, że im więcej danych o użytkowniku Google może zebrać z wielu miejsc, kontekstów i usług, tym lepiej może dostosować te partie reklam. Na przykład osoba korzystająca z wyszukiwarki Google, YouTube, Map Google, Gmaila i Kalendarza Google na swoim telefonie z Androidem generuje wiele rodzajów danych, w tym historię wyszukiwania, historię przeglądania sieci, historię lokalizacji, kontakty, korespondencję i harmonogram. Google gromadzi dodatkowe dane za pomocą plików cookie i stron internetowych osób trzecich, które korzystają z Google Analytics. W praktyce osoby oglądające filmy o kajakarstwie i odwiedzające miejsca spływów kajakowych zaczną widzieć i być może klikać reklamy sprzętu kajakowego, nawet jeśli nie należą do grup demograficznych tradycyjnie związanych z kajakarstwem. Google przyciąga użytkowników, oferując dobrze zaprojektowane, skuteczne, interoperacyjne usługi, które dla większości użytkowników są bezpłatne. Firma oferuje również platformy internetowe i usługi, takie jak mobilny system operacyjny Android i Google Maps API, dla programistów zewnętrznych bezpłatnie lub stosunkowo tanio, dzięki czemu programiści ci będą tworzyć aplikacje zbudowane na fundamentach Google, które wysyłają jeszcze więcej użytkowników informacje z powrotem do firmy. Ta strategia biznesowa prowadzi Google do projektowania technologii i realizowania zasad ukierunkowanych na zwiększanie ilości treści swobodnie dostępnych w Internecie jako całości, przy jednoczesnym utrzymaniu nieco otwartego, niezależnego od platformy Internetu. Kontrastuje to z niektórymi innymi dużymi firmami technologicznymi i medialnymi, takimi jak Facebook i Apple, które koncentrują się na wyselekcjonowanych sieciach o zamkniętym ogrodzie lub dostawcach treści, którzy pobierają opłaty za dostęp, takich jak Netflix czy The New York Times. Obecna fortuna Google jest związana z bogatym w treści Internetem, dostępnym dla wielu, nawet konkurencyjnych rodzajów sprzętu i oprogramowania podlegających zasadom neutralności sieci. Przyczyny tego wynikają z pochodzenia Google jako wyszukiwarki internetowej finansowanej z reklam oraz projektowania kolejnych usług Google zgodnie z tą strategią biznesową. Wartość wyszukiwarki zwiększa się wraz z każdym dodatkowym bitem informacji w przeszukiwanej sieci. Wyszukiwania Google, czy to w Internecie, mapach, książkach, poczcie e-mail, czy też w usługach stron trzecich, takich jak Twitter, zyskują na wartości, gdy dodatkowe treści trafiają do trybu online i można je przeszukiwać. Nawet jeśli treść nie jest bogata w umieszczanie reklam, zapewnia pewną wartość dla targetowania użytkowników. Z kolei informacje "zamknięte", niedostępne dla wyszukiwarek Google, takie jak strona na acebooku użytkownika, jego konto Apple Music lub treści czasopism akademickich z płatnymi ścianami, nie pojawiają się w wynikach wyszukiwania Google, przez co wyszukiwanie jest mniej trafne i dlatego mniej wartościowy. Aby nadal rozwijać się jako firma, Google próbuje stymulować rozwój "otwartego" Internetu z możliwością wyszukiwania w Google jako całości na kilka sposobów. Po pierwsze, niektóre usługi Google same publikują treści w sieci, bezpośrednio lub jako część większej usługi. Na przykład Książki Google bezpośrednio publikują całe biblioteki opublikowanych prac, które można przeszukiwać słowami. Podobnie Google udostępnia użytkownikom ogromne ilości danych geoprzestrzennych w ramach swoich usług Google Maps, choć dane te są wbudowane w aplikację na wyłączność do nawigacji i zadań pokrewnych. Wydobywanie tych danych geograficznych jest zabronione, ponieważ stanowi naruszenie praw autorskich. Po drugie, Google zachęca użytkowników do publikowania własnych treści w Internecie, gdzie można je przeszukiwać. YouTube i jego oferta od domowych filmów amatorskich do profesjonalnie wyprodukowanych seriali to najsłynniejszy przypadek, który można przeszukiwać, ale inne obejmują Picasa, usługę hostingu obrazów i Bloggera. Inne przykłady, które mogą być ograniczone do konta jednego użytkownika, to Gmail, Dokumenty Google i Kalendarz Google. W kilku przypadkach Google nawet zachęca użytkowników do edytowania lub tworzenia podstawowych treści Google. Na przykład Kreator map Google umożliwia użytkownikom tworzenie danych i edytowanie mapy podstawowej Map Google. Po trzecie, gdy programiści zewnętrzni korzystają z usługi Google, aby pomóc w uruchomieniu własnej aplikacji, warunki korzystania z usługi Google często wymagają, aby aplikacja była dostępna w otwartej sieci. Na przykład programista tworzący aplikację na Mapach Google musi uczynić aplikację bezpłatną i dostępną w Internecie lub, jeśli kosztuje to pieniądze użytkownika, musi uiścić Google opłatę licencyjną. Ma to dodatkowy skutek w postaci zachęcania programistów do zarabiania na swoich aplikacjach za pomocą reklam, często usługi Google AdSense. Około 10% niezwiązanych z reklamami przychodów Google to bardziej tradycyjne opłaty za transakcje usługowe. Przykładem mogą być zakupy sieciowych usług serwera "w chmurze", komercyjnych usług Google Maps, usług telewizji Chromecast oraz aplikacji w sklepie Google Play na Androida. Wreszcie Google maksymalizuje akumulację kapitału poprzez złożone praktyki unikania podatków. W przeszłości firma szeroko wykorzystywała luki podatkowe w wielu krajach, w tym "podwójny irlandzki" z "holenderską kanapką", aby przenosić przychody między zagranicznymi spółkami zależnymi, aby zminimalizować stawkę płaconego podatku do zaledwie 2,4%. W ostatnich latach ustalenia te zwróciły uwagę prasy, a przepisy zaostrzono, co skłoniło Google i inne firmy do przyjęcia innych praktyk. W Stanach Zjednoczonych Alphabet Inc. została utworzona jako dominująca spółka holdingowa protokołu internetowego w stanie Delaware. Alphabet jest właścicielem podstawowej własności intelektualnej Google, takiej jak PageRank. Spółki zależne Alphabet, w szczególności Google, płacą Alphabet swoje dochody w postaci zawyżonych opłat licencyjnych za korzystanie z tej własności intelektualnej. Tantiemy te liczą się jako wydatki podlegające odliczeniu od podatku tam, gdzie są generowane, potencjalnie nawet za granicą, podczas gdy prawo stanu Delaware zwalnia pobrane tantiemy z dochodu Alphabet podlegającego opodatkowaniu.

Branding
Dla tych, którzy nie interesują się szczegółami akumulacji kapitału przez Google, wykorzystuje markę, przekonującą historię i wygląd, aby wyjaśnić firmę. W artykule z 2013 roku Ken Hillis, Michael Petit i Kylie Jarrett twierdzą nawet, że taka retoryka i związane z nią praktyki pełnią rolę metafizyczną we współczesnej kulturze świeckiej. Biorąc pod uwagę, ile danych osobowych gromadzi i wykorzystuje Google, musi unikać pojawienia się starszego brata, aby użytkownicy zaczynają się tego bać i zwracają się do konkurencyjnych usług, odmawiając Google zarówno przychodów z reklam, jak i danych do targetowania reklam (Google unika nawet terminu big data). Samozwańcza tożsamość Google jest rodzajem geekowskiej, ulepszającej świat, zorientowanej na funkcjonalność nie-marki, choć sama w sobie jest bardzo skuteczną marką z mocną historią, przekonującą retoryką i spójnym, minimalistycznym projektem graficznym. Branding ten jest na tyle skuteczny, że wspiera tak zwaną kulturę "googliness" nie tylko wewnątrz, ale i wokół firmy. Na przykład deklarowaną misją Google jest "zorganizowanie światowych informacji i uczynienie ich powszechnie dostępnymi i użytecznymi". Google szeroko rozpowszechnia tę misję w tekstach online, prezentacjach, wywiadach, a nawet aktach prawnych. To zewnętrzne zaangażowanie ma podwójną funkcję: wyjaśniania perspektywy firmy na działania, które ludzie mogą uznać za mylące, i nadawania poczucia celu. Podczas gdy Google i jego działania są zawsze kierując się własnymi imperatywami biznesowymi, misja marki tworzy pozory, że porządkowanie i dzielenie się wiedzą przez Google jest nie tylko neutralne algorytmicznie, ale także pozytywne działanie, ponieważ pozwala użytkownikom podejmować bardziej świadome decyzje. Ten wymiar etyczny sprawia, że Google jest atrakcyjnym miejscem pracy pośród zaciekłej konkurencji Doliny Krzemowej o najlepsze talenty inżynierskie. Co istotne, mantra misji pojawia się nie tylko w rozmowach i wywiadach z pracownikami Google, ale także z zewnętrznymi programistami aplikacji. Jak każda marka, Google zmieniało się z biegiem czasu i nadal to robi. Wczesna autopromocja firmy była subtelna i dyskretna, bez zewnętrznych reklam. Korzystanie z wyszukiwarki Google rozpowszechniło się głównie dzięki pozytywnym doniesieniom w prasie biznesowej i przekazom ustnym wśród użytkowników. Z biegiem czasu firma zaczęła reklamować zarówno swoje podstawowe usługi, jak i przejęcia, takie jak urządzenia mobilne Nexus. Nieoficjalne motto firmy to kolejny znak zmian w marce. Pierwotnie motto Google brzmiało "nie bądź zły", zdanie, które pojawiło się w wielu dokumentach korporacyjnych. Wraz z rozwojem firmy i napotykaniem coraz bardziej złożonych sytuacji społecznych i kulturowych, motto doprowadziło do zarzutów o hipokryzję. Choć często błędnie cytowane jako "nie czyń zła", "nie bądź zły" jest bardziej niejednoznaczne, nie wyklucza "złych" działań, o ile moralny kompas firmy pozostaje w równowadze. "Nie bądź zły" pozostaje na początku kodeksu postępowania Google, chociaż kodeks postępowania Alphabet Inc. wykorzystuje echo twórcy filmowego Spike'a Lee: "Rób, co należy".

Praca

Google słynie z dobrych warunków pracy i długich godzin pracy. Udogodnienia w siedzibie firmy obejmują opiekę nad dziećmi na miejscu, bezpłatne jedzenie dla smakoszy, bezpłatne autobusy wahadłowe do lokalnych miast, ligi sportowe, bezpłatną pralnię i serię prelegentów znanych osób. Same biura są wygodne dzięki zabawnym elementom, w tym nawiązaniom do kultury popularnej i szkieletowi Tyrannosaurus Rex. Celem jest zminimalizowanie liczby powodów, dla których pracownik opuszcza kampus korporacyjny i humanitarne zmaksymalizowanie jego produktywności podczas pobytu w kampusie. W szczególności nowe pomysły i innowacje pojawiające się w pracy są własnością Google. Więcej czasu w pracy oznacza większe prawdopodobieństwo pojawienia się nowych pomysłów. Firma próbuje zinstytucjonalizować wewnętrzną innowację za pomocą praktyki zwanej 20% czasu, w której każdy pracownik spędza 20% swojego czasu na kreatywnych, innowacyjnych projektach dla firmy. Program odniósł pewne sukcesy, takie jak Google News, Gmail i AdSense, ale najwyraźniej jest bardzo nierówno praktykowany, zwłaszcza przez inżynierów i menedżerów, i wykazuje oznaki zaniku. Jako wiodąca firma technologiczna, Google zazwyczaj konkuruje o najlepszych talentów z innymi firmami technologicznymi, szczególnie w swoim macierzystym regionie Doliny Krzemowej. Osoby ubiegające się o pracę w Google przechodzą słynne dziwne testy, a każdy nowo zatrudniony pracownik jest rozważany i zatwierdzany przez kierownictwo wyższego szczebla. Siła robocza jest podzielona między pełnych pracowników i znaczną liczbę tymczasowych wykonawców, którzy nie mają dostępu do niektórych udogodnień i korzyści, takich jak oferty ubezpieczenia zdrowotnego Google. Google trzyma się mocno danych dotyczących stawek płac, ale firma cieszy się reputacją firmy, która dobrze płaci, często ponad 100 000 USD rocznie, choć na obszarach miejskich o wysokich kosztach utrzymania. W 2011 roku Google, Apple, Intel, Intuit i Pixar rozstrzygnęły pozew złożony przez Departament Sprawiedliwości Stanów Zjednoczonych, twierdząc, że naruszyły ustawę antymonopolową Shermana, zawierając umowy między firmami, aby nie dzwonić do swoich pracowników w celu rekrutacji. Firmy te były również oskarżonymi w prowadzonym przez pracowników pozwie zbiorowym dotyczącym porozumień przeciwko polowaniu na pracowników między tymi firmami. Google wraz z Apple, Intelem i Adobe rozstrzygnęli ten proces w 2015 roku za 415 milionów dolarów. Google spotyka się z krytyką za brak różnorodności wśród swoich pracowników. Bazując na danych zgłoszonych przez samych siebie, firma dokonuje marginalnych ulepszeń, ale pozostaje w przeważającej mierze mężczyznami i białymi, szczególnie na stanowiskach kierowniczych i technicznych. Google było również wielokrotnie przedmiotem pozwów o dyskryminację ze względu na wiek. Według payscale.com mediana wieku pracowników Google wynosi 29 lat, podczas gdy przeciętny pracownik amerykański ma 42,3 lata. W chwili pisania tego tekstu firma jest przedmiotem dochodzenia w sprawie dyskryminacji ze względu na wiek prowadzonego przez amerykańską Komisję ds. Równych Szans Zatrudnienia.

Skutki społeczne Google

Ze względu na swoją strategię akumulacji kapitału i ogromny wpływ na Internet, Google ma znaczący wpływ społeczny i kulturowy oraz jest zaangażowany w szereg kontrowersji.

Prywatność

Schmidt, były dyrektor generalny Google, który został prezesem wykonawczym Alphabet Inc., podobno powiedział kiedyś: "Polityka Google polega na tym, by podejść do przerażającej granicy i jej nie przekraczać" (Thompson, 2010). Strategia Google polegająca na gromadzeniu danych użytkowników w celu kierowania reklam, połączona z nowymi innowacjami mającymi na celu gromadzenie większej liczby rodzajów informacji o użytkownikach w nowych kontekstach, tworzy nieodłączne konflikty prywatności i nadzór. Gromadzone dane obejmują nie tylko wyszukiwania w Google, ale także historię przeglądarki użytkownika, strony internetowe korzystające z Google Analytics, wykorzystanie śledzących plików cookie, algorytmiczne skanowanie Gmaila i dokumentów Google, informacje o lokalizacji, zakupy dokonane za pośrednictwem produktów i aplikacji Google, kontakty e-mailowe i w mediach społecznościowych oraz publikowanie zdjęć i filmów. W 2012 roku firma zaczęła integrować dane zebrane z wielu platform w celu opracowania bardziej scentralizowanych, kompleksowych profili użytkowników. Gromadzenie i łączenie takich danych budzi obawy dotyczące prywatności, ponieważ Google nie ma obowiązku wykorzystywania danych w sposób korzystny dla interesów użytkownika. Jest nawet możliwe, że Google może, poprzez targetowanie i personalizację, nieumyślnie ograniczyć widoczne opcje użytkownika i potwierdzić jego pozycję społeczną w taki sam sposób, w jaki marketing geodemograficzny może uwiecznić zarówno siebie, jak i hierarchie konsumentów. Ponadto istnienie takich skonsolidowanych danych oznacza, że dane mogą zostać skradzione lub ujawnione przez przestępców lub mogą być monitorowane, żądane lub wzywane do sądu przez agencje rządowe w Stanach Zjednoczonych, w tym FBI, CIA i Agencję Bezpieczeństwa Narodowego lub agencje w innych krajów, w tym z rządami totalitarnymi. Odpowiedzi przedstawicieli firm odwracają uwagę od szerokiego nadzoru systemowego, skupiając się wąsko na technicznym charakterze konkretnego zagadnienia zbierania danych, podkreślać życzliwość firmy, ponieważ użytkownicy korzystają z bezpłatnych, spersonalizowanych usług i wysoce trafnych reklam, lub wzywać użytkowników do osobistej odpowiedzialności. Mówiąc słowami Schmidta, jak donosi Jared Newman (2009): "Jeśli masz coś, o czym nie chcesz, aby ktokolwiek wiedział, może w ogóle nie powinieneś tego robić". Google zmodyfikował swoje działania w niektórych miejscach w odpowiedzi na nowe lub istniejące przepisy dotyczące prywatności, szczególnie w Europie. Jedna z najwcześniejszych kontrowersji związanych z prywatnością Google pojawiła się po uruchomieniu Gmaila, tuż przed pierwszą ofertą publiczną firmy w 2004 roku. Usługa wykorzystuje treść wiadomości e-mail do kierowania reklam. Podobnie jak w przypadku większości procesów gromadzenia i syntezy danych Google, Gmail jest przetwarzany algorytmicznie. Wiele grup zajmujących się wolnością obywatelską i prawami do prywatności sprzeciwiło się. W 2012 roku prawnicy Google argumentowali, że użytkownicy Gmaila nie powinni "oczekiwać prywatności", gdy firma została pozwana w wielu pozwach zbiorowych przez użytkowników Gmaila. W 2010 roku Google spotkał się z publicznym oburzeniem i ostatecznie zrezygnował z usługi z powodu problemów z prywatnością. Google Buzz był usługą mediów społecznościowych do mikroblogowania i przesyłania wiadomości. Usługa automatycznie włączała użytkowników z istniejącymi kontami w usługach Google, w tym Gmail, YouTube i Google Latitude (które udostępniały lokalizację użytkownika), a także w usługach innych niż Google, takich jak Twitter i Flickr. Ze względu na projekt usługi najczęstsze kontakty Gmaila każdego użytkownika i inne prywatne informacje były automatycznie ujawniane publicznie. Takie domniemane udostępnianie danych osobowych wywołało publiczne oburzenie. Kwestie prywatności Google Buzz były szczególnie wyraźne w przypadku kobiety, której relacje zawodowe i osobiste zostały udostępnione jej agresywnemu byłemu mężowi. Obawy dotyczące prywatności doprowadziły również do procesów sądowych i dochodzeń rządowych w wielu krajach. Google Buzz został zmodyfikowany, aby był bardziej prywatny i ostatecznie wycofany. Elementy zostały później przyjęte w Google+. Usługi geograficzne Google stwarzają szczególne problemy związane z prywatnością i spotkały się z wieloma kontrowersjami. Problemy obejmują zdjęcia w wysokiej rozdzielczości w Mapach Google i Street View (Street view to usługa panoramicznych zdjęć ulicznych zebranych z publicznych pasów ruchu), udostępnianie lokalizacji użytkowników we Współrzędnych Google oraz gromadzenie i przechowywanie historii lokalizacji geograficznej Androida telefony. Pytania i skargi dotyczące w szczególności Street View skłoniły Google do zamazywania twarzy i tablic rejestracyjnych w serwisie oraz do obniżenia wysokości kamery w Japonii. W Niemczech Street View jest regulowany w taki sposób, że właściciele nieruchomości mogą mieć zamazane lub usunięte z usługi.

Własność intelektualna

Jednoczesne wykorzystywanie i próby przerabiania własności intelektualnej przez Google są na pierwszy rzut oka osobliwe, ale w rzeczywistości mają strategiczne znaczenie dla realizacji celów biznesowych. Podczas gdy firma szeroko korzysta z danych chronionych prawem autorskim innych osób, crowdsourcingu i oprogramowania open source, zbiera i blokuje dane w ramach własnych usług, a nawet prywatyzuje dostęp do wiedzy publicznej, i posiada ogromne portfolio patentów. Od samego początku Google korzysta z oprogramowania open source. Wynika to częściowo z potrzeby Google w zakresie dostosowanej technologii i maksymalizacji zysków, ponieważ oprogramowanie typu open source można modyfikować i nie wymaga opłat licencyjnych uiszczanych na rzecz konkurencji. Odzwierciedla również hakerską stronę założycieli firmy i kulturę Doliny Krzemowej. Serwery obsługujące usługi Google działają na dostosowanym systemie operacyjnym Linux, a wielu pracowników korzysta z Goobuntu, formy systemu operacyjnego Ubuntu Linux, do pracy wewnątrz firmy. Ponadto wiele usług Google wykorzystuje elementy open source lub same są open source, w tym Android, Google Web Services i system operacyjny Chrome. W pewnych okolicznościach Google zachęca twórców oprogramowania spoza firmy do tworzenia aplikacji innych firm, które działają w usługach Google lub współpracują z nimi. Aplikacje mobilne na Androida są prawdopodobnie najczęstszym przykładem, ale istnieją podobne rozwiązania dla wielu produktów Google. Jednym z wczesnych przypadków, który skłonił Google do przyjęcia tej strategii, był nieautoryzowany hack mashup, który wykreślił apartamenty Craigslist w Mapach Google. Pomysł był tak dobry, że Google zatrudnił programistę i stworzył sposób, w jaki zewnętrzni programiści mogą legalnie tworzyć takie mashupy map. Technicznie rzecz biorąc, ustalenia te mają zwykle formę API lub zestawu programistycznego. Programiści zewnętrzni i tworzone przez nich aplikacje podlegają jednak zorientowanej na reklamę strukturze technologii Google i prawnym warunkom korzystania z usług Google, które mogą ulec zmianie i zmieniają się. Google zachęca również innych do tworzenia lub publikowania danych w otwartej sieci w postaci stron internetowych, zdjęć i mediów społecznościowych, dodając do kompendium materiałów, które Google wyszukuje i udostępnia użytkownikom. Doprowadziło to do konfliktów prawnych z firmami medialnymi, takimi jak Viacom, ponieważ użytkownicy przesyłają dane chronione prawem autorskim, które są dostępne bezpłatnie w usługach Google, takich jak programy telewizyjne w You-Tube. Ponadto często trudno jest wyodrębnić lub pobrać dane z usługi Google. Na przykład o wiele łatwiej jest przesłać film do YouTube niż pobrać go z usługi do osobnego użytku. Dane przekazywane za pośrednictwem Kreatora map Google stają się własnością Google, a danych map Google nie można legalnie pobrać ani wyodrębnić z usługi Google. Dlatego niektórzy opisują dodawanie danych do Map Google jako wrzucanie czegoś przez horyzont zdarzeń czarnej dziury; nadal można zobaczyć przesłane dane w Mapach Google, ale nie można ich wyjąć do użycia w innych kontekstach lub oprogramowaniu systemów informacji geograficznej. Google nagina również własność intelektualną do swoich celów, gdy bezpośrednio gromadzi dane i oferuje je za pośrednictwem usług Google. Google Books to program do skanowania całego tekstu każdego papierowego boo i czasopisma oraz konwertowania tego zeskanowanego obrazu na tekst, który można przeszukiwać, za pomocą optycznego rozpoznawania znaków. Został uruchomiony w 2004 roku dzięki partnerstwu z kilkoma głównymi bibliotekami. Całe książki są skanowane i często publikowane w usłudze Google Books, chociaż dostęp do pełnego tekstu jest w wielu przypadkach ograniczony. Podobnie jak dane geograficzne, dane tekstowe są zablokowane w usłudze Google, co daje Google skuteczny monopol w zakresie dostępu i wykorzystania danych, nawet w przypadku dzieł znajdujących się w domenie publicznej. Wśród naukowców rodzi to poważne pytania o prywatyzację wiedzy publicznej. Przynajmniej częściowo celem Książek Google nie jest w ogóle publiczny dostęp. Takie kompendium tekstu jest nieocenione w rozwoju sztucznej inteligencji, a inżynier Google, cytowany przez Hillisa i współpracowników (2013), stwierdził, że "skanujemy je, aby mogła je przeczytać sztuczna inteligencja" (s. 151). Książki Google doprowadziły również do przedłużających się batalii prawnych w Stanach Zjednoczonych, zainicjowanych przez Gildię Autorów i Stowarzyszenie Wydawców Amerykańskich. Ci powodowie argumentowali, że program stanowił poważne naruszenie praw autorskich. Google argumentował, że jest chroniony przez dozwolony użytek, w szczególności w przypadku dzieł wyczerpanych i osieroconych, materiałów nadal chronionych prawem autorskim, ale z których właścicielami nie można się skontaktować. Google zawarł ugodę z wydawcami w 2011 r., a pozew Gildii Autorów został oddalony w 2013 r. z powodu dozwolonego użytku. Książki Google były również podstawą pozwów we Francji, Niemczech i Chinach. Pomimo argumentów Google na temat dozwolonego użytku i deklarowanej niechęci do patentów jako przeszkód dla innowacji technologicznych, Google i Alphabet posiadają ogromną liczbę patentów obejmujących wiele tematów i technologii. Firma ubiega się o tysiące patentów rocznie i posiada ogromną bazę starszych zakupionych patentów sprzed dziesięcioleci. Celem jest częściowo ochrona nowych projektów i innowacji, których firma potrzebuje do rozwoju, przed przechwyceniem lub kradzieżą przez konkurentów, dużych i małych. Patenty, zwłaszcza te starsze, są również bronią w niedawnych wojnach patentowych w sektorze technologicznym. Patenty na oprogramowanie w Stanach Zjednoczonych są często niejasne i brakuje im odniesienia do prekursorów technologicznych. Firmy mogą pozywać się nawzajem, twierdząc, że posiadają wczesny patent na technikę, na której opiera się produkt konkurencji, i żądać za to opłat odszkodowawczych. Ze względu na wielkość zaangażowanych firm szkody mogą sięgać setek milionów dolarów. Co więcej, firmy "trolli patentowych", których działalność polega na pozwaniu innych za naruszenie patentów i zbieraniu odszkodowań, stanowią ciągłe zagrożenie. Strategia Google, wraz z innymi dużymi firmami informatycznymi, polega na posiadaniu szerokiego wachlarza patentów, aby powstrzymać procesy sądowe lub, jeśli to się nie powiedzie, służyć jako podstawa do pozwów wzajemnych.

Produkcja wiedzy

Być może najbardziej subtelnym, ale dalekosiężnym wpływem Google jest sposób, w jaki ułatwia i kształtuje produkcję wiedzy, gdy użytkownicy korzystają z usług firmy. Dla wielu użytkowników zrozumienie sieci, jej zawartości i sposobu poruszania się po niej opiera się na wyszukiwarce, często Google. W przeciwieństwie do wcześniejszych metod kategoryzowania, organizowania i indeksowania informacji, takich jak papierowe katalogi kartkowe lub hierarchiczne tematyczne katalogi internetowe, wyszukiwanie jest proste. Co więcej, umożliwia to, co Hillis i współpracownicy opisali w swoim artykule z 2013 r. jako "uniwersalną szczegółowość", głębokie powiązania z określonymi częściami w tekstach i mediach, w przeciwieństwie do samych metadanych, a jego centralna funkcja indeksowania może szybko reagować na zmiany trafności i zachowań użytkowników zamiast działać tylko w ramach z góry ustalonego schematu. Na przykład Gmail zwykle nie wymaga ręcznej organizacji ani archiwizacji tematycznej, ponieważ wyszukiwanie w Google konta Gmail zwróci określone e-maile, którego dotyczy problem, nawet jeśli wyszukiwane hasło to tylko jedno nietypowe słowo w treści e-maila. W swoim badaniu z 2005 roku John Battelle twierdzi, że wyszukiwanie stanowi "powszechnie rozumianą metodę poruszania się po naszym wszechświecie informacyjnym" (s. 4) w taki sam sposób, w jaki oparte na myszce graficzne interfejsy użytkownika typu "wskaż i kliknij" dominują w sposobie interakcji większości użytkowników z osobistymi komputery. (Od czasu napisania tego fragmentu przez Battelle media społecznościowe stały się kolejnym powszechnym systemem nawigacji po wiedzy, choć opierają się na tego samego rodzaju rankingach algorytmicznych co Google i często wykorzystują wyszukiwanie w ramach usługi). Ze względu na przepaść cyfrową wyszukiwanie jest Nie aktualne "powszechnie rozumiane", ale jest bardzo, bardzo popularne, ponieważ użytkownicy polegają na wyszukiwaniu, zazwyczaj w Google, wszystkiego, od rozliczania zakładów barowych, przez sprawdzanie pogody, po badania naukowe. Jest to tak powszechna praktyka, że może kształtować kulturowe oczekiwania co do tego, co jest poznawalne i jak najlepiej to znaleźć, kształtując tym samym, kim są ludzie, nawet nieużytkownicy, i jak rozumieją świat. Biorąc pod uwagę, że Google to firma, naturalnie budzi to obawy co do tego, w jaki sposób wiedza kulturowa generowana przez wyszukiwanie jest kształtowana przez imperatywy korporacyjne Google. Nawet w wynikach wyszukiwania na mapach centralne znaczenie reklamy w modelu biznesowym Google kształtuje nie tylko wprowadzane dane, ale także sposób rozumienia świata przez użytkowników. Na przykład użytkownicy częściej używają lokalizacji oznaczonych marką, takich jak Starbucks, jako punktów orientacyjnych do nawigacji. Natomiast inne rodzaje obiektów, takie jak rezydencje lub posągi, które kategorycznie nie kupują reklam, są mniej prawdopodobne, że pojawią się w wynikach wyszukiwania, chyba że zostaną specjalnie wyszukane. Hillis i współpracownicy argumentują, że wpływ Google na wiedzę kulturową jest kształtowany zarówno przez ekonomię polityczną, jak i technofiliczną, świecką metafizykę. Google to tylko najnowsza z wielu prób uporządkowania światowych informacji w pogoni za neoplatońskim ideałem. Wielokrotny w ciągu dnia rytuał wyszukiwania w Google jest rodzajem wyroczni konsultacji z bytem, który może czuć się wszechwiedzący. Biorąc pod uwagę kulturową rolę wyszukiwania, niezwykle ważne jest pytanie, w jaki sposób usługi określają trafność i ranking wyników. Od momentu powstania kierownictwo Google było zaniepokojone pojawieniem się manipulacji wynikami wyszukiwania, takich jak wstawianie reklam. Dziś sam PageRank jest tajemnicą handlową, a trzymanie go w czarnej skrzynce pozwala Google zachować przewagę konkurencyjną i obwiniać algorytm, a nie tych, którzy go napisali, gdy pojawiają się problemy. Pomimo tajemnicy wokół PageRank, istnieje cała drugorzędna branża optymalizacji wyszukiwarek, która próbuje manipulować znanymi zachowaniami PageRank, aby podnieść stronę internetową innej firmy w rankingach wyszukiwania Google. Czasami sam Google bezpośrednio manipuluje wynikami wyszukiwania lub je cenzuruje. Niektóre filtry są korzystne dla użytkowników i społeczeństwa, w tym eliminowanie nielegalnych materiałów, takich jak pornografia dziecięca i witryny instalujące złośliwe oprogramowanie. Inne przypadki są bardziej kontrowersyjne, takie jak faworyzowanie usług Google i filtrowanie wypowiedzi politycznych w krajach niedemokratycznych. Obecność Google w Chinach była szczególnie złożona. Od 2005 roku, kiedy wystartował w kraju, do 2010 roku Google cenzurował wyniki wyszukiwania i materiały dotyczące swoich usług zgodnie z żądaniami chińskiego rządu. W 2010 roku, częściowo w odpowiedzi na włamanie do usług Google przez agentów chińskiego rządu, Google zamknął cenzurowaną usługę Google China i skierował cały chiński ruch przez nieocenzurowaną wersję w Hongkongu, poza tak zwaną Wielką Zaporą ogniową wokół Internetu w Chinach kontynentalnych. Z wynikami wyszukiwania i wynikającą z nich wiedzą wiąże się również wiele problemów, nawet jeśli nie jest to celowa manipulacja ani cenzura. Po pierwsze, wyniki wyszukiwania są strukturalnie zdekontekstualizowane, co utrudnia wyszukiwanie czegoś bez podstawowej wiedzy kulturowej, na której można pracować. Na przykład, Google Scholar jest doskonały dla profesjonalistów poszukujących konkretnego artykułu w czasopiśmie, o którym wiedzą, że istnieje, ale w przeważającej mierze szczegółowy dla nowych naukowców próbujących zbadać dziedzinę wiedzy po raz pierwszy. Po drugie, ponieważ PageRank daje witrynom, które mają więcej linków, wyższe pozycje w wynikach wyszukiwania, z natury faworyzuje dobrze znane, ugruntowane witryny w stosunku do nowych. Ta sama cecha może również faworyzować witryny firmowe, które przyciągają wiele linków, w porównaniu z witrynami małych, lokalnych firm. Wreszcie Eli Pariser opisuje "bańkę filtrującą", w której personalizacja wyników wyszukiwania odfiltrowuje mniej istotne materiały zdefiniowane algorytmicznie, w tym odstające pomysły i materiały stanowiące wyzwanie społeczne. W konsekwencji usługi sieciowe po prostu wzmacniają istniejące opinie użytkowników. Stwarza to problemy w społeczeństwie demokratycznym, które wymagają negocjacji i wzajemnego zrozumienia. W niektórych przypadkach siła Google do kształtowania wiedzy użytkowników nie jest mocą narzędzia, wyroczni czy cenzora, ale jest stanem samym w sobie. Siva Vaidhyanathan argumentuje, że w przypadku braku odpowiednich inwestycji państwa w usługi publiczne i infrastrukturę, Google i podobne firmy wkraczają, aby kształtować sposób, w jaki ludzie poznają świat. Taka "publiczna porażka" jest oczywista w przypadku Google Books, zwłaszcza dzieł osieroconych, ponieważ żaden rząd nie próbował zbudować takiej uniwersalnej biblioteki cyfrowej. W związku z tym jedyny kompleksowy, zeskanowany korpus, jakim dysponujemy, jest tworzony na potrzeby Google i dostępny tylko na warunkach Google. Mapy Google obsługują również funkcje stanopodobne. Ci, którzy chcą, aby obszar został nazwany (lub przemianowany) na mapie, na przykład Palestyna kontra Izrael kontra Zachodni Brzeg a Terytoria Okupowane, oprócz tradycyjnych władz kartograficznych, takich jak Departament Stanu USA, zaczęli odwoływać się bezpośrednio do Google lub ONZ.

Kwestie antymonopolowe

Dominacja Google'a wśród wyszukiwarek internetowych, reklam internetowych i mobilnych systemów operacyjnych poza Stanami Zjednoczonymi powoduje problemy antymonopolowe w wielu krajach. W 2008 roku Departament Sprawiedliwości Stanów Zjednoczonych stwierdził, że próba zakupu rywala Yahoo przez Google naruszyłaby ustawę antymonopolową Shermana poprzez ograniczenie konkurencji. W 2011 roku Schmidt został wezwany do złożenia zeznań przed komisją antymonopolową Senatu Stanów Zjednoczonych w związku z obawami dotyczącymi udziału Google w rynku i faworyzowania własnych usług Google w wynikach wyszukiwania. W następnym roku Federalna Komisja Handlu Stanów Zjednoczonych wszczęła dochodzenie w sprawie Google z powodów antymonopolowych, w tym manipulowania wynikami wyszukiwania w celu promowania usług Google, zwłaszcza zakupów i map, oraz działań antykonkurencyjnych dotyczących aplikacji AdWords i Android. Przedstawiciele Google spotkali się z przedstawicielami Białego Domu i Federalnej Komisji Handlu sprawa upadła. Google jest również przedmiotem wielu dochodzeń antymonopolowych Unii Europejskiej. Kwestie obejmują dominację Google i manipulację wynikami wyszukiwania oraz związane z tym łączenie wyszukiwarki z innymi usługami komercyjnymi, kopiowanie treści od innych dostawców wyszukiwania, rynek reklamy internetowej oraz obowiązkowe preinstalowane aplikacje usług Google na urządzeniach z Androidem. W kwietniu 2016 r. Komisja Europejska orzekła przeciwko Google we wstępnej decyzji w sprawie problemu z preinstalowanymi aplikacjami na Androida, który może potencjalnie kosztować firmę grzywny w wysokości 3,4 miliarda dolarów. W odrębnej sprawie wystąpiła Komisja Europejska formalne zarzuty w lipcu 2016 r. przeciwko Google za ograniczanie witryn stron trzecich, które korzystają z funkcji wyszukiwania Google, możliwości korzystania z reklam innych niż Google. Firma była również przedmiotem orzeczeń antymonopolowych w innych krajach, w tym w Rosji, która niedawno ukarała Google grzywną w wysokości 6,83 miliona dolarów za wymuszone preinstalowanie aplikacji na urządzeniach z Androidem.

Neutralność sieci

Google generalnie wspiera i lobbuje za przepisami dotyczącymi neutralności sieci, mandatem, zgodnie z którym żaden ruch cyfrowy w Internecie nie ma priorytetowych prędkości i tras w porównaniu z jakimkolwiek innym ruchem internetowym. Zgodnie z obowiązującymi w USA zasadami neutralności sieci Internet użytkownicy mogą płacić więcej za szybszy osobisty dostęp do Internetu, ale dostawcy stron internetowych i usług internetowych nie płacą firmom telekomunikacyjnym więcej za preferencyjną prędkość lub dostęp po ich stronie. Wielopoziomowe, nieneutralne prędkości i trasy internetowe, za którymi opowiadają się firmy telekomunikacyjne, takie jak Verizon i Comcast, stanowią zagrożenie dla ukierunkowanego modelu biznesowego reklamy Google z kilku powodów. Po pierwsze, cała zawartość usług Google jest przesyłana przez kable internetowe. Aby utrzymać wysokie prędkości w nieneutralnym Internecie, Google musiałby uiszczać opłaty firmom telekomunikacyjnym. Po drugie, miliony zewnętrznych stron internetowych, do których Google łączy się w wynikach wyszukiwania, oraz zewnętrzni twórcy aplikacji, którzy oferują aplikacje na platformach Google, mieliby ograniczone usługi, ponieważ nie chcieli lub nie mogli płacić za preferencyjne prędkości. Połączenie tych czynników prawdopodobnie również oznaczałoby , że użytkownicy i operatorzy małych stron internetowych byliby mniej skłonni do przesyłania i udostępniania treści w Internecie, co negatywnie wpłynęłoby na próby Google mające na celu zwiększenie wartości własnych usług poprzez zwiększenie rozmiaru i różnorodności całej sieci. W rezultacie Google wraz z innymi firmami świadczącymi usługi internetowe aktywnie lobbował na rzecz zasad neutralności sieci i sprzeciwiał się prawodawstwu forsowanemu przez firmy telekomunikacyjne, które zezwalałoby na ustalanie cen na poziomach innych niż neutralne. Co więcej, Google przystąpił do ofensywy przeciwko firmom telekomunikacyjnym, w szczególności kablówkom, które dysponują skutecznymi monopolami regionalnymi w Stanach Zjednoczonych. Jako monopoliści, firmy kablowe mają niewielką motywację do obniżania cen lub ulepszania infrastruktury. Google Fiber to dostawca usług internetowych w kilku miastach w USA, który wywiera presję na firmy kablowe, oferując użytkownikom bardzo duże prędkości w najnowocześniejszej infrastrukturze po niskich kosztach. Być może nigdy nie przyniesie to bezpośredniego zysku Google, ale Google Fiber wywiera presję na firmy kablowe, aby poprawiały własne prędkości, ułatwiając strategię Google polegającą na rozwijaniu sieci i ukierunkowanej działalności reklamowej.



Powrót

Google Earth


Google Earth to bezpłatna aplikacja online do atlasu cyfrowego, która przedstawia informacje przestrzenne w postaci wirtualnego globu i mapy opracowanej przez firmę Google i pierwotnie wydanej w czerwcu 2001 r. Google Earth wymaga dostępu do Internetu, ponieważ wyświetla informacje geograficzne z różnych serwerów, ale jest aplikacją kliencką, która może ładować i przechowywać niestandardowe zestawy danych lokalnie (lub przesyłać na serwery). Platforma Google Earth jest oparta na zdjęciach satelitarnych, które stanowią dynamiczny i interaktywny punkt wyjścia dla użytkowników; obrazy są okresowo aktualizowane i zostały przetworzone w niektórych lokalizacjach w celu zapewnienia mapowania 3D. W tym wpisie zbadano, jak działa Google Earth i jak jest używany.

Definicja programu Google Earth

Zdjęcia w Google Earth są układane kafelkowo, tworząc mozaikę powierzchni Ziemi. Kafelki mogą być płynne, ale w niektórych przypadkach kafelki odzwierciedlają różne źródła i okresy ze względu na zachmurzenie i inne problemy. Warstwy w programie Google Earth dostarczają szczegółowych danych, takich jak granice polityczne, dane demograficzne i dotyczące przestępczości, budynki 3D i inne informacje geograficzne. Dostępność danych różni się w zależności od lokalizacji, ponieważ niektóre miejsca nie mają budynków 3D ani innych bardziej szczegółowych informacji geograficznych. Więcej danych jest regularnie dodawanych w celu ulepszenia warunków danych Google Earth. Jego atlasowe detale obejmują fotografie i inne informacje referencyjne dotyczące wybranych miejsc (patrz ryc. 1). Google Earth to system informacji geograficznej (GIS), który zapewnia informacje geoprzestrzenne i umożliwia podstawową wizualizację danych geograficznych, ale ma ograniczone możliwości i narzędzia jako prawdziwy GIS do obsługi przestrzennych operacji analitycznych, takich jak zapytania (inne niż podstawowe " znajdź" dla adresów, kodów pocztowych i nazw miejsc) oraz złożone operacje przestrzenne (np. buforowanie, modelowanie oraz operacje bliskości i łączności inne niż proste nakładanie).

Jak Google Earth został przyjęty przez użytkowników

Google Earth ma społeczność forów, na których członkowie mogą publikować obserwacje zjawisk geoprzestrzennych lub zastanawiać się nad nowymi narzędziami i technikami wykorzystania funkcjonalności Google Earth, w tym postami i encyklopedycznymi wpisami na temat miejsc i usług przesyłania strumieniowego danych, aby otrzymywać informacje o zmianach w czasie zbliżonym do rzeczywistego wzorce wokół Ziemi (np. wzorce pogodowe, trzęsienia ziemi i tsunami). Fora społeczności Google Earth są podzielone na kategorie, które zastąpiły poprzednie fora członków. Rdzeniem danych geograficznych Google Earth jest język znaczników - język znaczników dziurki od klucza (KML). KML to język oparty na XML (rozszerzalny język znaczników), który zapewnia standardową wymianę danych geograficznych dla programu Google Earth i innych aplikacji GIS obsługujących import, eksport i wyświetlanie formatów KML. Istnieje również format pliku spakowanego w języku znaczników dziurki od klucza, który łączy główny plik KML z dodatkowymi plikami pomocniczymi w skompresowane archiwum; pliki pomocnicze mogą zawierać oznaczenia miejsc, współrzędne lokalizacji i dane modelu 3D. Sketch-up (dawniej Google Sketchup) to dodatkowa aplikacja do modelowania 3D w programie Google Earth, która umożliwia użytkownikom projektowanie modeli 3D, które można zaimportować i dołączyć jako część wizualizacji krajobrazu. Modelowanie 3D w Sketchup obejmuje aplikacje architektoniczne, inżynieryjne, do projektowania wnętrz i architektury krajobrazu, które mogą przenieść do Google Earth bardziej lokalną lub większą skalę. Wsparcie Google dla Google Earth obejmuje systemy operacyjne Windows, OS X, Linux, Android i iOS.



Powrót

Gopher


Gopher dostęp do wielu innych serwerów i płynnie pasowała do wczesnych narzędzi, takich jak Archie, WAIS (Wide Area Information Service), Jughead (Jonzy′s Universal Gopher Hierarchy Excavation and Display ), a zwłaszcza Veronica (Very Easy Rodent-Oriented Net-wide Index to Computerized Archives), utworzony w 1992 r., do którego był najlepiej przystosowany. Jednak Jughead i Veronica byli powolni i pozwalali wyszukiwać tylko tytuły plików, a nie pełne teksty. Gopher miał szeroki zakres zastosowań, począwszy od wyszukiwania informacji za pomocą słów kluczowych (np.czytanie gazet w Internecie. Był podziwiany za swoją prostotę, ponieważ użytkownicy nie musieli znać jego nakrętek i śrub, a nawet konkretnych nazw plików. Przez krótki czas Gopher stał się nawet preferowanym sposobem znajdowania adresów e-mail ludzi. HyperGopher umożliwiał pobieranie obrazów graficznych w formacie JPEG lub GIF, choć nigdy nie zyskał większej popularności w obliczu wczesnych przeglądarek, takich jak Mosaic. Aplikacja kliencka o nazwie TurboGopherVR umożliwiała użytkownikom przeszukiwanie Gopherspace za pomocą trójwymiarowego interfejsu. Entuzjaści komputerów natychmiast się nim zajęli, organizując nawet konferencję GopherCon w 1992 roku. Popularna prasa chwaliła go jako postęp w stosunku do protokołu File Transfer Protocol. Na początku i w połowie lat 90. liczba użytkowników Gophera stale rosła i stał się znacznie szerzej używany, niż zamierzali jego projektanci. Program był dystrybuowany bezpłatnie do 1993 roku, kiedy to uczelnia skorzystała ze swoich praw własności intelektualnej i zaczęła pobierać opłaty licencyjne opłaty, które niektórzy obwiniają za jego upadek. Osiągnął szczyt swojej popularności w epoce wielu konkurencyjnych architektur komputerów i systemów operacyjnych. W 1993 roku ruch Gopher wzrósł o 997%. Do końca 1994 r. istniało ponad 8 000 serwerów internetowych korzystających z Gophera, zlokalizowanych głównie w szkołach wyższych i na uniwersytetach. Jednak wraz ze wzrostem popularności Internetu w latach 90., szczególnie w przypadku wyszukiwarek opartych na grafice, użycie Gopher zaczęło spadać, ponieważ jego sztywna struktura nie była konkurencyjna w stosunku do elastyczności oferowanej przez HTML. Przeglądarka Mosaic, wydana w 1993 roku, mogła nawigować po wielu protokołach i oferowała przycisk wstecz i obrazy. Gopher, który nie obsługiwał hiperłączy i hiperteksty stały się zasadniczo elektronicznym systemem archiwizacji. Jak zauważyli McCahill i Anklesaria: "Brak formalnego systemu rozpowszechniania zbędnych kopii informacji przechowywanych na serwerach Gopher oznacza, że użytkownicy mogą udawać się na drugi koniec świata (lub przez przeciążoną sieć), aby pobrać kopię dokumentu który jest również przechowywany lokalnie", co spowodowało wąskie gardła w wyszukiwaniu. Komputery były coraz częściej produkowane z fabrycznie załadowanym oprogramowaniem do przeglądania stron internetowych, a Gopher nie obsługuje przeglądarek takich jak Google Chrome czy Internet Explorer. W 1995 roku zespół McCahilla został przeniesiony do projektu awaryjnego, co skutecznie zakończyło wsparcie. Stopniowo serwery Gopher były zamykane i stało się to niewiele więcej niż ciekawostką; jego bazy danych i dokumenty zostały przekonwertowane do formatów zgodnych z HTTP. Projekt Overbite dążył do tego, aby Gopher był kompatybilny z nowoczesnymi systemami operacyjnymi, przeglądarkami i urządzeniami mobilnymi z bezpłatnym oprogramowaniem typu open source, a niektórzy entuzjaści nadal z niego korzystają. Jak argumentuje Cameron Kaiser (nd): "Byłoby lekceważeniem powiedzmy, że Gopher został zabity przez Sieć, podczas gdy w rzeczywistości Sieć i Gopher mogą żyć w swoich odrębnych sferach i każdy wnosi swój wkład w drugą."



Powrót

Great Firewall


Termin Wielka zapora ogniowa został ukuty w celu opisania ogromnego i wyrafinowanego systemu filtrowania Internetu używanego w Chinach, który blokuje społeczeństwu przeglądanie treści online hostowanych w innych krajach, które cenzorzy uznali za szkodliwe dla narodu. Wszystko, co należy do tej kategorii zagranicznych treści online, jest automatycznie i natychmiastowo odfiltrowane przez Wielką Zaporę ogniową bez potrzeby przeglądu lub możliwości zadośćuczynienia. Oprócz bardzo restrykcyjnych krajowych przepisów dotyczących Internetu i dużej liczby policji internetowej, Wielka zapora ogniowa stała się integralną częścią nadzoru chińskiego rządu nad przepływem informacji, a także głównym filarem chińskiego mechanizmu cenzury i nadzoru internetowego. Powszechnie uważa się, że Wielki Firewall jest częścią oficjalnego chińskiego projektu "Golden Shield", który obejmuje między innymi wdrożenie gigantycznej cyfrowej sieci nadzoru poprzez techniki filtrowania i regulacje dotyczące dostawców usług internetowych (ISP), kamer internetowych i oprogramowanie cenzurujące instalowane na komputerach osobistych dostępnych w kawiarenkach internetowych. Nic dziwnego, że Wielka zapora sieciowa wzbudziła poważne obawy prawne związane z suwerennością Internetu, wolnością słowa, prawami dostępu do Internetu, społeczną odpowiedzialnością biznesu, odpowiedzialnością dostawców usług internetowych i barierami handlowymi. Ten wpis analizuje pochodzenie, strukturę zapory i próby jej obejścia.

Geneza "Wielkiej zapory ogniowej"

Pod względem pochodzenia Great Firewall jest satyryczną kombinacją Wielkiego Muru i zapory ogniowej. Wielki Mur Chiński jest przykładem militarnej architektury obronnej, o łącznej długości ponad 20 000 kilometrów muru zbudowanego przez starożytne imperia chińskie w celu ochrony ich terytoriów przed obcymi inwazjami. Przez analogię Wielki Firewall oznacza cel Chin polegający na zbudowaniu architektury cyfrowej, aby zapobiec napływowi niepożądanych treści do kraju przez Internet. Ponadto zapora ogniowa to schemat bezpieczeństwa przeznaczony do kontrolowania i monitorowania ruchu sieciowego przepływającego do iz systemów informatycznych przedsiębiorstwa. Podobnie jak zapora ogniowa, ale o znacznie większym zasięgu, Wielka zapora ogniowa to krajowy system filtrów stosowanych w Chinach do blokowania zagranicznych stron internetowych zawierających wszelkie informacje, które chiński rząd uzna za niepożądane. Dlatego zagraniczne strony internetowe, takie jak Facebook, Google, Twitter i YouTube, zostały zablokowane przez Wielki Firewall w Chinach. Termin firewall sugeruje również, że dzięki zastosowaniu Wielkiego Firewalla architektura internetowa w Chinach jest podobna do ograniczonego intranetu podmiotu prywatnego.

Struktura Wielkiej Zapory Sieciowej

Wielka zapora sieciowa składa się zasadniczo z dwóch warstw. W górnej warstwie kilka spółek kontrolowanych przez państwo obsługuje dostawców dostępu do Internetu i punkty wymiany ruchu internetowego, które łączą krajową sieć krajową z globalnym Internetem. Dwie z tych firm to duże korporacje telekomunikacyjne, a mianowicie China Telecom i China Unicom, a jedna to największy operator telefonii komórkowej w kraju, China Mobile. Pozostałe trzy firmy to operatorzy dysponujący stosunkowo małymi sieciami szkieletowymi o określonych celach, w tym dedykowanych badaniom naukowym (China Science and Technology Network), edukacji (China Education and Research Network) oraz handlowi (China International Economy and Trade Net). Warstwa wyższa składa się z kilku centralnych węzłów łącza międzynarodowego, za pośrednictwem których warstwa dolna może łączyć się z siecią internetową poza granicami kraju. Kontrolując scentralizowaną konfigurację sieci i szereg kluczowych punktów połączeń lub międzynarodowych bram, chiński rząd może skutecznie kontrolować przepływ informacji online z zagranicy. Wielki Firewall służy do blokowania obcych treści w routerach w górnej warstwie, które łączą Chiny z resztą świata. Routery te są wyposażone w system wykrywania włamań i technologie głębokiej inspekcji pakietów mające na celu określenie, czy obca zawartość pakietów jest zgodna z rządowymi zasadami filtrowania. Termin Wielka zapora ogniowa jest czasami używany w węższym znaczeniu w odniesieniu do systemów filtrujących znajdujących się w tych scentralizowanych punktach bram szkieletowych. Na niższym poziomie użytkownicy końcowi kupują dostęp do Internetu od dostawców usług internetowych, którzy są detalicznymi sprzedawcami dostępu do Internetu, który jest dostarczany hurtowo przez kilku dostawców dostępu do Internetu. Aby zabezpieczyć licencje dla swoich firm od rządu, dostawcy usług internetowych muszą wdrożyć sprzęt i oprogramowanie filtrujące. Metody filtrowania zostały skonstruowane zarówno na górnej, jak i dolnej warstwie chińskiej infrastruktury internetowej, aby rząd mógł skutecznie kontrolować treści online napływające do kraju z zagranicy. Dwuwarstwowa struktura Wielkiej Zapory ogniowej ilustruje hierarchiczną naturę chińskiego Internetu, który różni się od zdecentralizowanej sieci znanej światu zachodniemu. Powszechnie uważa się, że dwie amerykańskie firmy z siedzibą w Dolinie Krzemowej, a mianowicie Cisco Systems i Sun Microsystems (przejęte przez Oracle w 2010 r.), dostarczyły chińskiemu rządowi niezbędne urządzenia i technologię cenzury, gdy ten zaczął budować Wielką Zaporę Sieciową. Fang Binxing, były rektor Pekińskiego Uniwersytetu Poczty i Telekomunikacji, jest powszechnie uznawany za ojca lub głównego architekta Wielkiej Zapory sieciowej ze względu na swój znaczący wkład w rozwój systemu filtrowania Internetu stosowanego w Chinach. Wielka zapora sieciowa została wdrożona za pomocą technik wyłączności i analizy treści. Oprogramowanie filtrujące wyklucza dostęp użytkowników do zablokowanych stron internetowych i ich adresów. Wśród wykluczonych stron internetowych znajdują się strony internetowe Amnesty International, BBC, The Economist, New York Times, Reporterzy bez Granic i Wikipedia. Wielka zapora ogniowa blokuje adresy protokołu internetowego, adresy URL i serwery nazw domen. Dodatkowo zapobiega temu technika analizy treści użytkownikom dostęp do jakichkolwiek stron internetowych lub adresów URL, które zawierają określone słowa kluczowe wskazane przez rząd. Great Firewall sprawdza protokół kontroli transmisji pod kątem słów kluczowych, które mają zostać zablokowane. W przypadku korzystania z techniki analizy treści, rząd nie musi stale aktualizować czarnej listy stron internetowych do wykluczenia, chociaż rząd może nadal zdecydować się na to. Słowa kluczowe użyte w analizie treści są zwykle terminami drażliwymi politycznie, na przykład Dalajlama, Falun Gong, niepodległość Tajwanu, plac Tiananmen i niepodległość Tybetu. Listy zarówno zablokowanych stron, jak i słów kluczowych są często aktualizowane; jednak Wielkiej Zaporze ogniowej brakuje przejrzystości, ponieważ chiński rząd nie publikuje listy cenzurowanych tematów ani nie przyznaje się do swoich wysiłków cenzurowania Internetu. Kryteria cenzury Wielkiej Zapory Sieciowej można znaleźć w chińskich przepisach dotyczących bezpieczeństwa, ochrony i zarządzania komputerową siecią informatyczną w Chinach, które stanowią, że dostęp do niektórych budzących zastrzeżenia treści przez Internet jest zabroniony. Na liście zabronionych treści znajdują się treści (a) wywrotowe wobec władzy państwowej lub ustroju socjalistycznego, (b) godzące w jedność narodową, (c) nawołujące do dyskryminacji narodowościowej, (d) zakłócające porządek społeczny, (e) propagujące feudalizm przesądów, (f) pornografii, (g) hazardu lub przemocy, (h) zniesławienia lub zniesławienia, lub (i) naruszenia konstytucji lub innych przepisów. Gdy chińscy internauci spróbują odwiedzić zablokowaną witrynę, zobaczą komunikat o błędzie technicznym z ekranem "nie znaleziono witryny". Co więcej, chociaż niektóre zagraniczne strony internetowe pozostają odblokowane w Chinach, nie działają one z normalną szybkością ze względu na obecność Wielkiej Zapory Sieciowej.

Obejście Wielkiej Zapory Sieciowej

Zaawansowani technologicznie użytkownicy mogą obejść system filtrowania Wielkiej Zapory ogniowej, używając wirtualnych sieci prywatnych, prostych serwerów proxy sieci Web, serwerów proxy HTTP/SOCKS lub innych niestandardowych narzędzi. Chińscy internauci określają te technologie omijania jako narzędzia fanqiang ("przeskakiwanie przez ścianę" w języku angielskim). Niemniej jednak te narzędzia do obejścia czasami nie działają w pełni z powodu ciągłych aktualizacji Wielkiej zapory. Innymi słowy, Wielka zapora ogniowa służy nie tylko do blokowania użytkownikom krajowym dostępu do niekorzystnych zagranicznych stron internetowych, ale także do zakłócania lub wyłączania dostępnych narzędzi do obchodzenia. Od dawna istnieje rywalizacja między rozwojem technologicznym Wielkiej Zapory Sieciowej a rozwojem narzędzi służących do jej obejścia. Należy również zauważyć, że niska prędkość połączenia internetowego wynikająca z używania narzędzi do obchodzenia zabezpieczeń może zniechęcać użytkowników do korzystania z takich narzędzi. Chiny nie są jedynym krajem, który filtruje niepożądane zagraniczne treści online. Wiele innych krajów opracowało własne systemy filtrowania ze względów politycznych, moralnych, religijnych lub bezpieczeństwa. Na przykład Niemcy stosują filtry do blokowania neonazistowskich stron internetowych, podczas gdy Wielka Brytania wprowadza cenzurę internetową za pośrednictwem orzeczonych sądownie blokowanie przez dostawców usług internetowych witryn poświęconych piractwu i pedofilii. Kraje autorytarne, takie jak Kuba, Iran, Korea Północna, Pakistan, Arabia Saudyjska i Syria, również wdrożyły filtry internetowe, aby blokować obce treści, które są uważane za nieodpowiednie. Niemniej jednak chińska wielka zapora ogniowa jest powszechnie uznawana za najbardziej wyrafinowany i wszechstronny system filtrowania Internetu.



Powrót

Gry wideo i Internet


Gry wideo (nazywane również grami komputerowymi, grami elektronicznymi lub grami cyfrowymi) odnoszą się do wszelkiego rodzaju interaktywnych gier cyfrowych. Na początku XXI wieku światowy rynek gier wideo szacowany był na 100 miliardów dolarów. Gry wideo obejmują szeroki zakres gatunków, w które gra się przy użyciu podobnie szerokiej gamy urządzeń i technologii, więc Internet jest bardziej odpowiedni dla niektórych gier wideo niż dla innych. Jednak z biegiem czasu Internet stał się coraz bardziej integralnym elementem gier wideo i ich doświadczeń związanych z graniem, wpływając na społeczny wymiar gier wideo, a także kwestie społeczne i obawy związane z ich użytkowaniem. Ten wpis zawiera krótki przegląd historii gier wideo i Internetu, a następnie szeroki przegląd problemów społecznych związanych z grami wideo i Internetem.

Historia gier wideo i Internetu

Najwcześniejsze prototypy gier wideo, a nawet pierwsze komercyjne gry wideo, wyprzedzają nawet prekursorów współczesnego Internetu, takich jak ARPANET (Advanced Research Projects Agency Network) i NSFNet (National Science Foundation Network). Chociaż jest to kwestia sporu, który prototyp można uznać za pierwszą grę ideo, w zależności od tego, jakie elementy technologiczne definiują grę wideo, jednym z godnych uwagi wczesnych wczesnych był Tennis for Two. Amerykański fizyk William Higinbotham stworzył Tennis for Two w 1958 roku, aby zabawiać gości dorocznej wystawy w Brookhaven National Laboratory w Brookhaven w stanie Nowy Jork. Sprzęt użyty do stworzenia Tennis for Two obejmował dwa oscyloskopy, wykonane na zamówienie kontrolery do gier oraz komputer analogowy w laboratorium, który był w stanie obliczyć trajektorie pocisków. Biorąc pod uwagę, że Tennis for Two istniał tylko w jednym laboratorium, gra online byłaby niemożliwa, nawet gdyby sieć internetowa, taka jak Internet, istniała w 1958 roku, co nie miało miejsca. Inną wczesną grą komputerową, która prawdopodobnie była pierwszą zainstalowaną i odtwarzaną na komputerach w wielu lokalizacjach, była Spacewar!, która została opracowana w Massachusetts Institute of Technology w Cambridge w stanie Massachusetts przez grupę studentów studiów licencjackich w 1962 roku. Spacewar! był odtwarzany na komputerze cyfrowym PDP1 firmy Digital Equipment Corporation, który był drogi i używany głównie w ośrodkach badawczych, ale istnienie przynajmniej niewielkiej grupy identycznych komputerów PDP1 doprowadziło do powstania kopii gry Spacewar! gra jest udostępniana i odtwarzana na wielu komputerach w różnych lokalizacjach. Jednak to udostępnianie początkowo było starsze niż sieci internetowe i wiązało się z fizycznym transportem taśm zawierających Spacewar! kod programu. Podobnie pierwsze komercyjne gry wideo również nie miały połączenia z sieciami internetowymi. Zręcznościowe adaptacje gry Spacewar na monety! zostały wydane w 1971 roku, a rok 1972 przyniósł ogromny sukces gry zręcznościowej Pong na monety i pierwszej domowej konsoli do gier wideo w postaci Magnavox Odyssey. Do tego czasu istniała najwcześniejsza wersja ARPANET, ale łączyła tylko kilka badań komputerów w całym kraju. Pierwsze gry wideo online przybrały formę w kolejnym prototypie stworzonym w środowisku badawczym przez studentów. W latach 70. systemy komputerowe "oparte na hostach" umożliwiały użytkownikom uniwersytetów i podobnych obiektów uzyskiwanie dostępu i uruchamianie programów na komputerze hosta indywidualnie ze zdalnego terminala. Podczas gdy w niektóre gry, w tym Spacewar!, grały osoby uzyskujące dostęp do tych systemów, systemy oparte na hostach nie pozwalały użytkownikom w wielu lokalizacjach na wspólne granie w gry za pośrednictwem połączonej sieci, takiej jak Internet, więc te gry oparte na hostach nie są powszechnie uważane za były gry online. Zanim w gry można było grać w sieciach internetowych, kopie niektórych gier były również dystrybuowane online. Jednym z przykładów była Colossal Cave Adventure, która została opracowana w 1976 roku przez Willa Crowthera, programistę w firmie Bolt, Beranek i Newman, i rozszerzona przez programistę Dona Woodsa w 1977 roku. W Colossal Cave Adventure nie grano online, ale kopie gry były dystrybuowane online za pomocą ARPANET, a gra była rozgrywana przez osoby fizyczne w systemach opartych na hoście. Grą powszechnie uważaną za pierwszą grę online, w którą grało wielu użytkowników w sieci komputerowej, był MUD (Multi-User Dungeon), który został po raz pierwszy opracowany w 1978 roku przez Roya Trubshawa i Richarda Bartle'a, gdy byli studentami informatyki na Uniwersytecie Essex w Colchester, hrabstwo Essex, Wielka Brytania. MUD był grą tekstową, której użytkownicy wchodzili w interakcję ze środowiskiem gry i innymi użytkownikami, wpisując polecenia tekstowe i czytając informacje zwrotne z ich poleceń w postaci tekstowych opisów ustawień, postaci i wydarzeń. Tekstowa rozgrywka MUD została częściowo zainspirowana wcześniejszymi grami tekstowymi, w tym Colossal Cave Adventure. W 1980 roku Trubshaw i Bartle ustanowili kamień milowy gry online, udostępniając wersję gry online za pośrednictwem ARPANET, umożliwiając użytkownikom w innych lokalizacjach dostęp do gry i wspólną zabawę. Chociaż liczba osób korzystających z MUD była ograniczona, biorąc pod uwagę, że ARPANET był nadal dostępny głównie z miejsc takich jak uniwersytety i ośrodki badawcze, gra była na tyle popularna, że wielu użytkowników zainspirowało się do dostosowania kodu i projektu oryginalnej gry MUD i stworzenia podobnych gier z różnymi motywami, mechaniką gry i zawartością. Ogromna grupa tekstowych gier online opartych na MUD, z których wiele ma motywy zaczerpnięte ze źródeł, takich jak popularne franczyzy science fiction i fantasy, obejmuje gatunek gier zwany "MUD", a wiele serwerów gier MUD pozostaje aktywnych do dziś. Wraz z rozwojem gatunku MUD, oryginalna internetowa gra MUD opracowana przez Trubshawa i Bartle'a stała się znana jako MUD1, aby odróżnić ją od szerszego gatunku o tej samej nazwie.

Komercyjne gry online na komputery osobiste

Podczas gdy oryginalna gra MUD1 była swobodnie dostępna, inne gry MUD są prawdopodobnie pierwszymi komercyjnymi grami online. Te komercyjne gry online zaczęto rozpowszechniać, korzystając z usług dial-up online z podziałem czasu, które pobierały od użytkowników stawki godzinowe za czas połączenia online. Ponieważ komputery osobiste stawały się coraz bardziej powszechne w gospodarstwach domowych na początku lat 80., usługi współdzielenia czasu stały się dostępne dla abonentów gospodarstw domowych, którzy mogli korzystać z modemów dial-up, aby łączyć się z usługami w celu uruchamiania programów i komunikować się z innymi użytkownikami. Wśród aplikacji, do których płatni subskrybenci mogli uzyskać dostęp na początku lat 80., były gry MUD i podobne gry tekstowe. Jedną z takich popularnych wczesnych komercyjnych gier MUD był Scepter of Goth, który został opracowany przez Alana Klietza i wydany w 1983 roku. Podczas gdy ograniczenia przepustowości wczesnych sieci internetowych utrudniały dopasowanie gier online do grafiki popularnych salonów gier, konsoli i komputer gier, w które nie grano online, w latach 80. i 90. komercyjne gry online zaczęły tworzyć coraz bardziej wyrafinowane obrazy wizualne (rysunek 1). Jedną z godnych uwagi komercyjnych gier MUD była Island of Kesmai , która została wydana w 1985 roku i można w nią grać w sieci ompuServe . Twórcy Island of Kesmai, John Taylor i Kelton Finn, byli razem studentami na University of Virginia i założyli Kesmai, wczesną firmę zajmującą się grami online w 1981 roku. Islands of Kesmai było nowatorskie wśród wczesnych gier online, ponieważ używało znaków tekstowych do symulacji obrazów graficznych, przedstawiając przybliżoną graficzną grę swoich użytkowników online, zamiast przedstawiać środowisko gry i wydarzenia tylko za pomocą opisów tekstowych. Kolejnym kamieniem milowym w ewolucji grafiki w grach online był Habitat, który został wydany online przez LucasFilm w 1986 roku. Habitat zawierał graficzne obrazy przedstawiające lokalizacje, obiekty i postacie, ale obrazy były w większości statyczne, a użytkownicy polegali na tekście oparte na poleceniach i informacjach zwrotnych w celu uzupełnienia obrazów. W 1988 roku firma Kesmai, która wcześniej wydała Islands of Kesmai, wypuściła również Air Warrior, symulator lotu bojowego, który był jedną z pierwszych komercyjnych graficznych gier online, w których jednocześnie mogło grać setki graczy w czasie rzeczywistym. W latach 90. gry online rozwijały się zarówno pod względem wyrafinowania graficznego i bazy abonentów. W tym okresie wiele najpopularniejszych gier to internetowe gry fabularne, w których użytkownicy wchodzili w interakcje w trwałym środowisku wirtualnym, które trwało aby istnieć i ewoluować online, niezależnie od tego, czy użytkownik był podłączony, czy nie, jak w grach takich jak MUD i Habitat, zamiast środowiska gry, które było tworzone od nowa dla każdej gry online i kończyło się po zamknięciu sesji gry. Wiele z nich , internetowe gry fabularne zawierały motywy średniowieczne lub fantasy, takie jak poprzedzające je MUDy. W 1991 roku Stormfront Studios i Strategic Simulations, Inc. wydały Neverwinter Nights, pierwsza internetowa gra fabularna z pełną grafiką komputerową, która odpowiadała na polecenia użytkownika, do grania przez użytkowników usługi America Online. Neverwinter Nights przyciągnęłoby ponad 100 000 subskrybentów. Andrew i Chris Kirmse zaczęli opracowywać Meridian 59, pierwszą internetową grę fabularną z trójwymiarową grafiką, podczas gdy Andrew był studentem Massachusetts Institute of Technology w Cambridge w stanie Massachusetts, a Chris studiował w Virginia Tech w Blacksburg w Wirginii. Meridian 59 został po raz pierwszy wydany online w 1995 roku przez Archetype Interactive, a następnie w pełni komercyjnie uruchomiony w 1996 roku przez firmę 3DO. Biorąc pod uwagę, że pojawienie się komercyjnego Internetu w 1995 r. Sprawiło, że usługi z podziałem czasu z godzinowymi stawkami za połączenia stały się w dużej mierze przestarzałe, Meridian 59 pobierał od swoich użytkowników miesięczną opłatę abonamentową. Ten format subskrypcji byłby powszechny w kolejnych grach fabularnych online. Pomimo graficznych innowacji, Meridian 59 nie szczycił się ogromną bazą graczy, przyciągając nie więcej niż około 12 000 aktywnych subskrybentów w szczytowym okresie członkostwa. W 1996 roku firma NCSoft wydała w Korei Południowej dwuwymiarową grę online Nexus: Kingdom of the Winds. Gra, która została wydana również w Północnej Ameryce w 1998 roku przyciągnęła ponad milion graczy. Ultima Online, internetowa gra fabularna wydana przez Origin Systems i Electronic Arts, która spopularyzowała termin wirtualny świat, została wydana w 1997 roku. Używając ukośnej projekcji do przybliżenia trójwymiarowej grafiki, Ultima Online zbudowała następców, których kiedyś było więcej niż 200 000 aktywnych subskrybentów. W 1998 roku firma NCSoft wypuściła Lineage, internetową grę RPG stworzoną przez Jake′a Songa, tego samego programistę, który stworzył Nexus: Kingdom of the Winds. Lineage, który wykorzystywał ukośną projekcję w swoich grafikach, zgromadził bazę abonentów, która liczyła miliony i dał początek dwóm sequelom. W 1999 roku należąca do Sony marka Verant Interactive wypuściła EverQuest, internetową grę fabularną, która szczyciła się prawdziwie interaktywną grafiką i przyciągnęła ponad 400 000 aktywnych subskrybentów w szczytowym okresie popularności. Kontynuacja, EverQuest 2 , została wydana w 2004 roku. Inną godną uwagi grą fabularną online z późnych lat 90. była Asheron's Call , gra firmy Turbine i Microsoft, która mogła pochwalić się aż 200 000 subskrybentów, a po niej nastąpiła kontynuacja Asheron's Call 2 w 2002 roku. Na przełomie XIX i XX wieku liczba wydawanych gier fabularnych online stale rosła, niektóre bardziej udane niż inne. Wyjątkowym przykładem była gra Second Life firmy Linden Lab, wydana w 2003 roku. W przeciwieństwie do scenerii fantasy i zadań związanych z rywalizacją w wielu innych grach online, Second Life było wirtualnym środowiskiem bez z góry określonego tematu czy fabuły. Zamiast tego użytkownicy logowali się do gry i używali podstawowych skryptów oraz własnych umiejętności projektowych, aby tworzyć postacie, obiekty i ustawienia do wspólnego odkrywania. Podobnie jak Habitat kilka lat wcześniej, Second Life powstało jako społeczność bardziej wirtualna niż zwykła i wzbudziła zainteresowanie niektórych użytkowników, którzy nie grali w inne gry online, ale cieszyli się środowiskiem społecznościowym Second Life. Model subskrypcji Second Life był również wyjątkowy wśród wielu gier online tamtych czasów; zamiast pobierać miesięczną opłatę abonamentową, Second Life pobierało od użytkowników opłaty za wirtualną ziemię i inne usługi premium, a także pozwalało użytkownikom płacić sobie nawzajem za wirtualne towary i usługi, które sami stworzyli. W 2004 roku komercyjny sukces poprzednich gier online został przyćmiony przez wydanie World of Warcraft firmy Blizzard, sieciowej gry fabularnej opartej na istniejącej serii strategicznych gier wideo firmy Blizzard Warcraft. Ponad 200 000 graczy zapisało się do internetowej gry fabularnej w ciągu 24 godzin od jej premiery, a do 2005 roku World of Warcraft szczycił się ponad milionem subskrybentów. Gra zdobyła większość globalnej populacji abonentów gier fabularnych online, osiągając szczyt na poziomie ponad 12 milionów aktywnych subskrybentów w 2010 roku i wydała kilka pakietów aktualizacji. W trakcie istnienia gry World of Warcraft utworzono łącznie ponad 100 milionów kont graczy. Od tego czasu na rynku pojawiło się wiele innych popularnych gier fabularnych online, niektóre oparte na popularnych własnościach intelektualnych z filmu i literatury, takich jak Gwiezdne wojny i Władca Pierścieni, chociaż żadna internetowa gra fabularna nie dorównała sukcesem z World of Warcraft. Jednak światowa publiczność World of Warcraft, wraz z innymi internetowymi grami fabularnymi, zmniejszyła się w 2010 roku. Do 2015 roku World of Warcraft miał mniej subskrybentów niż 6 milionów, poniżej połowy szczytowej liczby członków z 2010 roku.

Integracja gier online z popularnymi konsolami do gier

Podczas gdy najwcześniejsze gry online były rozgrywane w sieciach komputerowych dostępnych głównie na uniwersytetach i ośrodkach badawczych, a komercyjne gry online na komputerach osobistych zyskiwały na popularności od lat 80. XX wieku, domowe konsole do gier wideo znacznie dłużej unikały gry online. Dedykowane domowe konsole do gier wideo, urządzenia zaprojektowane specjalnie do grania w gry wideo w domu, były dostępne od 1972 r. Magnavox Odyssey , a następnie Fairchild F firmy Fairchild Semiconductor w 1976 r. I konsole podobne do Telstar Pong firmy Coleco w 1977 r., Ale domowe gry wideo stały się znacznie bardziej popularne dzięki wydaniu w 1977 r. Atari Video Computer System (później przemianowanego na Atari 2600), który sprzedał ponad 30 milionów sztuk. Inne popularne wczesne konsole domowe, takie jak Atari 5200 i Coleco Colecovision, obie wydane w 1982 r., oraz Intellivision firmy Mattel Electronics, wydane w 1980 r., podobnie nie miały możliwości sieci online. Po krachu na rynku konsoli domowych, spowodowanym słabą jakością produkcji długo wyczekiwanych gier w 1983 r., sprzedaż konsol domowych została ożywiona przez północnoamerykańską premierę Nintendo Entertainment System (NES) w Ameryce Północnej w 1985 r. NES, który sprzedał ponad 60 milionów sztuk na całym świecie, nie miał funkcji online. Wersja NES wydana pierwotnie w Japonii w 1983 roku, Nintendo Family Computer ("Famicom"), mogła być połączona z podstawową siecią online o nazwie Family Computer Network System. Ta sieć umożliwiała dostęp do kilku gier online i innych usług online; stosunkowo popularną działalnością w sieci był hazard w wyścigach konnych. Chociaż kamień milowy pod względem łączności online dla domowych konsol do gier wideo, rodzinny system sieci komputerowej nie był powszechnie stosowany w porównaniu z dominującymi na rynku konsolami Nintendo. Podobnie, Sega uruchomiła usługę gier online MegaNet w 1990 roku w Japonii dla konsoli Sega Mega Drive (o nazwie Sega Genesis w Ameryce Północnej), ale usługa online nie była popularna i nie została rozszerzona poza Japonię, poza uruchomieniem w Brazylii lata później. Sega badała również usługi online dla każdej ze swoich kolejnych wersji konsolowych: Sega NetLink w 1996 roku dla konsoli Sega Saturn i SegaNet w 2000 roku dla konsoli Sega Dreamcast. Nintendo kontynuowało podobne wysiłki, wypuszczając modem satelitarny Satellaview w Japonii w 1995 roku dla konsoli domowej Super Famicom (o nazwie Super Nintendo w Ameryce Północnej) oraz dysk pamięci masowej 64DD obsługujący Internet w 1999 roku w Japonii dla konsoli domowej Nintendo 64. Żadna z tych usług nie cieszyła się dużą popularnością w stosunku do sprzedaży konsol domowych, które miały uzupełniać. Tak więc, podczas gdy gry online na komputery osobiste cieszyły się rosnącą popularnością w latach 90., gry online na konsole domowe prawie nie istniały do końca XX wieku. Brak łączności online dla domowych konsol do gier nie trwał jednak długo w XXI wieku. W 2001 roku Nintendo dodało funkcję gier online do swojej domowej konsoli GameCube za pośrednictwem modemów, które można było dodać do konsol. Sony zaczęło oferować opcjonalne gry online przy użyciu karty sieciowej do swojej konsoli domowej Sony Playstation 2 w 2001 roku w Japonii, następnie w 2002 roku w Ameryce Północnej iw 2003 roku w Europie. Funkcjonalność sieci była specyficzna dla poszczególnych gier online dla systemu. Jednym z godnych uwagi przykładów było wydane w 2002 roku Final Fantasy XI, które było pierwszą grą wideo oferującą funkcjonalność międzyplatformową, która umożliwiała użytkownikom grającym w tę grę na komputerach osobistych i konsolach domowych wspólną zabawę. Konsola Xbox firmy Microsoft oferowała opcjonalną grę online za pośrednictwem sieci online Xbox Live w 2002 r. Kolejne główne konsole domowe, takie jak Xbox 360 firmy Microsoft, wydany w 2005 r.; Sony Playstation 3, wydany w 2006 roku; i konsola Nintendo Wii, wydana w 2006 roku, wszystkie zawierały wbudowaną łączność internetową do gier online i innych usług. Wszystkie główne konsole do gier wydane od tego czasu poszły w ich ślady. W związku z tym wzrosła rola gier online w treści i mechanice poszczególnych tytułów gier na konsole domowe. Wczesne opcje gier online na konsole domowe były ograniczone do niewielkiej liczby dedykowanych gier online lub ograniczonych trybów gier online w przypadku niektórych gier, których główna zawartość została zaprojektowana do grania w trybie offline samodzielnie lub z innym użytkownikiem w tej samej lokalizacji. Jednak na początku XXI wieku popularne stały się popularne gry z takich gatunków, jak "strzelanki z perspektywy pierwszej osoby" i gry sportowe, które zapewniały sieciowe tryby "wielu graczy" i traktowały je priorytetowo. Do 2010 r. odwieczne serie gier na domowe konsole, takie jak Call of Duty, FIFA Football i Madden NFL, zawierały tryby gry online dla wielu graczy jako kluczowy element gry, często udostępniając z czasem dodatkową zawartość specjalnie do gry online, aby zapewnić nową zawartość dla zwykłych graczy online gracze.

Gry mobilne

Podobnie jak w przypadku gier na konsole domowe, integracja gier online na urządzeniach mobilnych nastąpiła stosunkowo niedawno, ale od tego czasu szybko. Niezliczone przenośne elektroniczne urządzenia do gier zostały wypuszczone już w tym czasie lat 70-tych i 80-tych., często zawierające tylko jedną grę ze względu na ograniczenia przetwarzania i wyświetlania. Bardziej zaawansowane przenośne konsole do gier, takie jak Game Boy firmy Nintendo, wydane w 1989 roku w Japonii i Ameryce Północnej oraz w 1990 roku w Europie; Game Gear firmy Sega, wydany w 1990 roku w Japonii oraz w 1991 roku w Ameryce Północnej i Europie; i Game Boy Advance firmy Nintendo, wydany w 2001 roku, również nie posiadał funkcji online po wydaniu. Dostęp online był dostępny dla konsoli Sony PlayStation Portable, wydanej w 2004 roku w Japonii i w 2005 roku w Ameryce Północnej i Europie, oraz konsoli Nintendo DS, wydanej w 2004 roku w Japonii i Ameryce Północnej oraz w 2005 roku w Europie. Gra online była elementem głównych konsol przenośnych wydanych od tamtej pory, chociaż powszechna dostępność smartfonów i tabletów doprowadziła do wydania wielu popularnych mobilnych gier online na te urządzenia przenośne, a nie na dedykowane mobilne konsole do gier. Wbudowane gry na telefony komórkowe i inne urządzenia pochodzą z lat 90. XX wieku, na przykład popularna gra Snake instalowana na telefonach komórkowych Nokia od 1997 r., Ale te wczesne gry mobilne nie były odtwarzane przez sieć online. Na początku 2010 roku gry mobilne stały się bardziej popularne jako gry do pobrania online, a następnie jako gry do pobrania i grania online, gdy smartfony i inne mobilne urządzenia komputerowe stały się bardziej popularne. Jednym z rodzajów gier online, w które gra się prawie wyłącznie na urządzeniach mobilnych, są gry rzeczywistości rozszerzonej, które łączą elementy rzeczywistych ustawień, takie jak usługi geolokalizacyjne z zawartością gier online i interakcją za pośrednictwem urządzenia mobilnego. Być może pierwszą bardzo popularną grą rzeczywistości rozszerzonej był Pokémon GO, który po wydaniu w 2016 roku został pobrany ponad 500 milionów razy.

e-sport i streaming

Poza grami online, Internet jest coraz częściej wykorzystywany do oglądania znanych graczy-celebrytów biorących udział w konkursach gier wideo i transmitowania ich rozgrywki. Podczas gdy konkursy gier wideo odbywają się od lat 70. XX wieku, w latach 90. popularność zyskały turnieje gier wideo online i inne zawody. W pierwszej dekadzie XXI wieku rozwinęły się profesjonalne zawody e-sportowe (sporty elektroniczne) na dużą skalę, w których rywalizacja była transmitowana w telewizji, a nagrody sięgały w niektórych przypadkach nawet 1 miliona dolarów. Oprócz istniejących kanałów transmisyjnych, w 2011 roku uruchomiono usługę przesyłania strumieniowego wideo Twitch, specjalnie w celu przesyłania strumieniowego wideo z zawodów w grach, a także nieformalnych indywidualnych sesji gry znanych graczy. Do 2015 roku serwis Twitch gościł aż 100 milionów odwiedzających miesięcznie.

Dystrybucja internetowa

Podstawowym środkiem dystrybucji gier wideo w XX wieku były nośniki fizyczne, takie jak dyski komputerowe lub kartridże, którym często towarzyszyły instrukcje obsługi i podobne materiały dodatkowe oraz opakowania z grafiką mającą na celu zachęcenie kupujących. Na początku XXI wieku rozpowszechnianie komercyjnych gier wideo jako bezpośredniego oprogramowania do pobrania online stało się bardziej powszechne niż jako produkt na nośnikach fizycznych. Dodatkowo dodatkowa "zawartość do pobrania" pakietów gry są często sprzedawane lub dystrybuowane bezpłatnie w celu aktualizacji zawartości gry, podobnie jak aktualizacje gier mające na celu usunięcie błędów projektowych lub programowych oraz dostosowanie mechaniki gry. W połowie 2010 roku udział w rynku gier wideo i materiałów dodatkowych sprzedawanych w formie cyfrowej do pobrania przyćmił udział gier wideo i materiałów dodatkowych sprzedawanych na nośnikach fizycznych.

Kwestie społeczne związane z grami wideo i możliwościami społecznościowymi w Internecie

Anegdotyczne raporty i badania akademickie udokumentowały bogate interakcje społeczne i relacje w społecznościach graczy online. Podczas gdy wiele badań behawioralnych dotyczyło potencjalnych negatywnych skutków treści gier wideo, takich jak przemoc, na graczy, inni badacze zauważyli, że gry wideo online przeciwstawiają się stereotypowemu obrazowi samotnego i aspołecznego użytkownika gier wideo, łącząc graczy ze społecznościami internetowymi . Gry online zwróciły również uwagę badaczy z dziedzin takich jak ekonomia i epidemiologia, zainteresowanych zbadaniem, czy zachowanie graczy w wirtualnych środowiskach online może zostać wykorzystane do poznania dynamiki zjawisk w świecie rzeczywistym, począwszy od podaży i popytu konsumentów, a skończywszy na przenoszeniu chorób. Inni badają potencjał edukacyjny popularnych gier online przeznaczonych dla dzieci, takich jak Minecraft firmy Microsoft.

Obawy społeczne

Jednak niektóre z tych samych cech popularnych gier online, które sugerują obietnicę społeczną, wywołują również społeczne zaniepokojenie badaczy, rodziców i decydentów. Podczas gdy idea niezdrowego "uzależnienia" od gier wideo była badana niemal od początku komercyjnego sukcesu tego medium, interakcje społeczne i rywalizacja, jakie dają gry online, budzą szczególne obawy co do potencjału "uzależnienia" gier online. W 2013 roku piąte wydanie Diagnostic and Statistical Manual of Mental Disorders Amerykańskiego Towarzystwa Psychiatrycznego wymieniło zaburzenie związane z grami internetowymi jako "warunek do dalszych badań", powstrzymując się od określenia zaburzenia związanego z grami internetowymi jako formalnego zaburzenia klinicznego. Ponadto obawy dotyczące niewłaściwych zachowań online, takich jak nękanie i nadużycia, towarzyszą niektórym grom online, szczególnie w przypadku gier online, w których rzeczywista tożsamość użytkowników jest anonimowa, a interakcje użytkowników w grach online są krótkie i konkurencyjne. Wielu dostawców gier online nadal bada i wdraża różne metody radzenia sobie z antyspołecznymi zachowaniami online, w tym mechanizmy skarg i kar, zachęty dla graczy, aby byli wysoko oceniani przez rówieśników oraz systemy weryfikacji tożsamości.

Dalsze rozważania

Podczas gdy gry wideo powstały przed powszechnym istnieniem Internetu, innowacje w grach przez dziesięciolecia ściśle towarzyszyły innowacjom w komputerach i sieciach internetowych. W miarę jak branża gier wideo stała się potężną globalną siłą gospodarczą i kulturalną, Internet stał się coraz bardziej integralnym narzędziem do grania, dystrybucji i oglądania gier online. Popularność gier wideo w Internecie przyniosła również nowe możliwości i problemy społeczne, którymi zainteresowane strony będą starały się zająć w nadchodzących latach.



Powrót

Gry internetowe


Granie w gry było częścią ludzkiej kultury i cywilizacji od samego początku. Jedną z cech gry jest to, że głęboko angażuje gracza, do tego stopnia, że może stracić poczucie czasu i przestrzeni. Ten poziom pochłonięcia grą został opisany przez holenderskiego historyka kultury Johana Huizingę (1949) jako "sama istota, pierwotna jakość gry" (s. 2-3) i może pomóc wyjaśnić fascynację grami komputerowymi i duże zaangażowanie w nie . Rozgrywka jest z konieczności związana z zasadami i wykracza poza normalne życie, oferując jednocześnie graczowi możliwość łączenia się z innymi przy jednoczesnym dążeniu do wspólnych celów gry. Rozgrywka różni się od zwykłego życia i zapewnia możliwości poszerzenia interakcji społecznych i postrzegania tożsamości. Wraz z pojawieniem się nowych mediów i technologii Web 2.0, które charakteryzują się interaktywnością i uczestnictwem, rozgrywka ewoluowała w kierunku przekraczania granic przestrzennych i czasowych. W tym wpisie opisano gry i rozgrywkę, a następnie przyjrzano się powstawaniu gier internetowych i charakterystyce gier fabularnych online dla wielu graczy. Na koniec omówiono proponowane kryteria diagnostyczne uzależnienia od gier internetowych oraz badania nad negatywnymi konsekwencjami uzależniającego grania.

Charakterystyka gier i rozgrywki

Zasady są niezbędne w grach, ponieważ bez zasad gra staje się nieuporządkowana i nieskoordynowana. Rozwój grup społecznych wokół gier to kolejna kluczowa cecha. Te grupy społeczne mogą być zorganizowane w dobrze funkcjonujące i skrupulatnie zorganizowane gildie i klany, które współpracują ze sobą, aby osiągnąć wspólny cel i pozwalają graczom utrzymywać istniejące i tworzyć nowe wirtualne i rzeczywiste relacje podczas gry. Idea budowania społeczności w kontekście rozgrywki oznacza zaangażowanie społeczne nieodłącznie związane z graniem w gry. Ludyczna funkcja zabawy wiąże się z wyobraźnią i odgrywaniem ról, co łatwo przekłada się na współczesne gry komputerowe i internetowe w postaci awatara gracza, czyli jego graficznego ekranowego alter ego. Podczas gry jednostka wykonuje czynności wyobrażeniowe, które mogą być związane z angażowaniem się w rytuały, w których zwykłe życie przekształca się w dosłownie wirtualną reprezentację, pozwalając jednostce wejść w "etap liminalny" poprzez rytuały przejścia. Z etnograficznego punktu widzenia, grając w grę, jednostki odrywają się od zwykłego życia poprzez dokonywanie czynności symbolicznych. Po tym następuje okres przejściowy, który oddziela ich od zwykłego życia, charakteryzującego się elastycznością, niejednoznacznością i otwartością, co pozwala im odkrywać nowe symboliczne znaczenia, doświadczenia, percepcje i interpretacje, oderwane od zwykłego życia. Ten okres przejściowy lub "liminalny" prowadzi następnie do ponownego wejścia w życie codzienne, systemu społecznego i wspólnoty, która teraz podkreśla niehierarchiczną, egalitarną strukturę i oznacza odejście od początkowego etapu hierarchicznego. Rozgrywka może pełnić ważną funkcję dodawania kreatywności i zmiany doświadczeń życiowych, perspektyw i społeczności, podkreślając jej potencjalnie transformacyjną moc, szczególnie w świetle odcieleśnienia online (tj. Braku fizycznego ciała w Internecie) i dystansu od zwykłego życia obowiązki. To odcieleśnienie z kolei może prowadzić do ponownego wcielenia online w postaci awatara, co pozwala graczom odkrywać alternatywne tożsamości i "budować siebie poprzez przechodzenie przez wiele jaźni" (Turkle, 1995, s. 178), dodając do ogólnej atrakcyjności rozgrywki. Podsumowując, rozgrywka różni się od zwykłego życia, charakteryzuje się zasadami i oferuje budowanie potencjału społeczności do przekształcania i rozszerzania interakcji społecznych i postrzegania tożsamości.

Pojawienie się gier internetowych

Wprowadzenie komputera do gier ogromnie zmieniło gry, jednocześnie logicznie wywodząc się z gier nieelektronicznych. Podobnie jak te ostatnie, gry komputerowe lub gry wideo można uznać za połączenie reguł i fikcji, czyli narrację gry. Jesper Juul twierdził, że gry są "na wpół prawdziwe": są usytuowane w fikcyjnych światach; jednak obowiązują prawdziwe zasady, w przeciwnym razie charakter gry zostałby utracony. Jeśli chodzi o zasady, gry wideo przejmują ten aspekt gier, który nieco dalej gracze doceniają i przestrzegają zasad gry, a ustalanie reguł za pomocą algorytmów komputerowych wydaje się naturalnym postępem w ewolucji gier. Pojawienie się Internetu nie tylko zmieniło komunikację i dzielenie się wiedzą, ale również Web 2.0 umożliwiło jednostkom tworzenie i rozpowszechnianie myśli i pomysłów oraz współpracę na skalę globalną, prowadząc do powstania kultury partycypacyjnej. Ta kultura partycypacyjna charakteryzuje się trzema nurtami. Po pierwsze, nowe technologie, w tym Internet, pozwalają użytkownikom na archiwizowanie, komentowanie, pozyskiwanie i udostępnianie treści. Po drugie, zachęcają użytkowników do tworzenia treści. Po trzecie, Internet stymuluje dzielenie się obrazami, pomysłami i historiami za pomocą różnych kanałów, takich jak tekst, obrazy statyczne i ruchome, w konsekwencji zachęcając do aktywności na rzecz użytkowników. Wraz z pojawieniem się technologii Web 2.0 i związanych z nimi afordancji, wrażenia z gry zostały zmienione dla milionów graczy na całym świecie. Gry internetowe stały się szczególnie popularne w 2000 roku, wraz z nowym sprzętem i oprogramowaniem zwiększającym możliwości dostosowywania i możliwości łączenia się społecznie za pośrednictwem gier. Gry online cieszą się ogromną popularnością, a rynek gier w Internecie kwitnie. Szacuje się, że na świecie jest około 2 miliardów aktywnych graczy (tych, którzy regularnie grają w gry wideo), a w 2016 roku przychody z gier komputerowych przekroczyły 100 miliardów dolarów. Według londyńskiej firmy venture capital Atomico, w samych Chinach 600 milionów graczy wygenerowało w 2016 roku blisko 25 miliardów dolarów.

Charakterystyka gier fabularnych online dla wielu graczy

Gry typu MMORPG (Massively Multiplayer Online Role-playing Games) są przykładem zmieniającej mocy Internetu w grach. Gry MMORPG charakteryzują się trzema głównymi elementami. Po pierwsze, element masowego trybu wieloosobowego określa skalę rozgrywki pod względem liczby graczy. Setki i tysiące graczy jednocześnie zaludniają i korzystają z ogromnych środowisk gier, umożliwiając interakcję, budowanie społeczności i kontakty społeczne. Po drugie, element online pozwala graczom łączyć się w dowolnym miejscu i czasie, bez ograniczeń narzuconych przez położenie geograficzne i porę dnia. W związku z tym przestrzenne i czasowe granice gier offline zostały przezwyciężone wraz z wprowadzeniem Internetu do gier. Po trzecie, element odgrywania ról pozwala graczom tworzyć i rozwijać swoje wirtualne alter ego, awatary reprezentujące ich w grze. Odgrywanie ról oferuje ponadto graczom możliwość rekonfiguracji ich tożsamości offline, co, jak twierdzono, umożliwia przeżywanie różnych aspektów tożsamości jednostki. Oznacza to odejście od miejsc poza siecią, które można uznać za znacznie bardziej uregulowane i potencjalnie sztywne, zwłaszcza jeśli chodzi o eksplorację wielości potencjalnych tożsamości indywidualnych. Wśród różnych rodzajów gier online, w tym gier fabularnych, strzelanek pierwszoosobowych i gier strategicznych czasu rzeczywistego, gry fabularne przemawiają do wielu typów graczy i są jednymi z najczęściej wybieranych przez kobiety. Zacieranie się granic między tym, co realne, a tym, co nie, oraz potencjał społeczny tego typu gier przemawiają do różnych grup demograficznych graczy. W szczególnie popularną grę MMORPG, World of Warcraft, grają zarówno młodzi, jak i starsi gracze, ma stosunkowo dużą liczbę kobiet i zaspokaja różne preferencje dotyczące gier, umacniając swój status ulubionej gry MMORPG dla wielu graczy. W badaniu opublikowanym w 2006 roku Nick Yee przebadał ponad 3000 graczy MMORPG, aby zbadać rodzaje motywacji graczy do grania w tego rodzaju gry i znaleźliśmy trzy nadrzędne motywacje do gier: (1) osiągnięcia, (2) społeczne i (3) immersja. Osiągnięcie dotyczy (a) wyrównywania w grze, (b) budowanie i cieszenie się reputacją w społeczności graczy, (c) zrozumienie nieodłącznych zasad gry, (d) optymalizacja rozgrywki oraz (e) rywalizacja z innymi graczami (Yee, 2006b). Dalsze badania przeprowadzone przez Kinga i współpracowników (2010) wykazały, że oprócz innych motywacji, mechanika gry może przyczyniać się do nadmiernych wzorców gry, ponieważ mechanika ta może przyczyniać się do inicjowania, rozwijania i utrzymywania gry. Społeczność odnosi się do kontaktów towarzyskich z innymi graczami, korzystania z wbudowanych w grę funkcji komunikacji i czatu, rozwijania nowych relacji z innymi graczami oraz współpracy w zespole, takim jak gildia lub klan. Gracze szczególnie cenią sobie element społecznościowy gier, ponieważ znacząco przyczynia się on do tego, dlaczego lubią tę rozrywkę. Co więcej, kontakty towarzyskie łączą granice między rzeczywistością a wirtualnością, ponieważ istniejące relacje są utrzymywane i wzmacniane w grze, a nowe relacje mogą się rozwijać, co prowadzi do konceptualizacji gier MMORPG jako zasadniczo przestrzeni społecznych. Immersja polega na odkrywaniu nowych elementów gry, które można ukryć w zwykłej rozgrywce, odgrywaniu ról vis-?-vis swojego alter ego w grze, dostosowywaniu tego ostatniego (np. wyborze płci, rasy, zawodu i ogólnego wyglądu awatara) ) i eskapizm - używanie gry jako modyfikatora nastroju, aby uciec od prawdziwego życia. Eskapizm jest ściśle powiązany z uzależniającym korzystaniem z gier, ponieważ niektóre osoby mogą grać w gry, aby zapomnieć o swoich rzeczywistych trudnościach i korzystać z mediów internetowych, aby radzić sobie ze stresem.

Uzależnienie od gier internetowych

Rośnie niepokój w związku z negatywnymi konsekwencjami nadmiernego grania online wśród dorosłych, a także wśród populacji dzieci i nastolatków (Kuss & Griffiths, 2012c), a badania pokazują, że zakres gier online znacząco przewiduje uzależnienie od Internetu zarówno w populacjach nastolatków, jak i studentów. Rozszerzająca się baza badawcza skłoniła Amerykańskie Towarzystwo Psychiatryczne do włączenia wstępnego zestawu proponowanych kryteriów diagnostycznych dla Internetu ,zaburzenie związane z grami (IGD) jako jeden z kilku warunków do dalszych badań w piątej edycji Diagnostic and Statistical Manual of Mental Disorders (DSM-5), opublikowanej w 2013 r. Diagnoza wymagałaby, aby gry internetowe powodowały u danej osoby klinicznie istotne upośledzenie lub niepokój przez rok i że dana osoba spełnia co najmniej pięć z dziewięciu określonych kryteriów diagnostycznych, w tym zaabsorbowanie grami internetowymi, objawy odstawienia, takie jak uczucie niepokoju lub smutku, tolerancja (potrzeba spędzania większej ilości czasu na graniu), nieudane próby kontrolowanie gier i nadmierne granie pomimo świadomości problemów psychospołecznych. Naukowcy wyrazili obawy dotyczące proponowanych kryteriów diagnostycznych (Griffiths i in., 2016) oraz pomysłu, że badacze w tej dziedzinie osiągnęli konsensus w sprawie IGD i jej oceny. Argumentowano, że kryterium zaabsorbowania patologizuje normalne zachowania różnych grup wiekowych. Jeśli chodzi o kryterium nadmiernego grania, potrzeba wielu godzin, aby osiągnąć sukces w graniu, więc granie wymaga znacznej inwestycji czasu. Kryterium abstynencji spotkało się z krytyką tych, którzy uważają, że abstynencja wynika wyłącznie z zażycia substancji psychoaktywnej. IGD z natury odnosi się do zachowania, a nie do substancji chemicznej, która bezpośrednio oddziałuje na mózg, ale istnieją znaczne dowody wskazujące na neurofizjologiczne skutki nadmiernej gry online (Kuss i Griffiths, 2012a). Co więcej, kryterium tolerancji jest jednym z najbardziej kwestionowanych kryteriów IGD, a niektórzy badacze sugerują, że jednostki mają swobodę wyboru gry przez dłuższy czas, przy czym zachowanie jest uważane za egosyntoniczne (tj. postrzegane jako należące do siebie). Te i inne krytyczne uwagi podkreślają jeszcze niedojrzały status IGD jako w pełni rozwiniętej diagnozy psychiatrycznej i wskazują, że potrzebne są dalsze badania, aby zrozumieć etiologię i długoterminowy postęp zaburzeń związanych z grami internetowymi. Po spotkaniach z kluczowymi badaczami w dziedzinie uzależnienia od gier online Światowa Organizacja Zdrowia zaczęła rozważać włączenie zaburzeń związanych z grami do kategorii Zaburzenia spowodowane używaniem substancji lub zachowaniami uzależniającymi w Międzynarodowej Statystycznej Klasyfikacji Chorób i Problemów Zdrowotnych, 11 rewizja (ICD - 11), której premiera planowana jest na 2018 r. Według stanu na koniec 2017 r., wstępny opis zaburzeń związanych z grami wskazuje, że charakteryzują się one ciągłym lub powtarzającym się schematem grania w gry online lub offline, który obejmuje upośledzoną kontrolę nad grami, dając pierwszeństwo granie w taki sposób, że ma pierwszeństwo przed innymi zajęciami i codziennymi czynnościami oraz gra, która trwa lub nasila się nawet wtedy, gdy ma negatywne konsekwencje. Zgodnie z tą propozycją zaburzenie związane z grami wiązałoby się również ze znacznym upośledzeniem funkcjonowania jednostki w jednej lub kilku dziedzinach życia, takich jak rodzina, praca lub szkoła. W przeciwieństwie do propozycji Amerykańskiego Towarzystwa Psychiatrycznego przedstawionej w DSM-5, w swojej propozycji Światowa Organizacja Zdrowia nie precyzuje, że gra musi być online, aby wzorzec gry został zakwalifikowany jako zaburzenie. Jest to zgodne z niedawnymi obawami dotyczącymi względnego znaczenia elementu online dla uzależnienia od gier, co sugeruje, że rozróżnienie między grami online i offline w celu klasyfikacji uzależnień może nie być konieczne. W swojej propozycji Światowa Organizacja Zdrowia wprowadza również rozróżnienie między zaburzeniem związanym z graniem a graniem niebezpiecznym, które nie jest uważane za zaburzenie. Niebezpieczne gry odnoszą się do gier online lub zachowanie w grach offline, które znacznie zwiększa ryzyko negatywnych konsekwencji zdrowotnych dla danej osoby lub osób wokół niej, ale które jeszcze nie miało takich konsekwencji. Wyłączenie niebezpiecznych gier z kwalifikacji do diagnozy psychiatrycznej ma istotne implikacje dla leczenia i badań nad uzależnieniem od gier online. Światowa Organizacja Zdrowia wyraźnie rozróżnia to, co jest uważane za zachowanie patologiczne (tj. zaburzenie gry) od zachowania, które, mimo że jest potencjalnie szkodliwe, nie doprowadziło do rzeczywistej szkody dla jednostki. Można argumentować, że wiele badań nad uzależnieniem od gier internetowych nie przedstawiło tego rozróżnienia w wystarczającym stopniu, a jak zauważyli John Charlton i Ian Danforth (2010), niektóre z proponowanych kryteriów diagnozy zaburzeń związanych z grami internetowymi mogą po prostu odzwierciedlać zaangażowanie . Badacze i klinicyści muszą uważać, aby nie nadmiernie patologizować codziennych zachowań, w tym gier online.

Patrząc w przyszłość

Rosnąca liczba dowodów naukowych doprowadziła do wzrostu obaw związanych z negatywnymi konsekwencjami problematycznych gier i uzależnienia od gier. Wstępna diagnoza IGD DSM-5 i proponowana diagnoza zaburzeń gry w nadchodzącym ICD-11 wskazują na uznanie tych obaw wśród lekarzy. Rozważania diagnostyczne pozostają jednak w powijakach, ponieważ podniesiono szereg argumentów krytykujących obecną konceptualizację i kryteria diagnostyczne IGD. Podstawowy argument dotyczy potencjalnej nadmiernej patologizacji codziennych zachowań, którą Światowa Organizacja Zdrowia uwzględniła, rozróżniając "uzależnienie od gier" i "niebezpieczne gry". To rozróżnienie ma poważne implikacje dla badań i pracy klinicznej w tej dziedzinie, ponieważ podnosi świadomość faktu, że tylko bardzo niewielka mniejszość nadmiernych graczy może być uznana za spełniającą kryteria rzeczywistej psychopatologii. Zdecydowana większość może angażować się w gry, choć intensywnie, w sposób, którego nie można sklasyfikować jako "nienormalny", ale bardzo zaangażowany lub potencjalnie niebezpieczny. Ważne jest, aby badania przyjęły ostrożne podejście do dostrzegania różnic między rzeczywistą patologią a wysoce angażującą / niebezpieczną grą. Nadmierna patologizacja codziennych zachowań może mieć szkodliwe konsekwencje dla życia dzieci i młodych dorosłych, którzy lubią i spędzają dużo czasu na grach, dla których gry są nie tylko rozrywką, ale także przestrzenią towarzyską i odkrywania tożsamości.



Powrót

Geneza i historia Internetu


Internet odzwierciedla długą historię innowacji technologicznych w informatyce i komunikacji. Niektórzy mogą twierdzić, że korzenie sięgają XIX wieku wraz z wynalezieniem telegrafu w 1844 roku lub perforowanymi kartami Hermana Holleritha do przechowywania danych w latach osiemdziesiątych XIX wieku. Z pewnością historia informatyki sięga co najmniej II wojny światowej, kiedy to pierwsze komputery zostały rozmieszczone, aby pomóc w tworzeniu broni nuklearnej. Norbert Wiener odegrał kluczową rolę w wynalezieniu cybernetyki, zrodzonej z badań technologii rakietowej, która skupiała się na pętlach sprzężenia zwrotnego między ludźmi a systemami elektronicznymi; jego książka Cybernetics: Or Control and Communication in the Animal and the Machine została opublikowana w 1948 roku. Sieci rozległe pojawiły się już w latach pięćdziesiątych. Po tym wczesnym etapie nastąpił szybki wzrost mocy obliczeniowej i pamięci, miniaturyzacja elektroniki i rewolucja mikroelektroniczna. Należy zauważyć, że Internet powstał w procesie stopniowego pełzania, a nie długoterminowego planowania. Wiele obecnych aplikacji, takich jak blogi, oprogramowanie reklamowe, Skype i media społecznościowe, nie mogło zostać wymyślonych we wczesnych stadiach Internetu; rzeczywiście, wynalazek i rosnąca popularność tych zjawisk wskazują na trajektorię sieci jako palimpsest niezamierzonych konsekwencji. Ten wpis przedstawia rozwój i ewolucję Internetu w trzech etapach. Po pierwsze, analizuje narodziny Internetu w latach sześćdziesiątych i jego rozwój w latach osiemdziesiątych, w tym wzrost i upadek sieci ARPANET (sieć Agencji Zaawansowanych Projektów Badawczych) i NSFNET (sieć National Science Foundation), tworzenie standardowych protokołów oraz stworzenie World Wide Web. Po drugie, wracamy do lat 90., kiedy Internet został sprywatyzowany, skomercjalizowany i zglobalizowany, a jego rozmiary eksplodowały. Trzecia część koncentruje się na XXI wieku i licznych zmianach, które towarzyszyły dalszemu rozwojowi Internetu, w tym Web 2.0, Internetu mobilnego, mediów społecznościowych, przepaści cyfrowej, chińskiej sieci i rosnącej cenzury.

Wczesne dni (1960-1980)

Narodzin Internetu można doszukiwać się we wczesnych latach sześćdziesiątych XX wieku w Agencji Zaawansowanych Projektów Badawczych Departamentu Obrony Stanów Zjednoczonych (ARPA, później Agencja Zaawansowanych Projektów Badawczych w Obronie lub DARPA), która została założona przez prezydenta Dwighta D. Eisenhowera w 1958 r. w następstwie od wystrzelenia przez ówczesny Związek Radziecki pierwszego satelity, misją Sputnik.ARPA było zaproponowanie innowacyjnych pomysłów badawczych o znaczącym wpływie technologicznym. Joseph Licklider, naukowiec z Massachusetts Institute of Technology (MIT), pierwszy szef badań w DARPA pod kierownictwem kierownika programu Lawrence′a Robertsa, już w 1962 roku zaproponował "galaktyczną sieć" komputerów, które mogłyby się ze sobą komunikować. przełączanie sieci. W 1965 roku nawiązano połączenie między laboratorium Lincoln Lab w MIT a laboratorium System Development Corporation w Santa Monica w Kalifornii za pomocą dedykowanej linii telefonicznej o szybkości 1,2 Kb/s, co Michael Banks (2008) nazywa "weryfikacją koncepcji". sieci rozległej. Powszechnie uważa się, że ten wysiłek został zaprojektowany w celu umożliwienia komputerom komunikowania się ze sobą w przypadku ataku nuklearnego - główny nacisk położono na Pentagon i jego centrum obliczeniowe w Cheyenne Mountain w Montanie - chociaż artykuł z 2009 r. Barry M. Leiner i współpracownicy kwestionują pogląd, że było to częścią pierwotnego zamiaru. Inną motywacją było umożliwienie komputerom, które były wówczas drogie, współdzielenie zasobów. Podział czasu umożliwił naukowcom z jednej instytucji korzystanie z komputerów w innej instytucji. Duża część trwałości obecnego systemu wynika z ogromnych ilości dolarów federalnych przeznaczonych na badania w tej dziedzinie. Początkowe cele militarne zostały wkrótce uzupełnione celami cywilnymi. DARPA zgrupowała kilku młodych, ambitnych informatyków, którzy stworzyli szereg powiązanych innowacji, takich jak sieci neuronowe, teoria kolejek, routing adaptacyjny i protokoły przesyłania plików. File Transfer Protocol został wynaleziony w 1973 roku. Jednak Martin Campbell-Kelly i Daniel Garcia-Swartz argumentowali, że ta konwencjonalna opowieść o początkach Internetu jest zbyt prosta i że w tamtym czasie działało wiele sieci, takich jak pół- Automatyczny system obrony środowiska naziemnego z 1962 r. Opierając się na dobrze przyjętym artykule z 1961 r. autorstwa Leonarda Kleinrocka z MIT (czasami nazywanego ojcem nowoczesnych sieci) na temat przełączania pakietów, zatytułowanym "Przepływ informacji w dużych sieciach komunikacyjnych", Paul Baran (1926-2011) z Korporacja RAND sformalizowała to, co nazwał "blokami wiadomości", w których poszczególne wiadomości mogą być rozkładane, części składowe przesyłane różnymi kanałami, a następnie składane z powrotem, praktycznie natychmiast, w miejscu docelowym. W brytyjskim National Physical Laboratory Donald Davies niezależnie stworzył przełączanie pakietów, które stało się preferowanym terminem, i zaproponował krajową sieć danych. Zarówno bloki komunikatów, jak i przełączanie pakietów dzieliły komunikaty na części, które można było kierować niezależnie. Podobne wysiłki obejmowały Telenet i Michigan Educational Research Information Triad, które rozpoczęto w 1966 r. 30 sierpnia 1969 r. Bolt, Beranek i Newman dostarczyli pierwszy interfejsowy procesor wiadomości do Kleinrock′s Network Measurements Center na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) . W skład zespołu UCLA odpowiedzialnego za zainstalowanie procesora komunikatów interfejsu i utworzenie pierwszego węzła ARPANET weszli doktoranci Vinton Cerf, Steve Crocker, Bill Naylor, Jon Postel i Mike Wingfield. Dwa miesiące później, 29 października 1969 roku, Charley Kline, student Network Measurement Center, wysłał pierwszą w historii wiadomość z jednego komputera do drugiego w sieci ARPANET. W latach 70. standardy przełączania pakietów zostały ujednolicone w ramach Międzynarodowego Związku Telekomunikacyjnego. Francja eksperymentowała z projektem Cyklady. W 1978 roku Western Union, Tymnet i British Post Office współpracowały przy tworzeniu międzynarodowej sieci komutacji pakietów, która rozszerzyła się na Amerykę Północną, Hongkong i Australię. W latach siedemdziesiątych wprowadzono Transmission Control Protocol/Internet Protocol (TCP/IP), opracowany wspólnie przez Roberta Kahna z DARPA i Vintona Cerfa z Uniwersytetu Stanforda, który w 1982 roku stał się standardowym protokołem sieciowym, umożliwiając podłączenie niemal dowolny zestaw sieci razem (chociaż w Europie był pewien opór). Termin Internet stał się skrótem oznaczającym "pracę w sieci". ARPA dała początek sieci zupełnie odmiennej od ówczesnego scentralizowanego systemu telefonicznego, który opierał się na informacjach analogowych: Cyfryzacja raczej ułatwiła zdecentralizowaną, a następnie rozproszoną sieć. Od samego początku przyjęto sieci o otwartej architekturze, rewolucyjną w tamtym czasie koncepcję, co oznaczało, że użytkownicy mogli wybrać konkretny projekt sieci i stworzyć interfejs z innymi sieciami za pośrednictwem architektury sieciowej wyższego poziomu. To, co miało się stać ARPANET opracował nowe protokoły do pracy w sieci i stał się pierwszą rozległą siecią komutacji pakietów. W 1969 r. ARPANET wysłał swoją pierwszą wiadomość, komunikację "węzeł-węzeł" między dwoma komputerami. Wczesny ARPANET wykorzystywał program kontroli sieci zamiast protokołu TCP/IP, ale został włączony 1 stycznia 1983 r., po starannym planowaniu. TCP/IP pozostaje standardowym protokołem. Potęga systemów sieciowych szybko stała się jasna. Do 1969 roku ARPANET połączył cztery uniwersytety: (1) UCLA (pierwszy węzeł ARPANET), (2) Stanford Research Institute, (3) University of California, Santa Barbara i (4) University of Utah. W 1971 roku dodał ALOHAnet Uniwersytetu Hawajskiego. Do końca 1971 roku 23 uniwersytety były połączone siecią. W 1972 roku Robert Kahn dokonał pierwszej publicznej demonstracji sieci ARPANET na Międzynarodowej Konferencji Komunikacji Komputerowej. Sieć europejska rozpowszechniła ARPANET na uniwersytetach i ośrodkach badawczych na kontynencie. W 1973 roku nawiązano pierwsze międzynarodowe połączenie między ARPANET i University College London oraz Royal Radar Establishment w Norwegii. W 1976 roku królowa Elżbieta wysłała pierwszą królewską wiadomość e-mail podczas wizyty w bazie wojskowej, ale minęło kilka lat, zanim komunikacja między komputerami rutynowo obejmowała wiadomości między ludźmi. Korzenie poczty e-mail można prześledzić do kompatybilnego systemu podziału czasu w MIT, napisanego przez Toma Van Vlecka i Noela Morrisa. W 1972 roku Ray Tomlinson, inżynier w amerykańskiej firmie badawczej Bolt, Beranek and Newman (która odegrała kluczową rolę w ARPANET), napisał podstawowe oprogramowanie do wysyłania i odbierania wiadomości e-mail oraz wynalazł użycie symbolu @ w adresów, przystosowując w ten sposób komputery do komunikacji między ludźmi. Wkrótce potem rozpoczęły się eksperymenty z telefonią internetową, udostępnianiem plików i grami wideo. W 1975 roku Agencja Łączności Obronnej przejęła kontrolę nad ARPANET. Inne agencje rządowe zaczęły tworzyć podobne sieci, takie jak MFENET (Magnet Fusion Energy Network) Departamentu Energii i NASA (National Aeronautics and Space Administration) Space Physics Analysis Network. AT&T, rozpowszechniając system operacyjny UNIX, dało początek Usenetowi. W 1981 roku Greydon Freeman i Ira Fuchs opracowali BITNET ("Because It′s There Network", a później "Because It′s Time Network"), aby połączyć komputery akademickie, najpierw łącząc Uniwersytet Yale i City University of New York. Ponieważ ARPA jest agencją publiczną, jej zastosowania miały charakter niekomercyjny (wojskowy, badawczy i edukacyjny). Sektor prywatny był jednak chętny do wejścia na nowy rynek: w 1974, Telenet, który był prawdopodobnie pierwszym dostawcą usług internetowych ISP), rozpoczął działalność obsługującą uniwersytety. W 1979 roku Compuserve jako pierwsza firma zaoferowała detaliczne usługi poczty elektronicznej, w tym program do czatowania. W międzyczasie niektóre z pierwszych na świecie społeczności cybernetycznych zaczęły się zakorzeniać, takie jak WELL (Whole Earth′ Lectronic Link) w San Francisco, które powstało w 1985 roku. Mnożyły się podobne systemy tablic ogłoszeń. Pojawiły się pierwsze komputery osobiste, wywołując (bezpodstawne) obawy, że protokół TCP/IP jest dla nich zbyt skomplikowany. W 1980 roku Usenet (założony przez Jima Ellisa i Toma Truscotta) zaczął tworzyć swoje pierwsze społeczności, które zamieszczały ogłoszenia w systemie tablic ogłoszeń, ale bez dedykowanego administratora. W 1981 roku NSF sfinansowała Computer Science Network, w tym serię superkomputerów na uniwersytetach. Ponieważ obowiązkiem DARPA było rozwijanie najnowocześniejszych technologii, a nie administrowanie siecią komunikacyjną, w 1984 roku administrowanie Internetem zostało przekazane NSF. W 1983 ARPANET został podzielony na dwie części: (1) MILNET (sieć wojskowa) do celów wojskowych oraz (2) NSFNET. MILNET, oficjalnie znany jako Sieć Danych Obronnych, był obsługiwany przez Agencję Obronnych Systemów Informacyjnych i istniał od jej narodzin w 1983 do 1995 roku, aby przenosić niesklasyfikowane materiały drogą elektroniczną. Zapewniał łączność internetową z biurami i instalacjami Departamentu Obrony w Stanach Zjednoczonych oraz z bazami wojskowymi za granicą. NSF sfinansowała pięć centrów superkomputerowych na (1) Uniwersytecie Princeton; (2) Uniwersytet Illinois; (3) Uniwersytet Cornella; (4) Uniwersytet Kalifornijski w San Diego; oraz (5 ) Pittsburgh Computing Center (w tym Carnegie Mellon University i University of Pittsburgh) i połączył te ośrodki z National Center for Atmospheric Research w Boulder w Kolorado. Z pierwotnych sześciu węzłów sieć zaczęła rozszerzać się na inne ośrodki akademickie. Do 1991 roku rozszerzył się do 14 węzłów, w tym uniwersytetów w Utah, Waszyngtonie i Delaware oraz Uniwersytetu Stanforda, a także dodał połączenia międzynarodowe. NSFNET składał się z łączy szkieletowych między 200 superkomputerami akademickimi, sieciami średniego poziomu (konsorcja oparte na kampusach lub superkomputerach) oraz sieciami kampusowymi. NSFNET miał również połączenia z sieciami w NASA i Departamencie Energii. We współpracy z IBM i Michigan Educational Research Information Triad, konsorcjum uniwersytetów w Michigan, NSF zmodernizowało swoje szkielety w 1988 r. Ponieważ liczba hostów internetowych szybko się pomnożyła, hostom przypisywano nazwy, aby wyeliminować potrzebę zapamiętywania adresów numerycznych. Gdy bardziej niezależnie zarządzane sieci zostały połączone, Paul Mockapetris, Jon Postel (1943-1998) i Craig Partridge wynaleźli w 1985 roku system nazw domen, który umożliwił hierarchię lokalizacji w adresie internetowym. ARPA początkowo stworzyła sześć domen: (1) edu (edukacja), (2) mil (wojsko), (3) gov (rząd), (4) com (komercja), (5) org (organizacje) i (6) sieć (sieci). (Postel był również aktywny w tworzeniu standardów internetowych i przez wiele lat redagował Prośbę o komentarze.) Liczba hostów internetowych mnożyła się jak króliki: w 1987 roku było ich 10 000; do 1989 r. 100 000; a do 1990 r. 300 tys. Również w 1990 roku powstała pierwsza wyszukiwarka zaprojektowana przez studenta Archiego. Wkrótce potem, zgodnie z szerszą deregulacją telekomunikacji, rząd zaczął wycofywać swoje poparcie dla Internetu, przekazując zarządzanie i świadczenie usług sektorowi prywatnemu. Jak argumentują David Mowery i Timothy Simcoe (2002): "Adopcji Internetu w Stanach Zjednoczonych sprzyjały polityki antymonopolowe i regulacyjne, które osłabiły siłę rynkową uznanych firm telekomunikacyjnych i pomogły w powstaniu krajowego przemysłu ISP (dostawcy usług internetowych)" . Dostawcy usług telekomunikacyjnych chętnie sprzedawali łączność. ARPANET został zlikwidowany w 1990 roku, a rynek został obciążony świadczeniem usług szkieletowych. Podobnie NSFNET został wycofany z eksploatacji w kwietniu 1996 r., Kiedy NSF zlikwidował go po wydaniu na niego 200 mln USD w ciągu 11 lat. Następnie sprywatyzowano kontrolę nad szkieletami Internetu. Do 1995 roku Internet rozrósł się do 50 000 sieci, z których połowa znajdowała się w Stanach Zjednoczonych. Wraz z końcem ograniczeń dotyczących ruchu komercyjnego, obecnie prawie cała infrastruktura internetowa jest własnością prywatną i jest zarządzana. Warto zauważyć, że prywatni użytkownicy Internetu odnieśli ogromne korzyści z inwestycji publicznych o wartości miliardów dolarów. W przeciwieństwie do branży telefonicznej prywatyzacja szkieletów internetowych została przeprowadzona przy niewielkim nadzorze regulacyjnym (np. Niedyskryminacyjne przepisy dotyczące przenoszenia ruchu). Złośliwe korzystanie z Internetu rosło wraz z liczbą użytkowników. W 1971 roku zadebiutował pierwszy wirus, Creeper. W 1978 roku przez sieć przekradła się pierwsza wiadomość spamowa. W 1988 roku powstał pierwszy robak, Morris. W 2000 roku wirus iloveyou zainfekował 50 milionów komputerów w ciągu 10 dni. W 2010 roku Stuxnet został użyty z niszczycielskim skutkiem przeciwko irańskim reaktorom jądrowym. We wczesnych latach osiemdziesiątych Europejskie Laboratorium Fizyki Cząstek (CERN) opracowało hipertekst i adresy URL (Uniform Resource Locators), system adresów używany w sieci, która miała stać się siecią WWW. CERN czerpał z długiej historii dotyczącej hipertekstu (termin ukuty przez Teda Nelsona w 1965 r.), sięgającej wstecz do prototypu "oNLine System" Douga Engelbarta; Engelbart wynalazł także mysz. Podobnie Andy van Dam i inni zbudowali system edycji hipertekstu w 1967 roku. Brytyjski fizyk Sir Tim Berners-Lee (tytuł szlachecki w 2004 r.) wyobraził sobie globalny system informacji połączony hiperłączami. W 1990 roku wraz ze swoim kolegą Robertem Cailliau zaproponował projekt hipertekstowy o nazwie WorldWideWeb (początkowo używany jako jedno słowo), w którym dokumenty można było przeglądać za pomocą "przeglądarki" i architektury klient-serwer. (Inni proponowali podobne systemy wcześniej, ale nie poszli za nimi; Vannevar Bush wyobraził sobie właśnie taki system o nazwie Memex w The Atlantic Monthly w 1945 r.) Berners-Lee, często nazywany ojcem sieci World Wide Web, stworzył pierwszą sieć serwer i przeglądarka internetowa (o nazwie "CERN httpd") podczas pracy w CERN w Genewie; pierwszą stronę internetową otworzył 20 grudnia 1990 r., a pierwszą stronę internetową 6 sierpnia 1991 r. Zasadniczo z powodzeniem połączył hipertekst i Internet, czyniąc sieć tak elastyczną i zdecentralizowaną, jak to tylko możliwe. Wkład Bernersa-Lee w sieć jest ogromny: pierwsza strona internetowa, wynalezienie hipertekstu i hipertekstowego języka znaczników oraz Konsorcjum World Wide Web, które Berners-Lee założył w 1994 roku po tym, jak opuścił CERN i dołączył do MIT. CERN, zainspirowany kulturą maniaków komputerowych wrogo nastawioną do ochrony praw autorskich (np. ruch Wolnego Oprogramowania), ogłosił, że nowopowstały World Wide Web będzie wolny dla wszystkich. (Częściowo była to reakcja na decyzję University of Minnesota o pobieraniu opłat licencyjnych za protokół Gopher, który został wydany w 1991 roku). Chociaż wiele osób używa terminów Internet i World Wide Web zamiennie, technicznie rzecz biorąc, sieć składa się z dokumenty połączone hiperłączami identyfikowane za pomocą ich adresów URL i są częścią szerszej konfiguracji znanej jako Internet. Założyciele Internetu wspólnie opracowali wielopoziomowy system, który obejmował zarówno komputery na dole, jak i kolejne warstwy sieci i przeglądarek. Ekspansja Internetu wywołała obawy dotyczące standardów i protokołów oraz doprowadziła do powstania kilku agencji nadzorujących. W 1979 r. DARPA utworzyła Radę Kontroli Konfiguracji Internetu, która później została przemianowana na Radę Doradczą ds. Grupa zadaniowa ds. promocji standardów internetowych. Standardy ARPANET były zarządzane przez organizację Internet Assigned Numbers Authority (IANA), założoną w 1988 roku. IANA była odpowiedzialna za zarządzanie strefą główną w globalnym systemie nazw domen. W 1998 roku własność IANA została przeniesiona na Internet Corporation for Assigned Numbers and Names, organizację non-profit z siedzibą w Waszyngtonie. Internet Society, które powstało w 1992 roku, wspiera rozwój standardów i zasad związanych z Internetem oraz zapewnia edukację i szkolenie z zakresu Internetu. Na początku lat 90. strony internetowe stawały się coraz bardziej znormalizowane i widoczne, mimo że wczesne były dokumentami tylko do odczytu, które nie pozwalały na interakcję z użytkownikami. W 1993 roku zarówno Biały Dom, jak i Organizacja Narodów Zjednoczonych połączyły się z Internetem, a prezydent Bill Clinton był pierwszym prezydentem USA, który wysłał wiadomość e-mail z Białego Domu. Wkrótce potem Encyklopedia Britannica pojawiła się w Internecie, by później całkowicie zrezygnować z wersji papierowej.

Lata 90.: Internet staje się globalny i komercyjny

Od połowy do końca lat 90. nastąpił ogromny wzrost rozmiaru i liczby użytkowników Internetu, ponieważ wiele społeczności pojawiło się w Internecie. Tylko w 1993 roku liczba serwerów internetowych wzrosła z 50 do 500. Internet szybko rozprzestrzenił się poza społeczność naukową i wkrótce był używany między innymi przez gospodarstwa domowe, organizacje non-profit i korporacje. Hipertekst stał się szalenie popularny wśród autorów, programistów, naukowców, bibliotekarzy i innych. Na gwałtowny rozwój Internetu złożyło się kilka czynników. Interfejsy graficzne znacznie uprościły korzystanie z Internetu, prowadząc do powstania World Wide Web. W 1993 roku ukazał się Lou Montulli przeglądarka tekstowa Lynx. W tym samym roku zespół z University of Illinois pod kierownictwem Marca Andreessena stworzył pierwszą graficzną przeglądarkę Mosaic (która w 1994 roku stała się Netscape), znacznie zwiększając powszechny dostęp do treści internetowych i uwalniając użytkowników od systemu Microsoft DOS. Projekt Research for Mosaic został sfinansowany przez ustawę High Performance Computing and Communication Act z 1991 r., z inicjatywy senatora Ala Gore′a (D-TN). Wkrótce potem prywatne przeglądarki internetowe wyrosły jak grzyby po deszczu, w tym Microsoft Internet Explorer (1995), Apple Safari (2003), Firefox (2004), Google Chrome (2008), a w 2016 Microsoft Edge, wypierając starsze modele, takie jak Gopher. Firma America Online uruchomiła usługę Instant Messenger w 1997 roku. Kolejnym czynnikiem były ogromne spadki kosztów komputerów oraz wykładniczy wzrost ich mocy i pamięci. Komputery osobiste stają się coraz bardziej przystępne cenowo, a stosunkowo szybkie maszyny z niższej półki są łatwo dostępne za stosunkowo skromne kwoty. W 1975 roku pojawił się pierwszy komputer do użytku domowego, Altair 8800. W 1976 roku Steve Jobs i Steve Wozniak założyli firmę Apple Computer, która w 1977 roku wypuściła na rynek swój pierwszy komputer osobisty, Apple II; w 1984 roku wprowadził na rynek komputer Macintosh. Jednocześnie zbudowano kilka szybkich sieci światłowodowych, najpierw przez Ocean Atlantycki (w 1988 r.), a następnie w latach 90. przez Pacyfik i Ocean Indyjski. Dzięki znacznie większej przepustowości, przyjęcie grafiki m.in. wideo i dźwięk stały się możliwe. Pierwsza witryna do udostępniania wideo została uruchomiona w 1997 roku. Światłowody znacznie umożliwiły przekształcenie Internetu z systemu komunikacyjnego w system komercyjny, przyspieszając tempo zamówień klientów, zaopatrzenia, produkcji i dostaw produktów. W latach 90. giganci telekomunikacyjni, tacy jak British Telecom, France Telecom, Deutsche Telekom i wielu innych, zapoczątkowali usługi internetowe. Tanie komputery, łatwe w użyciu przeglądarki i szybkie łącza sprawiły, że Internet stał się szalenie popularny. W 1994 roku liczba użytkowników Internetu wzrosła o ponad 300 000%. Do 1998 roku z sieci korzystało 100 milionów ludzi. Ta stopa wzrostu jest zgodna z prawem Metcalfe′a, zgodnie z którym wartość sieci jest proporcjonalna do kwadratu liczby użytkowników. Biorąc pod uwagę nieustanną presję kapitalizmu, by wszystko utowarowić, nie jest niespodzianką, że korporacje szybko przeniosły się do Internetu, co doprowadziło do rozprzestrzenianie się witryn .com, które stanowią obecnie większość witryn internetowych. Rynek szybko przeszedł od świadczenia usług sieciowych do oferowania szerokiej gamy towarów i usług. Komercjalizacja Internetu, a tym samym rozwój handlu elektronicznego, bankowości elektronicznej i handlu elektronicznego między przedsiębiorstwami, była napędzana przez wielu dostawców, którzy włączyli protokół TCP/IP. W 1988 roku odbyły się pierwsze targi Interop, które obecnie odbywają się w siedmiu miejscach na całym świecie i przyciągają ćwierć miliona osób rocznie. Następnie zaczęli pojawiać się sprzedawcy internetowi, niektórzy z nich stali się wielcy. W 1994 roku Pizza Hut otworzyła pierwszy sklep internetowy. W tym samym roku Jeff Bezos założył Amazon.com, pierwotnie w celu sprzedaży książek online, ale wkrótce stanie się gigantem e-sprzedaży internetowej. eBay pojawił się jako rynek elektroniczny w 1995 roku pod nazwą AuctionWeb. W 1996 roku Hotmail stał się pierwszą komercyjną usługą e-mail, założoną przez Sabeera Bhatię i Jacka Smitha. W 1998 roku Sergey Brin i Larry Page założyli Google, wyszukiwarkę konkurującą z Yahoo (założoną w 1994 roku przez Jerry′ego Yanga i Davida Filo). Google wkrótce stał się królem wyszukiwarek, odpowiadając za 70% wyszukiwań internetowych na całym świecie od 2017 r. W 1999 r. Student Shawn Fanning założył Napster, usługę udostępniania plików muzycznych online (która została zamknięta w 2002 r.). Również w 1999 roku internetowy sprzedawca obuwia Zappos założył pierwszy sklep detaliczny wyłącznie online. Mniej więcej w tym czasie rozwinął się hazard internetowy. Gazety zaczęły wydawać wersje internetowe, które wkrótce prześcignęły starszą formę papierową pod względem liczby czytelników, podczas gdy czytelnictwo gazet drukowanych szybko spadło. Szkoły i biblioteki z zapałem zaczęły adoptować Internet. Administracja Clintona ustanowiła Program Szkół i Bibliotek Funduszu Usług Powszechnych, nieformalnie znany jako E-rate, jako część ustawy o telekomunikacji z 1996 r. E-rate wygenerował fundusze w wysokości 2,25 miliarda USD przeznaczone na subsydiowanie usług telekomunikacyjnych dla szkół w zubożałych społecznościach i powszechnie przypisuje się mu zwiększenie odsetka szkół publicznych z dostępem do Internetu z 14% w 1996 r. do 98% w 2010 r. Jednak E-rate nie zapewnił funduszy na sprzęt komputerowy, oprogramowanie, szkolenie personelu lub nauczycieli ani łącze szerokopasmowe usług, z których wszystkie są niezbędne do skutecznego dostępu do Internetu. Ponadto administracja Clintona utworzyła E-Corps, 750 wolontariuszy AmeriCorps, pracujących nad ułatwieniem dostępu do Internetu na obszarach o niskich dochodach poprzez sieć subsydiowanych przez federację Community Technology Centers. Do 2010 roku 99,1% wszystkich bibliotek publicznych w USA oferowało bezpłatne korzystanie z Internetu, częściowo dzięki finansowaniu Fundacji Billa i Melindy Gatesów, która postrzegała biblioteki jako sposób na zmniejszenie przepaści cyfrowej. Internet zaczął też wdzierać się w tkankę gospodarki. To, co jest często opisywane jako pierwszy baner reklamowy, zostało sprzedane przez magazyn Wired firmie AT&T w 1994 r. Firmy zaczęły wykorzystywać Internet do rekrutacji, reklamy i marketingu; obecnie przychody z reklam internetowych przewyższają przychody z telewizji. Inne zastosowania obejmowały pracę zdalną i zarządzanie zapasami, zwłaszcza w miarę upowszechniania się systemów zapasów just-intime. Zarządzanie łańcuchem dostaw stało się dokładniejsze. Rozpoczął się handel elektroniczny między przedsiębiorstwami, w tym umowy cyfrowe i podpisy elektroniczne. W ślad za tym poszedł handel elektroniczny między rządem a biznesem, w tym aukcje internetowe i zamówienia. Tak wielka była liczba start-upów internetowych napędzanych przez inwestorów venture capital z Doliny Krzemowej pod koniec lat 90., że rynek szybko dostosował się do niszczycielski krach dot-comów w 2001 roku. Gdy coraz większa liczba ludzi oswoiła się z Internetem, popularny stał się termin cyberprzestrzeń, ukuty przez pisarza science fiction Williama Gibsona w jego powieści Neuromancer z 1984 roku. "Cyber" stał się powszechnym przedrostkiem oznaczającym wiele działań związanych z Internetem, takich jak, by wziąć tylko kilka przykładów, cyberwojna, cyberseks, cyberstalking, cyberterroryzm, cyberaktywizm, kawiarenki internetowe, cyberprzestępczość, cyberspołeczność, yberfeminizm, cyberkultura, cyberbohaterowie, cyberdziennikarz, cyberzłodziej , cybermałżeństwem i cyberbezpieczeństwem. Zachęcony przez spadające koszty, deregulację i coraz bardziej obeznaną z technologią opinię publiczną, rozwój Internetu był fenomenalny; w rzeczywistości jest to prawdopodobnie druga najszybciej rozprzestrzeniająca się technologia w historii świata, ustępując jedynie telefonowi komórkowemu. Przy gwałtownych spadkach kosztów technologii komputerowej, nadmiarze światłowodów, który doprowadził do dramatycznych spadków cen komunikacji, łatwych w użyciu interfejsach graficznych i wyraźnym potencjale wszelkiego rodzaju niespotykanych dotąd zastosowań, nie jest to dziwić się, że korzystanie z Internetu na całym świecie zaczęło rosnąć wykładniczo. Liczba użytkowników wzrosła z około 10 milionów w 1990 roku do 1 miliarda w 2001 roku, do 3,73 miliarda w marcu 2017 roku (około połowa populacji planety), przy średnim tempie wzrostu wynoszącym prawie 14% rocznie (wykres 1). Według szacunków serwisu Internet Live Stats do 2014 r , że istniało ponad 1 miliard stron internetowych, chociaż od tego czasu liczba ta ulegała wahaniom. Szacuje się, że pod koniec 2017 r. zaindeksowana sieć zawierała ponad 4,5 miliarda stron internetowych. Wraz ze wzrostem liczby użytkowników i aplikacji internetowych oraz gwałtownym wzrostem ilości danych przez zawartość graficzną, łącza szerokopasmowe stały się niezbędne dla łączności z Internetem. Chociaż technologia szerokopasmowa istnieje od lat pięćdziesiątych XX wieku, nie była ona komercyjnie wykonalna, dopóki rozmieszczenie ogromnych ilości linii światłowodowych w latach dziewięćdziesiątych nie umożliwiło przesyłania ogromnych ilości danych przez Internet z dużą prędkością. Federalna Komisja ds. Łączności zdefiniowała łącze szerokopasmowe w 2010 r. jako minimalną prędkość 4 Mb/s dla wysyłania i 1 Mb/s dla pobierania, chociaż dla zaawansowanych możliwości potrzebne są znacznie wyższe prędkości. Wiele osób korzysta z testu porównawczego 25 Mb/s wysyłania i 3 Mb/s pobierania. Niskie prędkości modemów i linii telefonicznych ustąpiły miejsca szybkim, a następnie superszybkim połączeniom (nawet 2,4 gigabajta na sekundę). Obecnie zdecydowana większość internautów w krajach rozwiniętych korzysta z łączy szerokopasmowych. Szerokopasmowy umożliwił innowacje, takie jak telewizja internetowa (np. Netflix, założona w 1997 r.) I telefonia Voice over Internet Protocol. Prawdopodobnie posiadanie lub brak dostępu szerokopasmowego szybko staje się dominującą twarzą przepaści cyfrowej. W 2016 roku 75% populacji USA korzystało w domu z technologii szerokopasmowych, redukując usługi dial-up do zaledwie 5%. Istnieją istotne różnice między obszarami wiejskimi a miejskimi w zakresie cyfrowej przepaści szerokopasmowej, w ramach której obszary miejskie są często przeciążone, podczas gdy ich wiejskie odpowiedniki nie mają łatwego dostępu. W obliczu zwiększonej dostępności Internetu powstało wiele nowych aplikacji. Popularność zyskała na przykład telefonia Voice over Internet Protocol, której korzenie sięgają lat 60. . Firma Skype, założona w 2003 roku, rozszerzyła ten proces o rozmowy wideo. Podobnie telewizja przystosowała się do Internetu, ponieważ firmy takie jak Netflix i Hulu najpierw stały się dostawcami treści, a następnie ich producentami. Powstały serwisy strumieniujące muzykę, takie jak Pandora i Spotify. Liczba blogów (termin zaproponowany przez Jorna Bargera w 1997 r.) dramatycznie wzrosła, a blogosfera stała się ważnym aspektem polityki i osobistej ekspresji. W 2014 roku na świecie było około 180 milionów blogów, a codziennie dodawanych jest 30 000 kolejnych. Pod koniec lat 90. e-mail stał się najpowszechniejszą formą komunikacji na świecie: dziś świat wysyła codziennie 150 miliardów wiadomości e-mail. Natychmiastowe, bezpłatne (lub prawie takie) i asynchroniczne wiadomości e-mail umożliwiają komunikację jeden do jednego i jeden do wielu. Poczta e-mail jest szeroko stosowana w świecie biznesu i oprócz tego, że jest nieuniknionym narzędziem do osiągnięcia sukcesu zawodowego i osobistego, jest także głównym źródłem nadmiaru informacji. (Według The Radicati Group, grupy zajmującej się badaniem rynku technologicznego, w 2012 roku przeciętna osoba korzystająca z poczty e-mail w pracy wysyłała i otrzymywała 110 wiadomości dziennie). ruchu internetowego - również rósł wprost proporcjonalnie. (Chociaż ilość spamu rosła, gdy coraz więcej osób zaczęło korzystać z poczty e-mail, uważa się, że pochodzi on znacznie wcześniej, z wiadomością marketingową wysłaną do użytkowników ARPANET w 1978 r.)

Obecny stan Internetu (od 2000 r.)

W XXI wieku Internet rozwijał się i zmieniał na wiele sposobów, oferując szeroką gamę nowych aplikacji i wpływów społecznych. Najważniejsze z tych zmian to (a) rozwój Web 2.0, (b) rozwój Internetu przedmiotów, (c) Internet mobilny i nadający się do noszenia, (d) eksplozja mediów społecznościowych, (e) rosnące obawy dotyczące przepaść cyfrowa, (f) cenzura Internetu oraz (g) rozwój chińskiej sieci. Jednym z najważniejszych wydarzeń w najnowszej historii Internetu było powstanie Web 2.0, terminu zdefiniowanego w 2004 roku przez wydawcę technologicznego Tima O′Reilly′ego z O′Reilly Media i Dale′a Dougherty′ego, wiceprezesa O′Reilly. Web 2.0 odnosi się do idei, że na początku XXI wieku sieć stała się bardziej interaktywna, między innymi poprzez umożliwienie jednostkom zamieszczania materiałów na stronach internetowych. Termin Web 2.0 został ukuty przez Darcy′ego DiNucciego w 1999 roku, ale spopularyzowany przez O′Reilly′ego i Dougherty′ego. Tradycyjnie Internet (nazwany wstecz Web 1.0) był platformą, w której użytkownicy byli biernymi odbiorcami. Wraz z rozwojem asynchronicznych interfejsów JavaScript, XML (AJAX) i programowania aplikacji, strony internetowe zapewniają użytkownikom swobodę przesyłania treści i cieszenia się natychmiastowymi interakcjami, czyniąc ich aktywnymi twórcami i uczestnikami, którzy przyczyniają się do zawartości witryny, dając początek temu, co George Ritzer i Nathan Jurgenson nazywa "prosumentami", a to, co Axel Bruns nazywa "produkcją". W pewnym sensie Web 2.0 zatarła granice między produkcją a konsumpcją informacji: dzięki YouTube i blogom każdy mógł zostać filmowcem i wydawcą. Prawdopodobnie, jako że Web 2.0 wyprodukował dużą liczbę prosumentów, wygenerował bezprecedensową w historii demokratyzację wiedzy. Web 2.0 miał ogromne reperkusje, umożliwiając np. rozwój portali społecznościowych (np. Facebook), serwisów do udostępniania wideo (np. YouTube, uruchomiony w 2005 r. przez trzech byłych pracowników PayPal, Chada Hurleya, Steve′a Chena i Jaweda Karima). ), wiki (np. Wikipedia, założona w 2001 r.), komentarze czytelników (np. komentarze na blogach lub gazety), klikalne reklamy i aplikacje na smartfony. Jednak ta zmiana ma również swoje koszty, do których można zaliczyć to, że może pozwolić odbiorcom informacji na wybór tylko tych źródeł, które potwierdzają ich założenia i przekonania, i nigdy nie kwestionować ich alternatywnymi pomysłami. Powszechne zastosowanie łączy szerokopasmowych dało również początek Internetowi rzeczy (IoT), terminowi różnie przypisywanemu Peterowi Lewisowi w 1985 r. lub Kevinowi Ashtonowi w 1999 r. Czasami nazywany "infrastrukturą społeczeństwa informacyjnego", Internet rzeczy umożliwia urządzeniom podłączonym do Internetu zbierać informacje, podejmować decyzje lub zalecać działania, aby pomóc użytkownikom. Przykłady obejmują inteligentne budynki, inteligentne miasta, inteligentne samochody, inteligentne sieci, inteligentne domy (np. suszarki i lodówki. Rozwój Internetu Rzeczy odzwierciedla długą historię systemów sterowania, czujników bezprzewodowych i wszechobecnych komputerów. Internet Rzeczy jest w powijakach, a niektórzy przewidują, że do 2020 roku obejmie dziesiątki miliardów urządzeń. Łączność tych inteligentnych obiektów znacznie przyspiesza automatyzację wielu zadań i ilustruje głęboką integrację świata fizycznego i wirtualnego. Najnowszym rozdziałem w historii Internetu jest korzystanie ze smartfonów, dające początek Internetowi mobilnemu lub bezprzewodowemu. Od lat 90. XX wieku telefon komórkowy lub komórkowy stał się najczęściej używaną formą telekomunikacji na świecie. W 2012 roku Bank Światowy podał, że około trzy czwarte populacji planety ma dostęp do telefonu komórkowego. Szybkie spadki cen telefonów komórkowych i minimalna infrastruktura niezbędna do ich działania (tj. wieże komórkowe) sprawiły, że stały się one dostępne dla ogromnej liczby ludzi, w tym dla krajów rozwijających się. Do 2017 r. telefonów komórkowych było ponad pięć razy więcej niż telefonów stacjonarnych; w niektórych krajach jest więcej telefonów komórkowych niż ludzi. Dla wielu osób, których nie stać na komputer osobisty, a nawet kawiarenkę internetową, telefony komórkowe są głównym sposobem łączenia się z Internetem. Mobilny dostęp do Internetu jest szczególnie ważny w krajach rozwijających się, gdzie wiele krajów nigdy nie stworzyło skutecznych systeów telefonii stacjonarnej. Na całym świecie młodzi częściej korzystają z mobilnego Internetu niż ich starsi. Internet mobilny znacznie zwiększa atrakcyjność sieci, dodając jej elastyczność i wygodę oraz ułatwiając rozwój i korzystanie z usług opartych na lokalizacji. Wiadomości tekstowe stały się preferowanym środkiem komunikacji dla ogromnej rzeszy ludzi, a Twitter nadał zupełnie nowy wymiar mediom społecznościowym. Rozwój mobilnego Internetu rodzi również nowe problemy, takie jak kwestie interoperacyjności, niskie prędkości wysyłania i pobierania oraz obawy dotyczące bezpieczeństwa i prywatności. Przenośny Internet, łącza szerokopasmowe i IoT przecinają się w postaci Internetu do noszenia. Przykłady obejmują (a) inteligentne zegarki, które monitorują bicie serca i inne dane biometryczne (np. Fitbit i Jawbone); (b) elegancka odzież i biżuteria; c) komputery noszone przy ciele; (d) cyfrowe buty, które liczą kroki; e) przyciski napadowe i kamery do noszenia; f) bransoletki termiczne; (g) Google Glass, które zanurza użytkowników w rzeczywistości rozszerzonej; h) "słuchawki", czyli małe urządzenia noszone w uchu w celu dostarczania użytkownikom informacji w czasie rzeczywistym; oraz (i) nawet urządzenia do noszenia dla zwierząt domowych (np. FitBark, zaprojektowane w celu ograniczenia niesfornych i destrukcyjnych zachowań psów). Kolejną niedawną zmianą jest stopniowy rozwój Sieci Semantycznej, czasami nazywanej Web 3.0, zaproponowany przez Bernersa-Lee i W3C w 2001 roku. Sieć Semantyczna znacznie przyspieszyłaby automatyczne wyszukiwanie, czyniąc dane sieciowe bardziej czytelnymi maszynowo. Podstawową ideą Web 3.0 jest zdefiniowanie struktury danych i łączy zestawy danych w celu promowania bardziej efektywnej automatyzacji, integracji i ponownego wykorzystania w różnych aplikacjach. Oczekuje się, że sieć semantyczna zwiększy, a nie zastąpi sieć WWW, czyniąc ją bardziej wydajną dzięki wykorzystaniu mocy sztucznej inteligencji. Być może najdalej idącym zestawem zmian w niedawnej ewolucji Internetu był rozwój mediów społecznościowych. Witryny sieciowe, takie jak Friendster, LinkedIn (uruchomiony w 2003 r.), Myspace (założony w 2003 r. przez Toma Andersona i Chrisa DeWolfe′a) oraz Facebook powstały na początku XXI wieku. Facebook (założony w 2004 roku przez Marka Zuckerberga) jest zdecydowanie najpopularniejszą witryną sieciową na świecie, z ponad 1,8 miliarda użytkowników pod koniec 2016 roku, czyli 15% populacji planety: Gdyby Facebook był krajem, byłby na świecie trzeci największy. Inne firmy społecznościowe to Reddit (2005), Twitter (2006) i Instagram (2010). W Rosji i krajach sąsiednich popularna jest sieć Kontakte. Chiny promują swój rodzimy system Qzone, podczas gdy w Brazylii niepodzielnie króluje Zing. Istnieją również dziesiątki innych mniejszych witryn, takich jak Maktoob (w świecie arabskim), hi5 .com (Mongolia) i Habbo (Finlandia). Niektóre sieci społecznościowe mają na celu znalezienie romantycznych partnerów (np. Match.com), podczas gdy inne, takie jak YouTube, umożliwiają udostępnianie treści cyfrowych wszystkim, w tym nieznajomym o podobnych poglądach. Niektórzy twierdzą, że media społecznościowe zmieniły to, co to znaczy być człowiekiem: Zamiast autonomicznej jednostki centralnej dla zachodnich koncepcji podmiotu ludzkiego, Internet stworzył ja sieciowe, które odnosi się do bycia tak zanurzonym w cyfrowych mediach społecznościowych, że tożsamość online , osobowość i reputacja są tak samo ważne w życiu człowieka, jak ich odpowiedniki offline. Sieciowe ja zazwyczaj żyją w centrum sieci cyfrowych powiązań, które wiążą przestrzeń w złożony i często nieprzewidywalny sposób, tak że konwencjonalne geografie codziennego życia mają ograniczone znaczenie dla zrozumienia ich poglądów i zachowań. Ogromne zwiększenie ludzkiej rozciągliwości oferowane przez więzi telemedialne doprowadziło do daleko idącej redefinicji jaźni. Ponieważ sieci społecznościowe w coraz większym stopniu przechodzą od serii powiązań jeden do jednego do sieci połączeń jeden do wielu, znaczenie słabych więzi wzrosło. W konsekwencji struktura i rytmy życia codziennego uległy znacznemu skomplikowaniu. Wzrost liczby użytkowników Internetu na całym świecie wzbudził rosnące obawy związane z przepaścią cyfrową lub społecznymi i przestrzennymi dysproporcjami w dostępie do Internetu. W miarę mnożenia się zastosowań i zastosowań Internetu koszty ponoszone przez osoby, którym odmówiono dostępu, odpowiednio rosną. Dokładnie w tym historycznym momencie, na którym opiera się współczesny kapitalizm technologii cyfrowych w bezprecedensowym stopniu, duże rzesze osób pozbawionych praw ekonomicznych są odcięte od cyberprzestrzeni. Dla wielu ekonomicznie i politycznie zmarginalizowanych populacji - znanej litanii biednych, starszych, niewykształconych i mniejszości etnicznych - cyberprzestrzeń jest po prostu niedostępna. Dostęp i użytkowanie to wprawdzie niejasne terminy, które obejmują szereg znaczeń, w tym możliwość logowania się w domu, w pracy, w szkole lub w kafejce internetowej. Bardziej przydatne może być omówienie stopniowania poziomów dostępu niż po prostu omówienie tych z dostępem i bez dostępu, chociaż może być trudno znaleźć szczegółowe dane, które umożliwiłyby tego typu analizę. Wskaźniki klasowe, takie jak dochód i wykształcenie, są silnie skorelowane z dostępem do Internetu i korzystaniem z niego, a wiek odgrywa kluczową rolę: osoby starsze są najmniej skłonne do korzystania z Internetu. W wielu miejscach płeć jest również ważna: w Ameryce Północnej podział ze względu na płeć zniknął, ale w Europie utrzymuje się, aw krajach rozwijających się jest wyraźny. Najnowsze badania przepaści cyfrowej obejmowały rolę języka, biegłości technicznej, niepełnosprawności i wieku. Podczas gdy zdecydowana większość populacji w krajach rozwiniętych gospodarczo korzysta z Internetu, w tym z niemal powszechnych stawek w Skandynawii, wskaźniki penetracji są znacznie niższe w krajach rozwijających się (ale rosną skokowo). Wskaźniki penetracji Internetu (odsetek osób z dostępem) wśród głównych regionów świata wahają się od zaledwie 1% w niektórych częściach Afryki do nawet 98% w Skandynawii. Oprócz międzynarodowych rozbieżności w dostępie, korzystanie z Internetu odzwierciedla również różnice między obszarami wiejskimi a miejskimi w poszczególnych krajach. Wszędzie duże ośrodki miejskie wykazują zwykle wyższy wskaźnik łączności niż obszary wiejskie. Wydaje się, że przepaść cyfrowa może pogłębiać, a nie tylko odzwierciedlać nierówności społeczne. Kolejny rozdział w najnowszej historii Internetu dotyczy cenzury. Internet rozwinął się na tyle, że stanowi realne zagrożenie dla państw dyktatorskich, ponieważ umożliwia jednostkom obejście ścisłej kontroli rządu nad mediami. Zasadniczo cenzura obejmuje kontrolę nad dostępem, funkcjonalnością i zawartością Internetu. Motywacją do cenzurowania Internetu jest tłumienie krytyki państwa, ograniczanie rozpowszechniania idei uznawanych za heretyckie lub świętokradzkie, ochrona własności intelektualnej oraz prześladowanie mniejszości etnicznych czy seksualnych. W cenzurze rządowej może działać wiele powodów i motywacji, gdy jest ona przeprowadzana przez wiele organów rządowych, które realizują różne strategie cenzury. Cenzura rządowa różni się pod względem zakresu (lub zakresu tematów) i głębokości (lub stopnia interwencji), przy czym niektóre rządy zezwalają na prawie nieskrępowany przepływ informacji, a inne nakładają ścisłe ograniczenia na to, co można oglądać. W XXI wieku rozwój chińskiego Internetu to kolejny znaczący wymiar. W połowie 2017 roku Chiny miały ponad 738 milionów internautów, największą taką populację na świecie. Biorąc pod uwagę szybki wzrost wielkości i bogactwa chińskiego rynku, pojawiły się takie usługi jak Baidu, Alibaba czy Tencent. Co więcej, państwo chińskie wdrożyło potężny system cenzury, znany nieformalnie jako Wielki Firewall. Wreszcie, w ostatnich latach nastąpiły również zmiany w strukturze regulacyjnej Internetu. W 2006 r. podczas Światowego Szczytu Społeczeństwa Informacyjnego powołano Internet Governance Forum, wielostronne podejście do zarządzania cyberprzestrzenią. W 2016 roku administracja Obamy przekazała kontrolę nad IANA sektorowi prywatnemu. Jednocześnie Chińczycy zaczęli wywierać wpływ na standardy internetowe, dążąc do wyparcia Stanów Zjednoczonych i forsując model chińsko-centryczny, bardziej

Konsekwencje Internetu

Biorąc pod uwagę, że twórcza destrukcja jest długotrwałą i ciągłą cechą kapitalizmu, warto pamiętać, że Internet nie tylko stworzył nowe zjawiska, ale także unicestwił inne. Na przykład biura podróży bardzo ucierpiały, podobnie jak dziennikarstwo drukowane, pisanie listów, sklepy muzyczne, książki telefoniczne, publiczne automaty telefoniczne, albumy fotograficzne, a także, jak twierdzą niektórzy, czas wolny, kontakty osobiste i uprzejmość. Równie niepokojące jest to, że Internet może generować subtelne, ale wszechobecne zmiany w strukturze mózgu, w tym skrócenie czasu skupienia uwagi. Wzrosła liczba wirusów, oprogramowania szpiegującego, oprogramowania ransomware i innych rodzajów złośliwego oprogramowania. Kryptowaluty takie jak Bitcoin (wprowadzony w 2008 roku) mogą destabilizować systemy finansowe. Wreszcie, istnieje również "ciemna sieć", obejmująca oszustwa internetowe, kradzież tożsamości i mowę nienawiści. Internet jest jednocześnie zjawiskiem technologicznym, społecznym, politycznym, kulturowym i geograficznym, którego reperkusje zmieniają świat. W miarę rozwoju zmieniał się, na przykład dodając dźwięk i wideo, komercjalizując się i dostosowując do telefonów komórkowych i tabletów oraz dodając coraz większe ilości treści w językach innych niż angielski. Ogromnie przyspieszyła możliwość wyszukiwania i rozpowszechniania informacji, zmniejszając niepewność w wielu dziedzinach życia społecznego. Ponieważ coraz więcej osób znajduje drogę do Internetu, ponieważ zmiany technologiczne postępują nieprzerwanie i pojawia się coraz więcej nieprzewidzianych aplikacji, istnieją wszelkie powody, by sądzić, że historia Internetu jest niedokończona. tolerancyjny wobec cenzury.



Powrót




[ 155 ]