Nauka Obywatelska



Naukę obywatelską można ogólnie zdefiniować jako działalność, w ramach której członkowie społeczeństwa dobrowolnie angażują się w badania naukowe z profesjonalnymi naukowcami w celu rozwiązania problemów. Chociaż poziom zaangażowania ze strony uczestników różni się w zależności od projektu oraz poziomu umiejętności i zainteresowania wolontariuszy, najważniejszą cechą nauki obywatelskiej jest udział społeczeństwa w autentycznych badaniach naukowych. Nauka obywatelska jako metoda badawcza dobrze nadaje się do wielu dyscyplin, w tym astronomii, ekologii, biologii, nauki o atmosferze, geografii i nauk o środowisku. W tych projektach uczestnicy działają jako naukowcy-amatorzy, przyczyniając się do gromadzenia, kategoryzacji i/lub analizy danych, a czasem także odgrywając rolę w ich rozpowszechnianiu i wykorzystaniu. Nieformalna edukacja naukowa jest często ukrytym, jeśli nie wyraźnym, celem obywatelskich projektów naukowych. Większość z nich oferuje jakąś formę szkolenia lub materiałów edukacyjnych, a wiele z nich daje nienaukowców możliwość krytycznego zaangażowania się w metodę naukową. Pomimo potencjalnych korzyści, nauka obywatelska nie jest powszechnie akceptowana jako ważna forma badań naukowych, a niektórzy naukowcy uważają, że dobra nauka wymaga umiejętności, które mogą wytworzyć tylko lata szkolenia zawodowego. Jednak postęp technologiczny zwiększył dokładność i wiarygodność danych gromadzonych przez wolontariuszy, a możliwość wniesienia przez uczestników znaczącego wkładu jest w dużej mierze ułatwiona dzięki Internetowi i powiązanym technologiom. Smartfony i mobilne urządzenia komputerowe odgrywają kluczową rolę w gromadzeniu danych, formularze przesyłania online mają wbudowane funkcje walidacji, a przetwarzanie w chmurze oraz wizualizacja i analiza danych online nie tylko zapewniają naukowcom środki do przetwarzania i udostępniania dużych ilości danych, ale także zapewniają publicznych z możliwościami eksploracji danych. Nauka obywatelska będzie prawdopodobnie nadal zyskiwać na znaczeniu i akceptacji, ponieważ postęp technologiczny sprawia, że dokładne metody gromadzenia danych stają się dostępne dla opinii publicznej, a także ze względu na zapotrzebowanie na wielkoskalowe zbiory danych do analizy globalnych zmian staje się bardziej nagląca. Ten wpis rozpoczyna się od historii nauki obywatelskiej i roli technologii w jej ewolucji, po czym następuje przegląd typologii nauki obywatelskiej. Kończy się badaniem niektórych korzyści i ograniczeń tego podejścia do naukowego badania i podając kilka przykładów projektów nauki obywatelskiej.

Historia nauki obywatelskiej

Chociaż termin nauka obywatelska pojawił się dopiero w drugiej połowie XX wieku, nauka od dawna jest napędzana wysiłkami amatorów. Przed profesjonalizacją nauki pod koniec XIX wieku, prawie wszyscy eksperci naukowi żyli w innym zawodzie, a wielu nie miało wykształcenia zawodowego. Chociaż często jest to wyłączny przywilej męskiej klasy wyższej, większość badań naukowych została przeprowadzona przez ekspertów-amatorów, których obserwacje są ważną częścią naszego współczesnego rozumienia środowiska naturalnego. Na przykład mnich augustianów Gregor Mendel odkrył podstawowe zasady genetyki w eksperymentach, które przeprowadził w szklarni w swoim klasztorze. Ewolucyjne teorie Karola Darwina były w dużej mierze oparte na jego obserwacjach jako nieopłacanego przyrodnika pływającego na pokładzie Beagle w latach 30. XIX wieku. Niektórzy eksperci-amatorzy zatrudniali nawet niespecjalistów do pomocy w zbieraniu obserwacji; był to powszechny sposób gromadzenia kolekcji okazów przyrodniczych o dużym zasięgu geograficznym. Nauka obywatelska wniosła znaczący wkład zwłaszcza w dziedzinie historii naturalnej, archeologii i astronomii, gdzie umiejętności obserwacji mogą być większym atutem niż drogi sprzęt. W rzeczywistości starsze dane od przyrodników-amatorów służą często do wypełniania luk w zapisie historycznym. Współcześni badacze wykorzystali zapisy, które poeta i pisarz Henry David Thoreau przechowywał z Walden Pond w połowie XIX wieku oraz zapisy prowadzone przez Meriwether Lewisa i Williama Clarka podczas ich zachodniej ekspedycji na początku XIX wieku, aby zrekonstruować fenologię historyczną w Stanach Zjednoczonych .

Nowoczesna nauka obywatelska

Nauka obywatelska w formie angażowania społeczeństwa na dużą skalę do gromadzenia danych rozpoczęła się pod koniec XIX i na początku XX wieku wraz z postępem technologicznym, który przyspieszył komunikację na duże odległości geograficzne. Amerykański Narodowy Program Współpracy Obserwatorów Służby Pogodowej rozpoczął zbieranie danych meteorologicznych od obserwatorów nieprofesjonalnych w 1891 roku. Rozwój sieci obserwatorów w Stanach Zjednoczonych był zależny od ekspansji sieci kolejowej na zachód oraz rozwoju linii telegraficznych, które zwykle towarzyszyły kolej była integralną częścią transmisji danych meteorologicznych z rozproszonej geograficznie sieci obserwatorów. National Audubon Society rozpoczęło w 1900 r. bożonarodzeniowy spis ptaków, najdłuższy na świecie spis dzikich zwierząt. Zbieranie danych opierało się na dostarczaniu pocztą odręcznych formularzy obserwacyjnych z sieci wolontariuszy i ostatecznie przekształciło się w technologie komputerowe. Obecnie cyfrowa transkrypcja tych form poszerza zapis historyczny.

Internet i nauka obywatelska

Wraz z rozwojem technologii te i inne podobne programy rozszerzyły swój zakres i możliwości. Na przełomie XX i XXI wieku nastąpiła eksplozja projektów nauki obywatelskiej, napędzana przez rozwój i rozprzestrzenianie się Internetu i powiązanych technologii. Rozwój nowoczesnych komputerów i rozpowszechnianie Internetu jako globalnej infrastruktury dostarczyły niezbędnych narzędzi komunikacyjnych dla rozwoju nauki obywatelskiej. Zwiększenie możliwości nawiązywania kontaktów zarówno dla naukowców, jak i społeczeństwa zwiększyło zasięg i dostępność obywatelskich projektów naukowych; smartfony i komputery mobilne zwiększyły zarówno możliwości pomiarów in situ, jak i ich dokładność; oraz internetowe interfejsy programowe i przetwarzanie w chmurze rozszerzyły możliwości zarządzania i przetwarzania danych. Zwiększone możliwości tworzenia sieci i wymiany informacji zwiększyły zdolność naukowców do dotarcia do zainteresowanych osób, a rozpowszechnienie dostępności Internetu zwiększyło możliwości uczestnictwa. Projekty mogą teraz z łatwością angażować publiczność na niewyobrażalną wcześniej skalę. Zestawy danych kontynentalnych, a nawet globalnych istnieją częściowo dzięki obywatelskim projektom naukowym. Nowoczesne technologie komunikacyjne, takie jak smartfony, fora internetowe, poczta e-mail i media społecznościowe, pomagają łączyć naukowców, uczestników i zasoby oraz przyspieszać tworzenie zespołów. Narzędzia te ułatwiają rozpowszechnianie informacji o projektach i ich wnioskach, a także mogą stanowić forum do dyskusji nad zagadnieniami badawczymi między naukowcami a obywatelami. Integracja Internetu z niemal każdym aspektem codziennego życia oraz wszechobecność mediów społecznościowych znacznie zwiększyły widoczność i zasięg obywatelskich projektów naukowych. Szybka komunikacja i wymiana danych w rozproszonych przestrzennie sieciach umożliwiają osobom o podobnych zainteresowaniach wzajemne odnalezienie się, a Internet zwiększył dostępność obywatelskich projektów naukowych dla wielu osób. W ten sposób uczestnictwo w projektach dotyczących nauki obywatelskiej stało się możliwe dla szerokiego wachlarza grup, w tym grup wcześniej wykluczonych, takich jak osoby z umiejętnościami czytania i liczenia, które nie opierają się na tekście. Powszechna dostępność technologii internetowych również uprościła i obniżyła koszty tworzenia projektów, a także zwiększyła dostępność i dostęp do naukowo uzasadnionych protokołów i najlepszych praktyk. Grupy mogą tworzyć projekty dotyczące lokalnych problemów, a społeczności mogą projektować projekty w celu gromadzenia danych w celu zaspokojenia określonych potrzeb decyzyjnych. Rekrutacja na studia może dotrzeć do większej liczby osób mniejszym kosztem. Powszechna dostępność smartfonów i innych mobilnych urządzeń komputerowych znacznie zwiększyła możliwości raportowania opinii publicznej. Telefony komórkowe i inne urządzenia przenośne, takie jak komputery typu tablet, są przekształcane w osobiste przyrządy pomiarowe, które zapewniają dokładne i precyzyjne pomiary i jednocześnie rejestrują metadane, takie jak czas i miejsce obserwacji. Urządzenia przenośne mogą być również używane jako czujniki pasywne, rejestrujące dane przy minimalnym wysiłku ze strony uczestnika. Ciągły rozwój technologii przetwarzania mobilnego i rosnąca dokładność Globalnych Systemów Pozycjonowania oraz ich włączenie do telefonów komórkowych zwiększyły udział i poprawiły jakość danych gromadzonych za pośrednictwem usług lokalizacyjnych, które dokonują pomiarów w czasie rzeczywistym. Uczestnicy mogą przesyłać zdjęcia z geotagami i zbierać dane na miejscu. Projekty mogą również wykorzystywać lub tworzyć aplikacje obsługujące systemy informacji geograficznej w celu ułatwienia i poprawy gromadzenia danych. Dokładność i precyzja sprzętu pomiarowego ma kluczowe znaczenie dla zdolności uczestników do wykonywania wiarygodnych pomiarów. Aplikacje na smartfony (apps) mogą dostarczać dostosowane do potrzeb dzienniki pomiarów i obserwacji, a zdjęcia z geotagami mogą dokumentować i potwierdzać obserwacje gatunków. Metadane lokalizacyjne mogą służyć do rozwiązywania problemów związanych z próbkowaniem. Aplikacje i systemy wprowadzania danych online oferują stosunkowo niedrogie i łatwe do wdrożenia metody standardowego gromadzenia danych, dzięki którym uczestnictwo jest szybsze, łatwiejsze i dokładniejsze. Rozwój bezprzewodowych sieci czujników i gier online jeszcze bardziej zwiększa potencjał nauki obywatelskiej. Rozwój Internetu i sieci dostarczył również narzędzi niezbędnych do zarządzania i analizy wielkoskalowych zbiorów danych. Malejące koszty komputerów i urządzeń mobilnych, wraz z rosnącą dostępnością szybkich łączy internetowych oraz niedrogim przechowywaniem i przetwarzaniem danych komputerowych, znacznie zwiększyły odsetek nienaukowców, którzy mają dostęp do potężnych urządzeń obliczeniowych w domu. Uczestnicy projektów z zakresu nauki obywatelskiej mogą przechowywać i przetwarzać duże ilości danych na swoich komputerach osobistych bez wpływu na ich osobistą działalność. Postępy obliczeniowe i usługi sieciowe znacznie rozszerzyły możliwości zarządzania danymi i przetwarzania oraz zwiększyły dostępność danych. Wprowadzanie danych online ułatwia agregację i kompilację danych oraz umożliwia analizę w czasie rzeczywistym. Przetwarzanie w chmurze zapewnia wygodne i elastyczne zasoby geograficznie rozproszonym sieciom naukowców i uczestników.

Typologie

Projekty z zakresu nauki obywatelskiej można rozróżnić pod względem rodzaju na podstawie celów badawczych i wymaganego od uczestników poziomu uczestnictwa. Chociaż istnieją różne typologie oferowane przez uczonych, pewne podstawowe, choć nakładające się, cechy są oczywiste. Cele badawcze projektu wpłyną na wymagania dotyczące umiejętności i wiedzy uczestników, a także niezbędną strukturę danych. Rola uczestnika może być aktywna lub pasywna, przy czym ta ostatnia zwykle mieści się pod płaszczykiem crowdsourcingu lub dobrowolnej informacji geograficznej. Niektóre formy nauki obywatelskiej są w dużym stopniu uzależnione od technologii informacyjnych i komunikacyjnych w celu ułatwienia gromadzenia danych w sieciach rozproszonych. Ten model nauki obywatelskiej jest często nazywany crowdsourcingiem. Projekty te różnią się poziomem zaangażowania poznawczego wymaganego od wolontariuszy. Na najniższym poziomie znajdują się projekty wykorzystujące obliczenia dobrowolne lub rozproszone. Projekty te, często wykorzystywane w dziedzinie astronomii, zużywają niewykorzystane zasoby obliczeniowe wolontariuszy do analizowania ogromnych ilości danych, jednocześnie wymagając niewiele od uczestnika poza instalacją aplikacji. SETI@home jest jednym z najbardziej znanych projektów obliczeń rozproszonych i wykorzystuje komputery uczestników do analizy danych z radioteleskopu pod kątem oznak życia pozaziemskiego. Następny poziom jest czasami nazywany myśleniem ochotniczym lub rozproszonym. Uczestnicy są często proszeni o klasyfikację lub inną analizę danych za pośrednictwem strony internetowej. Wiele projektów wymaga, aby dane były klasyfikowane w ten sam sposób przez minimalną liczbę obserwatorów, aby zmniejszyć błąd. Tego typu projekty zazwyczaj wymagają szkolenia on-line, zanim uczestnik będzie mógł dokonać klasyfikacji. W projektach polegających na wykrywaniu partycypacyjnym wolontariusze mogą zostać poproszeni o aktywne zbieranie informacji za pomocą urządzeń mobilnych, na przykład przesyłanie zdjęć z geotagami za każdym razem, gdy napotykają określone zjawisko lub używanie mikrofonu do pomiaru ekspozycji na hałas podczas codziennego życia. Tego rodzaju gromadzenie danych mobilnych można również określić jako dobrowolną informację geograficzną, ponieważ lokalizacja jest wyraźnie powiązana z obserwacją. Ponieważ projekty te opierają się głównie na oprzyrządowaniu, jeśli znane są charakterystyki czujników, jakość danych jest względnie kontrolowana. Tradycyjne projekty nauki obywatelskiej obejmują badanie pytań badawczych stawianych przez profesjonalnych naukowców poprzez gromadzenie danych przez członków społeczeństwa, na ogół w szerokim zakresie geograficznym i dłuższych skalach czasowych. Poziom zaangażowania uczestnika można opisać jako przyczynkowy i występuje znaczne zaangażowanie poznawcze. Wolontariusze mogą zostać poproszeni o zidentyfikowanie gatunków i odnotowanie ich obecności lub nieobecności lub dokonanie innych aktywnych pomiarów. Naukowcy zadają pytania i opracowują projekt, a uczestnicy wnoszą obserwacje i dane, działając jako naukowcy-amatorzy. Często tego typu projekty wiążą się z przestrzeganiem określonych protokołów gromadzenia danych i nieformalnej edukacji uczestników, a podnoszenie świadomości naukowej i środowiskowej jest zwykle cenionymi konsekwencjami. Ten model nauki obywatelskiej okazał się najbardziej produktywny w generowaniu recenzowanych publikacji. Wiele projektów nauki obywatelskiej jest poświęconych ochronie lub zarządzaniu środowiskiem. Działania monitorujące prowadzone przez wolontariuszy mogą obejmować ocenę stanu lub oddziaływania, a czasami są częścią strategii zarządzania adaptacyjnego w społecznościach lokalnych. Tego typu projekty mają na celu wspieranie zarządzania środowiskiem poprzez angażowanie członków społeczeństwa w tworzenie wiedzy naukowej wspierającej podejmowanie decyzji środowiskowych. Rutynowy monitoring ekologiczny i środowiskowy realizowany przez takie projekty może dostarczyć ważnych danych wyjściowych do oceny zmian. Dane te mogą uzupełniać dane agencji rządowych odpowiedzialnych za monitoring środowiska. Nauka obywatelska oparta na współpracy stawia uczestników i naukowców na stosunkowo równych zasadach. W przeciwieństwie do większości innych typów projektów dotyczących nauki obywatelskiej, w tych projektach społecznościowych problemy są często definiowane przez uczestników. Zazwyczaj są to projekty lokalne, lokalne i zorientowane na działanie. Mieszkańcy społeczności mogą spotykać się, aby zająć się często występującymi problemami ekologicznymi lub zdrowotnymi, a naukowcy działają jako pomocnicy, umożliwiając członkom społeczności zbieranie ważnych naukowo danych w celu gromadzenia dowodów w celu opracowania planów działania i zarządzania. Zarówno monitorowanie społecznościowe, jak i zarządzanie społecznościowe mają na celu zaangażowanie obywateli jako aktywnych interesariuszy w środowiskach lokalnych. Cechą charakterystyczną tego typu projektów jest to, że zaczynają się od zainteresowań uczestników. Naukowcy współpracują następnie z uczestnikami w celu znalezienia rozwiązań problemów istotnych dla społeczności poprzez proces naukowy. Tego typu projekty mogą zwiększyć kapitał społeczny i inkluzywność lokalnego podejmowania decyzji, jednocześnie wzmacniając zrozumienie i umiejętności naukowe. Rzeczywiście, tego typu projekty przyjmują, że nienaukowcy są w pełni zdolni do generowania ważnej wiedzy naukowej, jeśli przestrzegają standardów naukowych.

Korzyści z nauki obywatelskiej

Duże sieci naukowców obywatelskich mają zasadnicze znaczenie w gromadzeniu tego rodzaju wielkoskalowych danych istotnych dla zrozumienia problemów globalnych. Zrozumienie i ocena globalnych zmian wymaga zestawów danych o szerokich skalach czasowych i przestrzennych, których gromadzenie przez poszczególne zespoły naukowców jest często niemożliwe. Uczestnicy projektów dotyczących nauki obywatelskiej są prawie zawsze wolontariuszami i stanowią cenne źródło bezpłatnej siły roboczej i umiejętności, które umożliwiają gromadzenie danych na dużą skalę. Obywatelskie projekty naukowe rozdzielają wysiłki na wiele osób, pozwalając naukowcom odpowiedzieć na pytania, które są naglące potrzebą zrozumienia czynników napędzających i skutków globalnych zmian. Chociaż niektóre niezbędne dane można pozyskać za pomocą technologii teledetekcji, wiele rodzajów danych ekologicznych może pozyskać tylko duże zespoły badawcze. Nauka obywatelska zapewnia elastyczne ramy do rozwiązywania problemów ochrony przyrody na dużą skalę. W związku z tym projekty nauki obywatelskiej mogą często przyjmować bardziej odkrywcze podejście do obserwacji niż badania, które są bardziej oparte na hipotezach. Zapewnienie sieci wielu obserwatorów sprawia, że obywatelskie projekty naukowe są skutecznym narzędziem monitorowania ekosystemów i kwestii środowiskowych. Stosunkowo ciągłe obserwacje w czasie i przestrzeni pozwalają naukowcom zauważyć, kiedy system odbiega od pożądanego stanu i określić, które praktyki zarządzania przynoszą pożądane efekty. Ze względu na zaangażowanie dużej liczby obserwatorów publicznych projekty nauki obywatelskiej mają wyjątkową lokalizację do gromadzenia danych na temat krajobrazów społecznych, co czyni je cennym narzędziem do zrozumienia sprzężonych systemów człowiek-naturalny. Zbiory danych historycznych dotyczących nauki obywatelskiej można również łączyć z bieżącymi obserwacjami, aby zrozumieć czynniki i skutki zmian środowiskowych. Zrozumienie długoterminowego związku między funkcją i strukturą ekosystemu jest często utrudnione przez niepełny monitoring prowadzony przez naukowców i agencje rządowe. Nauka obywatelska ma potencjał, aby wypełnić takie luki w danych, a także zapewnić włączenie interesariuszy w proces zarządzania środowiskiem. Dedykowane zaangażowanie interesariuszy w połączeniu z potencjałem edukacyjnym projektów nauki obywatelskiej może przyspieszyć cele ochrony i zwiększyć akceptację zaleceń dotyczących zarządzania przez mieszkańców oraz zwiększyć prawdopodobieństwo długotrwałych zmian. Często wyraźnym celem projektów z zakresu nauki obywatelskiej jest nieformalne kształcenie uczestników i podnoszenie poziomu wiedzy naukowej. Projekty mają na celu poszerzenie wiedzy uczestników na temat procesu naukowego i środowiska poprzez interakcję z profesjonalnymi naukowcami i bezpośrednie zaangażowanie w badania naukowe. Często udostępniane są materiały edukacyjne, a uczestnicy mają szansę zdobyć przedmiot - konkretną wiedzę. Od obywateli często oczekuje się podejmowania decyzji dotyczących kwestii naukowych, które mają wpływ na ich życie osobiste, ich społeczności i politykę rządową. Jeśli brakuje podstawowego poziomu wiedzy naukowej, jednostki mogą nie być w stanie podejmować świadomych decyzji. Wykazano, że uczestnicy obywatelskich projektów naukowych mają większe zrozumienie naukowe i bardziej pozytywne nastawienie do nauki i środowiska niż ogół społeczeństwa. Podobnie obywatele na obszarach, na których zarządzanie jest oparte na społeczności, mogą być bardziej zaangażowani w lokalny proces decyzyjny. To zaangażowanie nienaukowców może zdemokratyzować proces podejmowania decyzji środowiskowych i zwiększyć wiarygodność decyzji. Zaangażowanie nienaukowców wpływa również na rodzaj zadawanych pytań badawczych i zwiększa kierunki badań, mając na uwadze szerokie problemy społeczne i zachęca do rozważenia perspektyw wolontariuszy. Współpraca z nienaukowcami zapewnia również dostęp do rodzajów wiedzy lokalnej i tradycyjnej, często wykluczonych z badań naukowych. Ponadto różnorodność środowisk i umiejętności pracujących nad projektem zwiększa prawdopodobieństwo innowacji i może ujawnić stronniczość i pomóc w ulepszaniu metod. Inkluzywność poszerza publiczną wiedzę na temat kwestii środowiskowych i może zapewnić rozgłos i zachęcać do dyskusji. Nauka obywatelska pomaga tworzyć lepiej poinformowaną opinię publiczną, otwierając potencjał demokracji deliberatywnej w nauce i zwiększając zaangażowanie opinii publicznej w społeczność naukową. Pomaga także wprowadzić naukowe perspektywy do życia publicznego. Z definicji nauka obywatelska może istnieć tylko w paradygmacie, w którym nauka została skonstruowana społecznie jako wyłączna domena zawodowych naukowców. Gdyby tak nie było, wszyscy, którzy prowadzili rygorystyczne badania naukowe, byliby uważani za naukowców, niezależnie od kwalifikacji organizacyjnych. Te kategorie struktury obywatelskiej i naukowej, która może uczestniczyć w tworzeniu wiedzy, debatach politycznych i procesach decyzyjnych. Nauka obywatelska kwestionuje dominację profesjonalnej wiedzy naukowej i próbuje stawić czoła marginalizacji alternatywnego wytwarzania wiedzy. Angażując się krytycznie w proces naukowy, obywatele mogą działać na rzecz demokratyzacji nauki i podejmowania decyzji. Nauka obywatelska może ujawnić założenia nieodłącznie związane z nauką normatywną i poszerzyć perspektywy rozważane w badaniach naukowych.

Ograniczenia nauki obywatelskiej

Nie ma zgody co do ważności nauki obywatelskiej jako metody badań naukowych. Podejrzenie nauki obywatelskiej ma swoje korzenie w przekonaniu, że dobra nauka wymaga poziomu dokładności, wiedzy i umiejętności, które są rozwijane dopiero w procesie stania się zawodowym naukowcem. Ponadto chęć zmniejszenia niepewności może prowadzić do odrzucenia danych generowanych w ramach obywatelskich projektów naukowych. Projekty obywatelskie stawiają poważne wyzwania związane z błędami i uprzedzeniami, które nie są łatwe do rozwiązania za pomocą tradycyjnych testów statystycznych. Błąd próbkowania można wprowadzić za pośrednictwem uczestników projektów nauki obywatelskiej. Uczestnicy prawdopodobnie różnią się wiedzą i umiejętnościami, co może wpływać na ich zdolność do dokładnego wykonywania i rejestrowania wymaganego zadania. Dodatkowo błąd systematyczny może być wprowadzony poprzez zróżnicowanie aktywności uczestników, takie jak nierówna częstotliwość obserwacji, nierównomierny rozkład przestrzenny obserwacji, nierówny wysiłek na obserwację i nierówna umiejętność obserwacji. Dane gromadzone za pośrednictwem nauki obywatelskiej są zasadniczo niejednorodne i prawdopodobnie naruszają podstawowe założenia niektórych testów statystycznych. Autokorelacja przestrzenna może zachodzić w oparciu o dostępność obszarów dla wolontariuszy. Na przykład w obywatelskich projektach naukowych, podczas zbierania danych na temat obecności i liczebności gatunków, obszary w pobliżu dróg mogą być nadmiernie próbkowane. Wzorce wysiłku wolontariuszy również zmieniają się w czasie, a lato, weekendy i wieczory mogą przynieść więcej obserwacji. Może to zwiększyć trudność w rozróżnianiu wzorców czasowych w badanym zjawisku. Zapewnienie wysokiej jakości danych ma kluczowe znaczenie w projektach obywatelskich i szkoleniach wolontariuszy, odpowiednim projektowaniu protokołów pobierania próbek i gromadzenia danych oraz właściwych procedurach zarządzania, które mogą pomóc w ograniczeniu błędów i stronniczości. Walidacja post hoc, filtrowanie i techniki statystyczne mogą jeszcze bardziej poprawić jakość. Metody te mogą rozwiązać problem nierównego próbkowania, nierównego wysiłku i błędu obserwatora. Istnieje wiele technik uwzględniania aktywności obserwatora oraz zmienności wewnątrz badania i wewnątrz obserwatora. Nowoczesne narzędzia obliczeniowe, takie jak uczenie maszynowe, przetwarzanie w chmurze i interfejsy internetowe, stale zwiększają użyteczność wielkoskalowych zbiorów danych dotyczących nauki obywatelskiej. Wyzwania związane z uczestnictwem są również obecne w przypadku projektów nauki obywatelskiej. Badania nad społeczno-ekonomiczną strukturą projektów z zakresu nauki obywatelskiej pokazują, że uczestnikami są najprawdopodobniej mężczyźni, przedstawiciele klasy średniej i wyższej oraz osoby z wyższym wykształceniem. Nie tylko może to spowodować zniekształcenie obserwacji danych i próbkowania, ale także przedstawia problemy związane z celami edukacji publicznej. Uczestnicy mogą również być zainteresowani tematyką projektu lub przynajmniej nauką i ogólnie środowiskiem, co zmniejsza prawdopodobieństwo, że nastąpi zmiana nastawienia do nauki i środowiska. Dywersyfikacja uczestnictwa może być trudna ze względu na ograniczone zainteresowanie, brak funduszy i inne wyzwania rekrutacyjne, takie jak ograniczony dostęp do informacji i możliwości nawiązywania kontaktów. Ponieważ obywatelskie projekty naukowe w coraz większym stopniu opierają się na nowych technologiach, takich jak smartfony, uczestnictwo w przepaści cyfrowej jest potencjalnie ograniczone.

Przykłady

W tej sekcji przedstawiono cztery przykłady projektów dotyczących nauki obywatelskiej. Chociaż nie są one w pełni reprezentatywne dla wszystkich typów projektów, które opierają się na danych gromadzonych przez wolontariuszy, dają jednak wyobrażenie o zakresie możliwości. eBird został uruchomiony w 2002 roku przez Cornell Lab of Ornitology i National Audubon Society i jest globalną siecią obserwacji ptaków. Obecność, nieobecność i liczebność gatunków ptaków są rejestrowane przez wolontariuszy, którzy przesyłają obserwacje za pośrednictwem interfejsu internetowego. W 2014 roku użytkownicy zgłosili prawie 61 milionów obserwacji na całym świecie. W system wbudowane są filtry jakości danych, które umożliwiają ekspertom przeglądanie oznaczonych danych i redukcję błędów. Dane są przechowywane w miejscu publicznym, dostępnej internetowej bazy danych, która umożliwia zarówno obywatelom, jak i naukowcom korzystanie z globalnego zbioru danych o gatunkach. Dane przyczyniają się również do tworzenia większych globalnych sieci bioróżnorodności. Galaktyczne Zoo, założone przez grupę astronomów uniwersyteckich, to obywatelski projekt naukowy online, który wymaga od uczestników klasyfikowania i opisywania obrazów galaktyk wykonanych w różnych przeglądach nieba. Strona uruchomiona w 2007 roku i do końca tego roku otrzymała ponad 50 milionów klasyfikacji. Każda galaktyka wymaga wielu niezależnych klasyfikacji, zanim klasyfikacja zostanie zaakceptowana jako ważna. Od 2016 r. dane z serwisu zostały wykorzystane w 53 recenzowanych publikacjach. Sukces Galaktycznego Zoo zrodził także witrynę Zooniverse, platformę internetową, która obsługuje dziesiątki obywatelskich projektów naukowych wykorzystujących podobne struktury badawcze. Program Global Learning and Observations to Benefit the Environment (GLOBE) to międzynarodowa sieć studentów, nauczycieli, naukowców i społeczeństwa, które gromadzą dane na temat procesów systemu Ziemi. Rozpoczęty jako wspólna inicjatywa amerykańskiego National Aeronautics and Space Administration, US National Oceanic and Atmospheric Administration oraz National Science Foundation, GLOBE dostarcza materiały edukacyjne i protokoły gromadzenia danych uczestnikom w 110 krajach na rok 2016. Zestawy danych obejmują pomiary w atmosferze, biosferze, hydrosferze i pedosferze i są gromadzone w publicznie dostępnej bazie danych zawierającej ponad 100 milionów pomiarów systemów ziemskich. Dane GLOBE są wykorzystywane do walidacji i kalibracji czterech misji satelitarnych Narodowej Agencji Aeronautyki i Przestrzeni Kosmicznej: (1) CALIPSO (obserwacje satelitarne Lidar-Aerosol i Infrared Pathfinder), (2) CloudSat, (3) GPM (Global Precipitation Measurement) oraz (4) SMAP (Wilgoć gleby aktywne pasywne). Virginia Save Our Streams to program monitorowania jakości wody w Isaac Walton League of America. Ponad 600 wolontariuszy zbiera dane na temat stanu strumienia, aby uzupełnić monitorowanie prowadzone przez agencje stanowe USA. Zgodnie z wymogami federalnej ustawy o czystej wodzie, plany oczyszczania muszą zostać opracowane przez stan dla każdego strumienia wymienionego jako uszkodzony. Save Our Streams zapewnia 12% danych niezbędnych do dokonania tych ustaleń. Od uczestników wymagane jest szkolenie wprowadzające, a ponadto zapewnione są protokoły opracowane przez naukowców. Uczestnicy zgłaszają swoje dane za pośrednictwem interfejsu online, które są następnie przeglądane na dwóch poziomach, zanim zostaną zaakceptowane.


Powrót

Nazwa domeny



Internet stał się wzajemnie połączonym światem miliardów hostów, które udostępniają różne zasoby i usługi. Nazwa domeny to ciąg znaków, który jednoznacznie identyfikuje zasób lub usługę w sieci Internet. Nazwy te są rejestrowane w globalnej rozproszonej bazie danych znanej jako system nazw domen (DNS). Ten wpis dotyczy przeznaczenia nazw domen, systemu DNS i jego historii, organizacji przestrzeni nazw domen, a także kilku powiązanych zagadnień, w tym rozpoznawania nazw domen, bezpieczeństwa i internacjonalizacji.

Cel nazw domen

Jako podłoże Internetu, stosy TCP/IP (Transmission Control Protocol/Internet Protocol) składają się z czterech warstw, wśród których warstwa internetowa definiuje adresy IP w celu zlokalizowania dowolnego hosta w Internecie. Z docelowym adresem IP każdy pakiet warstwy internetowej jest dostarczany niezależnie do miejsca docelowego na trasie. Sam adres IP nie jest jednak wystarczający do spełnienia wymagań komunikacji internetowej ze względu na następujące ograniczenia:

1. Adres IP nie jest przyjazny dla człowieka. Adres IP jest kodowany numerycznie przy użyciu 32 bitów (IPv4) lub 128 bitów (IPv6). Podczas gdy ten numeryczny adres jest odczytywalny maszynowo, brakuje mu semantyki przyjaznej dla człowieka i dlatego nie jest łatwy do zapamiętania. Tekstowa nazwa domeny nie jest ograniczona kodowaniem numerycznym, a zatem kompatybilne z dowolną semantyką przyjazną dla człowieka. Na przykład prawie żaden użytkownik nie powinien łatwo kojarzyć adresu IP, takiego jak 202.38.97.101, z firmą taką jak Microsoft, dlatego firma Microsoft wolałaby nazwę domeny, taką jak microsoft.com, zamiast adresu IP jako wpis do swojej witryny.

2. Sam adres IP ma niewystarczającą elastyczność i skalowalność. Adres IP zasadniczo nie wyraża nic więcej niż lokalizacja, podczas gdy wielowarstwowe nazewnictwo umożliwia przekierowanie w każdej warstwie. Na przykład żądanie użytkownika dotyczące nazwy domeny określonej usługi może zostać przekierowane do hosta w sposób dynamiczny: gdy usługa migruje do nowego hosta, użytkownik może nadal używać tej samej nazwy domeny do zlokalizowania usługi ze względu na zaktualizowane mapowanie między nazwą domeny a adresem IP. Często zdarza się, że usługa jest hostowana na wielu hostach. Sam adres IP nie może sam zagregować zestawu hostów, podczas gdy agregację można łatwo osiągnąć, konfigurując więcej niż jeden adres IP dla jednej nazwy domeny.

3. Wreszcie, nazwy domen mogą być ładowane z semantyką opartą na lokalizacji. Adres IP jest prawie niekompatybilny z semantyką administracyjną. Przestrzeń nazw domen ma odzwierciedlać relacje administracyjne między zasobami i usługami w Internecie. Natomiast adres IP nie pasuje do semantyki administracyjnej, ponieważ w przeciwnym razie byłby przeciążony.

Podsumowując, nazwa domeny zapewnia przyjazną dla człowieka nazwę umożliwiającą surfowanie po Internecie, zapewnia elastyczność i skalowalność funkcjonowania protokołu TCP/IP oraz dodaje semantykę administracyjną do nazewnictwa i adresowania w Internecie.

System nazw domen

Aby wesprzeć korzystanie z nazw domen, utworzono DNS w celu zarządzania przestrzenią nazw domen i tłumaczenia między nazwami domen a fizycznymi adresami IP. Gdy użytkownicy próbują uzyskać dostęp do zasobu lub usługi dostępnej w Internecie (np. witryny Google), zwykle używają nazwy domeny (np. http://www.google.com). Jednak urządzenie użytkownika musi zlokalizować serwer na podstawie jego fizycznego adresu IP, a nie nazwy domeny. DNS tłumaczy nazwy domen na fizyczne adresy IP, gdy zostanie o to poproszony. Adres IP podany przez DNS jest następnie wykorzystywany przez osobiste urządzenia użytkownika, aby dotrzeć do miejsca docelowego (np. serwer sieciowy Google).

Historia

We wczesnych latach sieci komputerowych, gdy sieć działała na kilku hostach, zwykle polegano na prostych plikach konfiguracyjnych do przeprowadzania translacji adresów. Jednak wkrótce okazało się, że to proste podejście było trudniejsze do skalowania w szybko rozwijającej się sieci, ponieważ utrzymywanie dużego pliku dla wielu hostów było ledwo dostępne. Poważny problem ze scentralizowanym zarządzaniem był dobrym powodem do poszukiwania rozproszonej architektury zarządzania. Advanced Research Projects Agency Network, która była poprzedniczką Internetu, jako pierwsza ukształtowała i wdrożyła koncepcję DNS w latach 80. XX wieku. W trzech prośbach o komentarze (RFC) - a mianowicie (1) RFC 799, (2) RFC 1034 i (3) RFC 1035 - ustandaryzowano internetowy DNS.

Organizacja przestrzeni nazw domen

DNS organizuje przestrzeń nazw domen w formie drzewa . Każdy węzeł w drzewie nazywany jest domeną. Domena składa się z zera lub więcej etykiet, a etykiety są oddzielone kropką w domenie. Na przykład "www.example.com" ma trzy etykiety, a mianowicie "www", "example" i "com". Domena podrzędna dołącza jedną etykietę do swojej domeny nadrzędnej w drzewie. Na przykład domena podrzędna "example.com" ma sufiks domeny nadrzędnej "com". Na szczycie drzewa znajduje się domena główna, która jest reprezentowana jako kropka. Istnieją domeny najwyższego poziomu (TLD), domeny drugiego poziomu i domeny niższego poziomu od korzenia w dół drzewa. W zależności od celu użycia domeny TLD są dwojakiego rodzaju: (1) ogólne domeny TLD (gTLD), takie jak com", "net", "org" i "edu" oraz (2) domeny TLD z kodem kraju (ccTLD) , na przykład "nas", "ca", "uk" i "de". Domeny gTLD są pierwotnie przeznaczone do celów ogólnych, takich jak wykorzystanie komercyjne dla "com" i wykorzystanie edukacyjne dla "edu". ccTLD to dwuliterowe kody określone w normie ISO 3166 i zarezerwowane dla określonych krajów lub regionów, takie jak "us" dla Stanów Zjednoczonych i "de" dla Niemiec. Każda domena w drzewie DNS jest zarządzana przez urząd domeny. Baliwat organu domeny może obejmować więcej niż jedną sąsiednią domenę w drzewie DNS. Na przykład, gdy drzewa DNS mają swoje domeny ujawnione przez "www .example1.com", "www.example2.com", "example1. com", "example2.com" i "com", wszystkie te domeny można przypisać do jednego organu domeny, a mianowicie "com". Wszystkie informacje znajdujące się na obszarze podległym organowi domeny są utrzymywane jako "strefa", która jest zwykle udostępniana na autorytatywnych serwerach DNS. W powyższym przykładzie "com" strefa "com" jest zdefiniowana jako autorytatywna dla czterech domen, a wierzchołkiem strefy jest "com", który znajduje się najwyżej w drzewie DNS spośród wszystkich domen w strefie. W ramach hierarchicznej organizacji organ domenowy może również delegować niektóre domeny w Baliwacie innej stronie. Jeśli tak, domeny te okazują się być dla organu domenowego domenami spoza Baliwatu. Na przykład strefa "com" może delegować "example1.com" oraz swoją domenę podrzędną "www.example1.com" do innego organu domeny, mianowicie organu domeny "example1.com"; następnie strefa "com" staje się autorytatywna tylko dla "www.example2.com", "example2.com" i "com", a strefa "example1 .com" jest tworzona jako autorytatywna dla "www.example1.com" " i "example1.com". Organem domenowym dla domeny głównej jest Internet Corporation for Assigned Numbers and Names (ICANN), która odpowiada za to od 1998 r. Zmiana organu domeny głównej zgodnie z modelem wielostronnym została zapoczątkowana w 2014 r. i nadal trwała w 2017. ICANN deleguje domeny gTLD kwalifikującym się kandydatom w drodze otwartego przetargu publicznego, podczas gdy domeny ccTLD są zarezerwowane administracyjnie i przypisane do odpowiednich krajów lub regionów. Akredytowany urząd gTLD i przypisany urząd ccTLD są oficjalnie nazywane rejestrem. Indywidualni abonenci domen są zwykle obsługiwani przez sprzedawców domen lub odsprzedawców, często innych niż akredytowane rejestry. Ci sprzedawcy lub sprzedawcy domen są zwykle nazywani rejestratorami.

Rozdzielczość nazw domen

Rozpoznawanie nazw domen obejmuje wiele elementów i stron w ekosystemie DNS. W modelu klient-serwer DNS zasadniczo składa się z dwóch elementów: (1) autorytatywnych serwerów nazw, które odpowiadają autorytatywnym danym na zapytania i (2) programy tłumaczące, które inicjują zapytania dotyczące zainteresowanych danych. Gdy użytkownicy wpisują nazwę domeny, na przykład "www.example.com", w pasku adresu przeglądarki, przeglądarka korzysta z prostej wersji narzędzia rozpoznawania nazw, często znanego jako narzędzie do rozpoznawania nazw, aby wyszukać odpowiedź na zapytanie. Narzędzie do rozpoznawania nazw pośredniczących zazwyczaj nie jest przeznaczone do rekurencyjnego przechodzenia przez drzewo DNS w celu uzyskania odpowiedzi. Zamiast tego jest lekki, oczekuje i interpretuje ostateczną odpowiedź. Ze względu na wydajność wyszukiwania, a program do rozpoznawania nazw skrótów może implementować buforowanie, tak aby najpierw przeszukiwał pamięć podręczną w poszukiwaniu odpowiedzi, a następnie wysyła zapytanie do rekurencyjnego programu rozpoznawania nazw, jeśli pamięć podręczna nie trafi. Rozwiązanie rekurencyjne często działa w sieci lokalnej lub przez dostawcę usług internetowych. Jego zadaniem jest obsługa zapytań z mechanizmu rozpoznawania kodu pośredniczącego i znajdowanie ostatecznej odpowiedzi w imieniu mechanizmu rozpoznawania kodu pośredniczącego. Wykorzystuje również buforowanie, aby ułatwić wychodzący ruch zapytań i poprawić opóźnienia zapytań. Gdy zapytanie przychodzące z mechanizmu rozpoznawania nazw pośredniczących nie trafia do pamięci podręcznej, wyzwalane jest oczekujące zapytanie skierowane do autorytatywnego serwera nazw. Rekurencja przez rekurencyjny program tłumaczący może kosztować dużo czasu w obie strony, prosząc o każdy odpowiedni autorytatywny serwer nazw następujący po drzewie DNS. Na przykład zapytanie o "www.example.com" jest najpierw przekazywane do domeny głównej, serwera głównego, który obsługuje wszystkie delegacje do TLD, który nie zna dokładnej odpowiedzi, ale zapewnia odesłanie do domeny com. Następnie rekursywny program tłumaczący wysyła zapytanie do serwera com i może również otrzymać skierowanie do domeny example.com. Wreszcie trzecie zapytanie jest wysyłane do serwera example.com, który zwraca ostateczną odpowiedź. Ostateczna odpowiedź jest następnie przekazywana do programu tłumaczącego kod pośredniczący. W tym momencie rozpoznawanie nazwy domeny jest zakończone. Minimalną informacją potrzebną rekurencyjnemu tłumaczowi są informacje o domenie głównej. Ta informacja jest nazywana wskazówką, która jest bezpiecznie pobierana poza pasmem i utrzymywana w rekurencyjnym tłumaczu. Należy zauważyć, że buforowanie może umożliwić rozpoczęcie rekursji od najbliższej znanej domeny do pytania zamiast do domeny głównej. Na przykład, jeśli serwer rekurencyjny ma już odwołanie do domeny com w pamięci podręcznej, może zapisać zapytanie o "www.example.com" w domenie głównej. Przeliczniki rekurencyjne działają lokalnie lub publicznie. Lokalny rekurencyjny program rozpoznawania nazw nie oferuje publicznie usługi rekurencyjnej. Na przykład użytkownicy zewnętrzni nie mają dostępu do rekurencyjnych programów tłumaczących w większości dostawców usług internetowych, którzy zamierzają obsługiwać tylko swoich lokalnych użytkowników. Publiczne rekurencyjne programy tłumaczące otwierają swoje usługi dla każdego w Internecie. Ten, kto chce korzystać z publicznego rekursywnego programu do rozpoznawania nazw, może po prostu skonfigurować swój serwer DNS tak, jak to jest w konfiguracjach maszyny.

Działanie serwera nazw

Dane DNS dotyczące strefy są zapisywane w pliku zwanym plikiem strefy. Plik strefy jest ładowany na autorytatywny serwer nazw w usłudze i używany do konstruowania odpowiedzi. Większość danych w strefie to opisywane przez rekordy zwane rekordami zasobów. Wspólne rekordy zasobów obejmują początek rekordu zasobu urzędu, rekord zasobu adresu (A) dla adresu IPv4 (32 bity) i zasób AAAA rekordu dla adresu IPv6 (128 bitów, czterokrotnie większy niż adres IPv4), rekord zasobu wymiany poczty i rekord zasobu serwera nazw. Aby zmniejszyć ryzyko awarii jednego punktu, w praktyce DNS często działa więcej niż jeden autorytatywny serwer nazw dla strefy. Wszystkie autorytatywne serwery nazw są wskazane w strefie z zestawem rekordów zasobów serwera nazw. Aby uprościć zarządzanie synchronizacją plików strefy między autorytatywnymi serwerami nazw, DNS definiuje serwer główny, który przechowuje oryginalną kopię pliku strefy i dystrybuuje ją do innych serwerów, a wszystkie serwery, których pliki strefy są przesyłane z serwera głównego, nazywane są serwery podrzędne. Synchronizacja stref między serwerem głównym a serwerem podrzędnym może odbywać się w trybie in-band lub out-of-band. DNS określa mechanizm transferu stref jako transfer wszystkich stref i przyrostowy transfer strefy. Aby dalej dystrybuować serwery nazw i optymalizować opóźnienia odpowiedzi, niektórzy operatorzy DNS używają technologii anycast. Anycast pozwala na wiele instancji dla jednego serwera nazw, który jest jawnie prezentowany w strefie DNS. Podobnie jak różne serwery nazw, instancje te mogą być rozmieszczone geograficznie ze względu na niezawodność i wydajność. Gdy użytkownik wyśle zapytanie do serwera nazw, zasady routingu przekierują zapytanie do najlepszej instancji obsługiwanej przez serwer nazw. Najlepsza instancja może być zdefiniowana według różnych metryk, ale w wielu przypadkach jest to ta, która ma najszybszy dostęp dla użytkownika. Dzięki technologii anycast instancje serwerów nazw dla domeny mogą z łatwością liczyć ponad 200, tak jak robią to główne serwery nazw. Instancje Anycast są emitowane globalnie lub lokalnie. Rozgłaszanie globalne oznacza, że instancja jest osiągalna z dowolnego miejsca w Internecie, a lokalna transmisja oznacza, że instancja jest dostępna tylko z ograniczonego obszaru lokalnego. Jak podano w strefie głównej, istnieje 13 serwerów głównych administrowanych przez 12 organizacji lub przedsiębiorstw. Niektóre serwery główne są hostowane w wielu instancjach; na przykład korzeń L jest dystrybuowany za pomocą anycast w 157 instancjach na całym świecie.

WHOIS

Rejestrując nazwy domen, rejestrujący są zobowiązani do podania danych identyfikacyjnych i kontaktowych, które mogą obejmować: imię i nazwisko, adres, adres e-mail, numer telefonu oraz kontakty administracyjne i techniczne. Informacje są określane jako informacje WHOIS i zarządzane przez rejestratorów i rejestrów. Zarówno rejestratorzy, jak i rejestry są związani umową z ICANN w celu zapewnienia terminowego, nieograniczonego i publicznego dostępu do dokładnych i kompletnych informacji WHOIS. Aby to zrobić, rejestratorzy i rejestry umożliwiają każdemu korzystanie z protokołu WHOIS do przeszukiwania swoich baz danych w celu znalezienia zainteresowanych informacji WHOIS.

Bezpieczeństwo DNS

Groźby


W latach 80. wczesny projekt DNS nie uwzględniał zbytnio jego bezpieczeństwa, ponieważ zakładano, że ludzie i organizacje surfujące po Internecie są godni zaufania. Ponieważ każdy w Internecie był tym, za kogo się podawał i zachowywał się zgodnie z wymogami, DNS miał działać bezpiecznie i bezproblemowo. Kiedy Internet przekształcił się w świat miliardów użytkowników i bilionów rzeczy, to zaufanie już nie istnieje. Zamiast tego DNS zapewnia lukratywny grunt dla nielegalnych działań. DNS został stworzony jako otwarta i rozproszona usługa do rozwiązywania domen, co sprawia, że jest coraz częściej ukierunkowany i wykorzystywany w e-przestępczości. Ataki oparte na DNS ewoluowały wraz z Internetem. Atakujący używają DNS jako potężnego narzędzia na dużą skalę broni do nikczemnych celów na kilka sposobów, jak omówiono w kolejnych podsekcjach.

Ataki on-wire

Atak "man-in-the-middle" jest najbardziej znanym rodzajem nadużycia lub niewłaściwego zachowania DNS. Atak tworzy fałszywe dane DNS i nakłania ofiarę do zaakceptowania ich jako autentycznych. Bez uwierzytelnienia w miejscu, ludzie nie mają pojęcia o wiarygodności wyników DNS, otwierając drzwi do ataku typu man-in-the-middle. Zatruwanie pamięci podręcznej to atak polegający na wstrzykiwaniu fałszywych danych do serwera buforującego DNS. Serwer buforowania DNS zaatakowany przez zatruwanie pamięci podręcznej zwróci fałszywe dane użytkownikom, którzy zostaną przekierowani na fałszywe serwery lub hosty. Serwer DNS opiera się na kilku prostych regułach dopasowywania, aby odfiltrować fałszywe odpowiedzi na oczekujące pytanie. Niektórzy atakujący zatruwający pamięć podręczną są w stanie podsłuchiwać ruch na serwerze ofiary, a tym samym odpowiednio tworzyć dane DNS przesyłane na serwer. Spreparowana odpowiedź DNS jest zgodna z regułami dopasowywania, aby była spójna z docelowym oczekującym pytaniem. Tak więc szpieg ma duże szanse powodzenia w zatruwaniu pamięci podręcznej. Niektórzy atakujący zatruwający pamięć podręczną nie mają dostępu do komunikacji między serwerem ofiary a docelowymi użytkownikami, więc napastnicy zewnętrzni muszą odgadnąć dane wymagane przez reguły dopasowywania, a tym samym generalnie mają niższy wskaźnik sukcesu niż atakujący na ścieżce. Odkryto jednak, że luka w zabezpieczeniach Kaminsky wykorzystuje proaktywne zapytania i zgadujące odpowiedzi dla pliku akceptowalnego wskaźnika sukcesu. W rundzie zatruwania pamięci podręcznej atakujący Kaminsky najpierw uruchamia otwarte zapytanie, a następnie tworzy podmuch prób odpowiedzi. Jeśli nie uda się zatruć pamięci podręcznej, atakujący może rozpocząć kolejną rundę zatruwania pamięci podręcznej i tak dalej, aż atak się powiedzie. Luka w zabezpieczeniach Kaminsky ujawnia krytyczne wady projektu DNS, ponieważ każdy atakujący z zewnątrz jest w stanie złamać zabezpieczenia serwera buforującego DNS. Serwery buforujące DNS dostępne przez sieci publiczne są szczególnie ryzykowne w przypadku luki Kaminsky.

Włamanie na konto

Niektóre ataki mają miejsce przed opublikowaniem danych DNS w Internecie. Takie ataki obejmują włamanie się na konto właściciela domeny i naruszenie danych właściciela domeny przechowywanych przez sprzedawców, rejestratorów i/lub rejestry. Dane DNS są rozdzielane między wiele stron, zanim zostaną opublikowane na autorytatywnych serwerach. Sprzedawcy, rejestratorzy i/lub rejestry są odpowiedzialni za przechowywanie danych właściciela domeny. Jeśli osoba atakująca może zhakować hasło do konta właściciela domeny na każdej ze stron, domena staje się podatny na kradzież.

Ataki wzmacniające DNS

Ataki wzmacniające DNS są wykorzystywane w zagrożeniach dla kogoś w Internecie, a nie jako składnik samego DNS. Atakujący fałszują zapytania DNS, tak jakby pochodziły z innego adresu, a mianowicie adresu celu ataku DDoS. Zapytania wyzwalające mogą być dość proste, na przykład "Jakie są prawidłowe rekordy zasobów witryny www.example.com?" Jeśli odpowiedź jest znacznie większa niż zapytanie, wzmocniona odpowiedź jest montowana do ataku DDoS po wysłaniu do celu, którego adres IP jest używany w fałszywych zapytaniach. Aby zmaksymalizować odpowiedzi, osoby atakujące często używają zapytań, które mają generować odpowiedzi z wieloma rekordami zasobów i/lub bardzo dużymi rekordami zasobów. Na przykład, gdy typ zapytania to "ANY", serwery DNS umieściłyby w odpowiedziach wszystkie prawidłowe rekordy zasobów odnoszące się do nazwy zapytania; gdy żądana jest podpisana strefa, odpowiedź może zawierać kilka dużych rekordów zasobów podpisu. Najbardziej oczywistym skutkiem ataków typu DNS amplifikacja jest odmowa usługi niewinnym użytkownikom, ponieważ zasoby systemowe są wyczerpane przez atakujących.

Tunelowanie DNS

Tunelowanie DNS to potajemny sposób wykorzystania DNS jako stosu komunikacyjnego do przesyłania ruchu. Zwykle składa się z (a) kontrolowanego urzędu domeny, który nasłuchuje zapytań DNS od klienta, oraz (b) klienta, który wysyła zapytania DNS dla domeny. Potajemne informacje między kontrolowanym urzędem domeny a klientem są kodowane w uzasadnionych zapytaniach i odpowiedziach DNS zgodnie z określonym protokołem znanym tylko obu stronom. Ponieważ DNS jest powszechnie otwartą usługą, pozwalającą każdemu z niego korzystać, jest mało prawdopodobne, aby został zablokowany przez zapory ogniowe i zasady filtrowania. Jednym ze sposobów wykorzystania tunelowania DNS jest zastosowanie go do dowodzenia i kontroli botnetu. Gdy klient zostanie zainfekowany wirusem, złośliwe oprogramowanie może ustanowić ukryty kanał między klientem a hostem kontrolującym i użyć tunelowania DNS do komunikacji.

Środki zaradcze

Rozszerzenia bezpieczeństwa DNS


Rozszerzenia bezpieczeństwa DNS (DNSSEC) to rozszerzenie oryginalnego protokołu DNS, którego celem jest zabezpieczenie procesu rozpoznawania DNS między klientem a autorytatywnym serwerem. Opiera się na kryptografii klucza publicznego, umożliwiając klientowi uwierzytelnienie źródła odpowiedzi, zweryfikowanie integralności odpowiedzi oraz uwierzytelnienie zaprzeczenia istnienia danych wskazane w odpowiedzi. Pierwszym jest upewnienie się, że odpowiedź rzeczywiście pochodzi z zamierzonego źródła, drugim jest upewnienie się, że odpowiedź nie została naruszona podczas przesyłania, a trzecim jest upewnienie się, że negatywna odpowiedź jest możliwa do zweryfikowania. Podstawową ideą jest to, że każda strefa generuje parę kluczy publiczny-prywatny z kluczem publicznym opublikowanym w strefie w rekordzie klucza DNS (DNSKEY) i kluczem prywatnym przechowywanym w tajemnicy. Każdy rekord zasobu w strefie jest podpisany kluczem prywatnym, tworząc rekord zasobu RRSIG zawierający uzyskany podpis. Klient najpierw otrzymuje rekord zasobu wraz z jego rekordem zasobu RRSIG oraz rekordem DNSKEY, a następnie weryfikuje podpis za pomocą klucza publicznego pobranego z rekordu DNSKEY. Proces weryfikacji strefy opiera się na założeniu, że klucz publiczny w rekordzie DNSKEY jest godny zaufania. Aby skutecznie i wydajnie zweryfikować klucz publiczny w strefie, DNSSEC wykorzystuje drzewo DNS jako podłoże. W przypadku dowolnej strefy skonfigurowanej jako kotwica zaufania przez klienta, każda domena poniżej strefy jest weryfikowana zgodnie z drzewem DNS. Aby zbudować łańcuch zaufania między strefą nadrzędną a strefą podrzędną, strefa podrzędna dzieli klucze na klucze podpisywania stref i klucze podpisywania kluczy (KSK). Klucze podpisywania strefy są używane do podpisywania wszystkich rekordów zasobów w strefie, a klucze KSK są używane wyłącznie do podpisywania kluczy. Przetrawiony KSK jest przesyłany do strefy nadrzędnej i podpisany przez strefę nadrzędną. W ten sposób klient jest w stanie zbudować kompletny łańcuch zaufania, zaczynając od kotwicy zaufania następującej po drzewie DNS. Aby umożliwić uwierzytelnioną odmowę istnienia, tworzony jest nowy typ rekordu zasobów, a mianowicie NSEC lub NSEC3, aby wskazać lukę między dwiema sąsiednimi nazwami domen w porządku kanonicznym. Odpowiedź negatywna jest konstruowana z rekordu NSEC/NSEC3 obejmującego nazwę zapytania i jego sygnaturę, dzięki czemu klient może zweryfikować negatywną odpowiedź. DNSSEC to ostateczne rozwiązanie ataków on-wire, takich jak zatruwanie pamięci podręcznej. Atakujący MitM w zasadzie nie mają możliwości manipulowania odpowiedzią chronioną przez DNSSEC, ponieważ bez klucza prywatnego strefy docelowej nie można utworzyć podpisu odpowiadającego fałszywym danym.

Łagodzenie po stronie serwera

Efektem ubocznym DNSSEC jest to, że rekordy związane z DNSSEC powodują, że odpowiedzi są znacznie większe niż wcześniej. Efekt wzmocnienia może zostać wykorzystany przez osoby atakujące wzmocnienie DNS. Środek zaradczy po stronie serwera został po raz pierwszy zaproponowany w Berkeley Internet Name Domain (BIND) w celu ograniczenia współczynnika odpowiedzi poprzez odrzucanie odpowiedzi przekraczających pasek lub minimalizację rozmiaru skróconej odpowiedzi. W implementacjach BIND ruch odpowiedzi kierowany na dowolny adres IP może być ograniczony przez szybkość. Po przekroczeniu maksymalnej szybkości nadmierne odpowiedzi są albo po prostu odrzucane, albo zastępowane minimalnymi skróconymi odpowiedziami. To ostatnie ma na celu skrócenie okna czasowego, które w przeciwnym razie mogłoby zostać przedłużone przez brak reakcji i używany przez atakujących zatruwających pamięć podręczną.

Oprogramowanie DNS

Implementacje DNS są podzielone na dwie role, a mianowicie (1) serwer autorytatywny i (2) serwer rekurencyjny; podczas gdy niektóre programy implementują jedno z dwóch, inne implementują oba.

BIND

Najpopularniejszym oprogramowaniem DNS jest BIND, opracowane przez Internet Systems Consortium (ISC), Inc. ISC aktywnie wprowadza innowacje i utrzymuje produkt. Niektóre funkcje są w wyjątkowy sposób udostępniane przez ISC, ułatwiając korzystanie z przydatnych funkcji na poziomie oprogramowania. Najnowsze postępy w specyfikacjach DNS, takie jak niedawno opublikowane dokumenty RFC Internet Engineering Task Force (IETF), prawdopodobnie zostaną zintegrowane z nowym BIND i będą udostępniać bardziej aktualne informacje niż jego odpowiednik. Co więcej, BIND jest szeroko stosowany, przynajmniej częściowo, ponieważ jest open source i jest bezpłatny. BIND implementuje zarówno serwer autorytatywny, jak i serwer rekurencyjny, a te dwie role są domyślnie włączone, chyba że skonfigurowano je inaczej.

Dnsmasq

Dnsmasq to lekki lokalny serwer DNS, który jest zawarty w większości dystrybucji Linuksa. Dnsmasq implementuje lokalną pamięć podręczną, w której lokalne nazwy mogą być ładowane z lokalnego pliku konfiguracyjnego. Jest to również usługa przesyłania dalej DNS, która konfiguruje serwery nadrzędne na wiele wygodnych sposobów. Ponadto Dnsmasq umożliwia autorytatywny tryb DNS. Dnsmasq obsługuje walidację DNSSEC w odpowiedziach DNS z nadrzędnych serwerów nazw.

Unbound

Unbound został wynaleziony przez NLnet Labs jako wysokowydajne oprogramowanie serwera DNS do sprawdzania poprawności, rekurencji i buforowania w 2007 roku. Został zaprojektowany z modułowymi komponentami i ma nowoczesne funkcje. Bez ograniczeń zapewnia tylko rekurencyjny tryb rozpoznawania nazw DNS, więc nie może działać jako autorytatywny serwer nazw. Unbound można zainstalować zarówno w systemach operacyjnych typu Unix, jak i Windows.

Demon serwera nazw

Demon serwera nazw jest autorytatywną implementacją DNS. Jest rozwijany i utrzymywany przez NLnet Labs i RIPE NCC. Demon serwera nazw ma znacznie szybszą zdolność obsługi nazw domen niż BIND.

Microsoft DNS

Windows DNS Server jest spakowany jako rola na serwerze Windows. Serwer DNS systemu Windows można skonfigurować do obsługi trybu autorytatywnego, rekurencyjnego i hybrydowego. Serwer DNS systemu Windows jest zintegrowany z usługą Active Directory, dzięki czemu jest kompatybilny z dowolnymi sieciami firmowymi opartymi na usłudze Active Directory. Od systemu Windows Server 2012 serwer DNS systemu Windows zapewnia obsługę DNSSEC.

PowerDNS

PowerDNS to oprogramowanie DNS typu open source z usługami i wsparciem firmy PowerDNS. PowerDNS obejmuje autorytatywny serwer i rekursywny program rozpoznawania nazw. Autorytatywny serwer PowerDNS to jedyne oprogramowanie, które obsługuje dane strefy zarówno w zwykłych plikach tekstowych, jak i we wszystkich głównych bazach danych, takich jak MySQL, Oracle i Microsoft SQL Server. Jest to wiodąca autorytatywna implementacja DNSSEC, obsługująca około 90% wszystkich domen DNSSEC w Europie.

Międzynarodowe nazwy domen

Międzynarodowe nazwy domen (IDN) zapoczątkowano w 2004 r. i ostatecznie ujednolicono w dokumencie RFC 5890, który został opublikowany w 2010 r. Wraz z rosnącym zapotrzebowaniem na używanie w DNS języków innych niż angielski, IDN zaprojektowano tak, aby kodował kod inny niż ASCII (amerykański standardowy kod dla Information Interchange) znaków używanych w językach innych niż angielski na znaki ASCII (np. znaki i cyfry angielskie) używane w językach angielskich. Tak więc nazwa domeny w języku arabskim, chińskim, hindi itp. może być reprezentowana za pomocą znaków konwencjonalnych (ASCII), które mogą być DNS bez żadnych radykalnych zmian.

Punycode

Punycode jest używany w algorytmie Punycode do reprezentowania ciągu innego niż angielski w ciągu znaków ASCII. Na przykład "ü" w nazwie domeny "stück.info" jest konwertowane na ciąg ASCII "w9a" zgodnie z algorytmem kodowania, a wszystkie znaki ASCII w ciągu wejściowym są zachowywane na wyjściu. Następnie ciąg wyjściowy jest poprzedzony przez określony ciąg "xn--" z sufiksem myślnika ASCII, po którym następują punkty kodowe znaków innych niż ASCII. Tak więc wynikowa nazwa ASCII dla IDN "stück.info" to "xn--stck-w9a.info". Składnia kodowania jest określona w IETF RFC 3492.

Proces rejestracji IDN

Rejestrując domenę IDN, rejestratorzy często muszą najpierw użyć narzędzia do konwersji Punycode zgodnie ze specyfikacjami IETF, aby przetłumaczyć nazwę IDN na jej odpowiednik w formacie Punycode i przesłać tę nazwę domeny do rejestru obsługującego rejestrację w domenie IDN. Aby uniknąć kolizji z istniejącymi zarejestrowanymi domenami, rejestr często utrzymuje "tabelę" skryptu, która dyktuje tłumaczenie każdej litery w każdym obsługiwanym języku. Każdy wariant wygenerowany przy użyciu tabeli skryptów jest zarezerwowany dla zarejestrowanej domeny.

Dostępność IDN

Gdy zgodna przeglądarka otrzymuje od użytkownika dane wejściowe dotyczące nazwy IDN, konwertuje tę nazwę na kod Punycode z przedrostkiem "xn-", a następnie wysyła zapytanie do rozpoznawalnej domeny ASCII. Strefa docelowa reprezentuje również nazwę IDN, jeśli istnieje, w postaci kodu Punycode. Tak więc wyszukiwanie DNS odbywa się jak domeny ASCII. Gdy odpowiedź zostanie zwrócona do przeglądarki, przeglądarka ponownie konwertuje kod Punycode domeny do oryginalnej nazwy IDN i wyświetla ją użytkownikowi.

Nowy program gTLD

ICANN została założona w 1998 roku jako wielostronna organizacja non-profit, której misją jest koordynacja przydzielania domen internetowych i zasobów adresowych. Zadaniem ICANN jest promowanie różnorodności i konkurencji na rynku nazw domen w celu zapewnienia stabilnego i jednolitego globalnego Internetu. Przed wprowadzeniem nowego programu gTLD domeny gTLD były reprezentowane przez 21 gTLD, w związku z czym wybór użytkowników i konkurencja na rynku uznano za niewystarczające. Dlatego ICANN zdecydowała się uruchomić program, aby znacznie rozszerzyć przestrzeń gTLD dla dalszego sukcesu Internetu. W programie New gTLD każda publiczna lub prywatna organizacja na świecie może ubiegać się o utworzenie i obsługę nowej gTLD tylko wtedy, gdy wnioskodawca wykaże zdolność operacyjną, techniczną i finansową do prowadzenia rejestru i spełnienia dodatkowych szczegółowych wymagań opublikowanych w podręczniku aplikacji. Wybrany kandydat podpisze umowę gTLD z ICANN i zobowiąże się do wypełnienia misji określonej w umowie. ICANN podejmuje działania w celu rozpatrzenia dwóch lub więcej wniosków dotyczących identycznych domen gTLD. Dla takich zawodników stosowane są procedury rywalizacji o ciągi. W niektórych przypadkach, gdy dwa lub więcej łańcuchów gTLD uważa się za wysoce podobne, obowiązują te same zasady. ICANN używa dwóch procesów do obsługi identycznych i podobnych gTLD wnioski: (1) aukcje i (2) ocena priorytetów społeczności. ICANN umożliwia stronom trzecim składanie sprzeciwów wobec nowych aplikacji gTLD, jeśli uważają, że ich prawa są naruszane. Po opublikowaniu listy wszystkich aplikacji gTLD na stronie internetowej ICANN następuje otwarty okres sprzeciwu, po którym następują ustalone procedury rozstrzygania sporów. Mechanizm rozstrzygania sporów zarządzany przez dostawcę usług rozstrzygania sporów jest przeznaczony do rozstrzygania sprzeciwów. W Nowym Programie gTLD, IDN gTLDs jest otwarte do składania wniosków po raz pierwszy w historii Internetu. Nazwy IDN TLD umożliwiają użytkownikom Internetu na całym świecie tworzenie i używanie TLD w ich rodzimych językach i skryptach.

Zmiana uprawnień do przypisanych numerów internetowych

Internet Assigned Numbers Authority (IANA) to organizacja, która nadzoruje przydzielanie globalnie unikalnych nazw i numerów, które są używane w adresach IP i której obowiązki historycznie obejmują koordynację przypisywania technicznych parametrów IP, administrowanie niektórymi obowiązkami związanymi z rootowaniem DNS w Internecie zarządzanie strefami, przydzielanie internetowych zasobów numeracyjnych oraz inne usługi związane z zarządzaniem domenami TLD .ARPA i .INT. Od 1999 do 30 września 2016 funkcje IANA były zlecane ICANN i amerykańskiej Narodowej Administracji Telekomunikacji i Informacji (NTIA). NTIA zachował element nadzoru w odniesieniu do zarządzania strefą główną DNS w Internecie w tym okresie, ale oświadczył w marcu 2014 r., że zamierza przenieść swoją część funkcji IANA z NTIA do globalnej społeczności interesariuszy. W oświadczeniu nakreślono zasady przejścia IANA i wezwano ICANN do zwołania globalnych interesariuszy w celu sporządzenia wniosku dotyczącego tego przejścia. Wniosek musi wspierać model wielostronny; utrzymywać bezpieczeństwo, stabilność i odporność internetowego DNS; zaspokajać potrzeby i oczekiwania globalnych klientów i partnerów usług IANA; i utrzymać otwartość Internetu. Przy współpracy bezpośrednio zainteresowanych stron, w tym IETF, Rady Architektury Internetu, Towarzystwa Internetowego, Regionalnych Rejestrów Internetowych, operatorów nazw TLD, VeriSign i innych zainteresowanych globalnych interesariuszy, przejście IANA Stewardship zostało potwierdzone przez Departament USA of Commerce w dniu 16 sierpnia 2016 r., aby zakończyć swoją umowę z ICANN 30 września 2016 r. 1 października 2016 r. umowa między Departamentem Handlu a ICANN wygasła, a zarządzanie funkcjami IANA zostało oficjalnie przeniesione do Internetu społeczność wielu interesariuszy

Ochrona intelektualna

Własność w branży nazw domen

Jeśli właściciel znaku towarowego stwierdzi, że ktoś przetrzymuje znak towarowy jako zakładnika jako nazwę domeny, dopóki właściciel nie zapłaci za nią dużej sumy, właściciel może paść ofiarą cybersquattingu. Cybersquatting jest generalnie rejestracją w złej wierze cudzego znaku towarowego w nazwie domeny. Rejestrując nazwy domen, które są ściśle powiązane z wcześniej istniejącym znakiem towarowym, cybersquatterzy starają się czerpać zyski poprzez powiązanie ze znakami towarowymi ofiar lub poprzez sprzedaż domen właścicielom znaków towarowych. Cybersquatterzy mogą mieć również bardziej nikczemne cele, takie jak przechwytywanie danych osobowych od niczego niepodejrzewających użytkowników, którzy błędnie wpisują adres URL. Ofiara cybersquattingu może mieć kilka dostępnych opcji walki z cybersquattingiem, które opisano w poniższych podsekcjach.

Zastrzeżenia prawne

Jeśli uważa się, że wniosek strony trzeciej o nową TLD narusza prawa właściciela znaku towarowego, właściciel znaku towarowego jest uprawniony do złożenia formalnego sprzeciwu wobec niego za pośrednictwem Zastrzeżeń dotyczących praw prawnych. Wyznacza się niezależny panel złożony z jednego lub trzech neutralnych ekspertów w celu zbadania sprawy i podjęcia decyzji, czy potencjalne użycie przez wnioskodawcę kwestionowanej nowej domeny TLD, której dotyczy wniosek, miałoby niezgodny z prawem negatywny wpływ na istniejący znak towarowy zgłaszającego sprzeciw. Tylko wtedy, gdy wniosek o nową TLD nie otrzyma sprzeciwu od werdyktu w ramach procedury rozstrzygania sporów, będzie miał szansę zostać delegowany przez ICANN.

Izba Rozliczeniowa Znaków Towarowych

Trademark Clearing House to zlecone przez ICANN scentralizowane repozytorium danych o znakach towarowych w celu zwiększenia ochrony własności intelektualnej w Internecie. Ma na celu rejestrację, zatwierdzanie sądowe lub ochronę informacji związanych z prawami właścicieli znaków towarowych. Jako pojedynczy punkt dostępu dla właścicieli znaków towarowych w celu rejestracji ich nazw domen we wszelkich nowych domenach gTLD, które zostaną uruchomione w przyszłości, Trademark Clearing House oferuje następujące usługi: (a) wstępna weryfikacja, (b) usługi wschodu słońca, (c) usługi roszczeń oraz ( d) powiadomienia bieżące.

Wstępna weryfikacja

Po przesłaniu i opłaceniu rejestracji znaku towarowego rejestr znaku towarowego oraz powiązane informacje zostaną zweryfikowane przed dalszym przetwarzaniem w celu ustalenia, czy (a) wszystkie dostarczone informacje są dokładne i kompletne zgodnie z wytycznymi izby rozliczeniowej oraz (2) znak towarowy przejdzie weryfikację kwalifikowalności zgodnie z niniejszymi wytycznymi izby rozliczeniowej.

Usługi Sunrise

Usługi Sunrise oferują właścicielom znaków towarowych pierwszeństwo w rejestracji nazw domen odpowiadających ich znakom towarowym. Krótki okres po uruchomieniu nowej gTLD przeznaczony jest wyłącznie dla właścicieli znaków towarowych na rejestrację nazw domen, dla których rejestracja prośby od kogokolwiek innego zostaną odrzucone. Nowe rejestry gTLD muszą oferować okres wschodu od 30 do 60 dni, po którym wszystkie nazwy w tej TLD są otwarte dla każdego do rejestracji.

Usługi reklamacyjne

Okres roszczeń do znaku towarowego następuje po okresie wschodu słońca i trwa co najmniej 90 dni bezpośrednio po otwarciu ogólnej rejestracji. W okresie zgłaszania roszczeń dotyczących znaków towarowych wszelkie próby rejestracji nazwy domeny pasującej do znaku są monitorowane przez izbę rozliczeniową znaków towarowych i powiadamiane o odpowiednim znaku jako ostrzeżenie. Jeśli powiadomiona strona będzie kontynuować rejestrując nazwę domeny, izba rozliczeniowa znaków towarowych powiadomi tych właścicieli znaków towarowych, którzy mają odpowiednie wpisy w izbie rozliczeniowej, ostrzegając o możliwych naruszeniach, że ktoś zarejestrował nazwę domeny.

Bieżące powiadomienia

Po okresie roszczeń dotyczących znaków towarowych dla nowo uruchomionej domeny gTLD, izba rozrachunkowa ds. znaków towarowych inicjuje bezpłatną usługę ciągłych powiadomień, jeśli zostaną podjęte jakiekolwiek działania przeciwko możliwej nadużyciu rejestracji. Właściciele znaków towarowych będą stale otrzymywać powiadomienia od izby rozrachunkowej dotyczącej znaków towarowych o potencjalnym naruszeniu własności intelektualnej, chyba że rejestracja zostanie unieważniona lub zostaną podjęte działania w celu jej zakończenia.

Jednolity system szybkiego zawieszenia

Uniform Rapid Suspension System (URS) to polityka rozstrzygania sporów dotyczących nazw domen, która umożliwia właścicielowi znaku towarowego złożenie skargi i, jeśli się powiedzie, uzyskanie zakazu używania nazwy domeny przez przestępców. Wraz z istniejącą jednolitą polityką rozstrzygania sporów dotyczących nazw domen (UDRP), URS stanowi skuteczną obronę właścicieli znaków towarowych przed cybersquattingiem. Główna różnica między tymi dwiema strategiami polega na tym, że URS ma być jeszcze szybszy i tańszy niż UDRP, a jednocześnie mają wspólne kryteria merytoryczne. W przeciwieństwie do UDRP, który stosuje się powszechnie do rozstrzygania sporów dotyczących nazw domen, URS jest w dużej mierze używany tylko do nowej domeny gTLD i przeznaczone wyłącznie do tymczasowego zawieszenia nazwy domeny ofiary. W ramach testu prawnego dotyczącego skargi URS osoba składająca skargę jest zobowiązana do przedstawienia następujących dowodów:

1. Sporna nazwa domeny jest identyczna lub wystarczająco podobna do nazwy znaku towarowego według określonych kryteriów.
2. Pozwany nie ma uzasadnionego prawa do rejestracji i posiadania spornej nazwy domeny.
3. Nazwa domeny została zarejestrowana i była nadużywana.

Aby pomyślnie rozpatrzyć skargę URS, właściciel znaku towarowego musi wykazać wszystkie te trzy elementy. Innymi słowy, odpowiedź na skargę zostanie rozpatrzona decyzją na korzyść pozwanego, jeżeli skarżącemu nie uda się przekonać tylko jednego elementu. W ramach arbitrażu rejestrujący może zatrzymać sporną nazwę domeny. Chociaż URP jest ekspresowym sposobem rozstrzygania skarg w porównaniu z UDRP, wymaga od skarżących znacznej pracy dowodowej.

Procedura rozstrzygania sporów po delegacji

Zaprojektowana przez ICANN procedura rozstrzygania sporów po delegacji ma uwzględniać okoliczności, w których działający w społeczności nowy operator rejestru gTLD prowadzi lub wspiera naruszenie znaku towarowego na pierwszym lub drugim poziomie nowej gTLD.

Polityka rozstrzygania sporów

UDRP to pozasądowy mechanizm rozstrzygania sporów dotyczących nazw domen dotyczących znaków towarowych. Spory spowodowane nadużyciami przy rejestracji nazw domen, takimi jak cybersquatting, mogą być rozstrzygane w trybie przyspieszonego postępowania administracyjnego wszczętego przez składającego skargę w akredytowanym dostawcy usług rozstrzygania sporów. Jeśli skarga zostanie rozpatrzona pozytywnie, rejestracja nazwy domeny naruszającej prawo zostaje cofnięta i przekazana skarżącemu.



Powrót

Nadzór Agencji Bezpieczeństwa Narodowego



Wiele z tego, co wiadomo o inwigilacji telekomunikacyjnej przez Agencję Bezpieczeństwa Narodowego (NSA), pochodzi z tajnych dokumentów ujawnionych przez byłego pracownika CIA i wykonawcę NSA, Edwarda Snowdena. Zarówno CIA, jak i NSA koncentrują się na gromadzeniu danych wywiadowczych za granicą, przy czym CIA koncentruje się głównie na danych wywiadowczych dotyczących ludzi, a NSA celuje w wywiad sygnałowy (SIGINT). Snowden pracował dla Booz Allen Hamilton, prywatnego dostawcy usług zbrojeniowych, w 2013 roku, kiedy uciekł do Hongkongu i podzielił się poufnymi aktami NSA z dziennikarzami Glennem Greenwaldem, Ewenem MacAskillem i Laurą Poitras. Rewelacje, które wyszły z dokumentów Snowdena, obejmują tajne polecenie Sądu Nadzoru Wywiadu Zagranicznego (FISC lub FISA Court) nakazujące Verizon przekazanie zapisów wszystkich rozmów telefonicznych w jego systemach oraz istnienie programu inwigilacyjnego o nazwie PRISM, który zbiera danych poprzez bezpośredni dostęp do firm internetowych. Ten wpis najpierw opisuje zaangażowanie NSA w partnerstwa w zakresie nadzoru między krajami, które ustanawiają podstawy wzajemnego lub jednostronnego nadzoru. Następnie przygląda się mechanizmom transferu danych publiczno-prywatnych, w których prywatni usługodawcy mogą uczestniczyć dobrowolnie lub pod presją rządu. Na koniec wpis omawia, w jaki sposób NSA i inne agencje rządowe uciekają się do hakowania w celu uzyskania dostępu do danych znajdujących się w rękach dostawców usług chmurowych lub danych przechowywanych na komputerach osobistych.

Partnerstwa w zakresie nadzoru między krajami

W marcu 1946 roku Stany Zjednoczone i Wielka Brytania podpisały porozumienie, zwane UKUSA, umożliwiające współpracę w SIGINT. NSA definiuje SIGINT jako "informacje pochodzące z sygnałów elektronicznych i systemów wykorzystywanych przez zagraniczne cele, takie jak systemy łączności, radary i systemy uzbrojenia" (NSA, 2016). Stany Zjednoczone i Wielka Brytania wraz z późniejszymi trzema członkami UKUSA (Kanada, Australia i Nowa Zelandia) nazywane są krajami Tier A Sojuszu Pięciu Oczu, które nawiązały dodatkowe partnerstwa między sobą, a także ze swoimi sojusznikami (Tier kraje B). Pod koniec XX wieku kraje poziomu A stanęły w obliczu globalnych kontrowersji związanych z programem inwigilacji ECHELON SIGINT, który obejmował przechwytywanie komunikacji prywatnej i komercyjnej. Ponad 10 lat później, w 2013 roku, Snowden ujawnił program TEMPORA, wspólny projekt NSA i brytyjskiej agencji wywiadowczej - Government Communications Headquarters (GCHQ) - umożliwiający masowe przechwytywanie podwodnych kabli światłowodowych, rzekomo przy wsparciu sektor prywatny. Ponadto w 2013 roku The Guardian ujawnił 100 milionów funtów tajnego finansowania przez NSA dla GCHQ, a także umowę umożliwiającą NSA dostęp do danych obywateli Wielkiej Brytanii. W swojej książce No Place to Hide z 2014 roku Greenwald omawia również inny projekt między Stanami Zjednoczonymi a Wielką Brytanią, BULLRUN, mający na celu złamanie szyfrowania komunikacji, ponownie z podejrzeniem zaangażowania sektora prywatnego. Jeśli chodzi o partnerstwa między NSA a krajami poziomu B, raporty Greenwalda, Poitrasa i MacAskilla ujawniły zarówno finansowanie NSA na rozwój technologii i prowadzenie nadzoru, jak i memorandum o porozumieniu między Stanami Zjednoczonymi a izraelskimi służbami wywiadowczymi, zezwalające na surowe dane wywiadowcze dzieląc się z Izraelem.

Publiczno-prywatne mechanizmy przesyłania danych

NSA współpracuje zarówno z wykonawcami zabezpieczeń, jak i firmami internetowymi, a Snowden miał dostęp do plików CIA, będąc wykonawcą w Dell, oraz dostęp do plików NSA, gdy pracował w Booz Allen Hamilton. Partnerstwa publiczno-prywatne ustanawiają również transfery danych z firm internetowych do rządów poprzez nadzór lub backdoory. Inwigilacja upstream to przekierowywanie lub przekierowywanie danych przez firmy do repozytoriów NSA. W 2014 roku Greenwald poinformował o czterech programach nadzoru upstream: (1) Blarney, (2) Fairview, (3) Oakstar i (4) Stormbrew. Wszystkie cztery programy opierają się na partnerach korporacyjnych, przy czym Blarney jest jedynym programem, w przypadku którego znane jest prawdziwe nazwisko partnera korporacyjnego: AT&T, który zatrudnia również byłych urzędników państwowych. W No Place to Hide Greenwald pisze, że program Fairview opiera się na dostępie partnera korporacyjnego do zagranicznych systemów telekomunikacyjnych i opisuje program jako "jednego z największych dostawców metadanych" oraz że obejmuje współpracę z zagranicznymi agencjami rządowymi. Inne programy umożliwiające przekierowywanie danych, rzekomo używane przez NSA i GCHQ, atakują komunikację mobilną podczas lotu, przekierowywaną przez systemy satelitarne. Greenwald zauważa, że niektóre firmy wydają się nie być świadome tych mechanizmów przekierowywania: NSA "przechwytuje i manipuluje routerami i serwerami wyprodukowanymi przez Cisco w celu kierowania dużych ilości ruchu internetowego z powrotem do repozytoriów NSA (w dokumentach nie ma dowodów, że Cisco jest świadomy lub akceptuje takie przechwytywanie.)" . Firmy internetowe mogą również umieszczać w swoich systemach backdoory, dając NSA bezpośredni dostęp do danych. W dniu 7 czerwca 2013 r., 1 dzień po artykule dotyczącym orzeczenia FISA Verizon, The Guardian i The Washington Post opublikowały artykuły dotyczące elektronicznego systemu nadzoru zwanego PRISM, mającego na celu gromadzenie danych zarówno obywateli USA, jak i spoza USA poprzez bezpośredni dostęp do serwerów dziewięciu amerykańskich firm internetowych (Microsoft, Yahoo, Google, Facebook, Paltalk, AOL, Skype, YouTube i Apple). Miesiąc po historii PRISM, The Guardian opublikował kolejną historię ujawniającą program X-KEYSCORE, który rzekomo umożliwiał zbieranie tekstu e-maili poszczególnych osób, wyszukiwań w Google i odwiedzanych stron internetowych, w tym monitorowanie w czasie rzeczywistym głoska bezdźwięczna. W następstwie wrześniowych ataków terrorystycznych 11 grudnia 2001 r. prezydent George W. Bush uruchomił kontrowersyjny program tajnej inwigilacji w ramach prowadzonej przez jego administrację wojny z terroryzmem. Po ujawnieniu programu pojawiły się obawy co do legalności inwigilacji. Po pierwsze, administracja Busha zezwoliła NSA na inwigilację zagranicznego wywiadu, nie podporządkowując się z wymogiem FISA dotyczącym nakazu sądowego FISC opartego na prawdopodobnej przyczynie - to jest podejrzeniu wykroczenia ze strony celu. Po drugie, celami byli nawet obywatele USA, co wzbudziło poważne obawy co do zgodności z wymogiem nakazu inwigilacji obywateli USA. W 2008 roku Kongres USA uchwalił tzw. Ustawa o nadzorze wywiadu zagranicznego z 1978 r., zmieniająca ustawę z 2008 r., która uprawomocniła inwigilację bez nakazu (tj. inwigilację bez nakazu sądowego FISC) osób niebędących obywatelami USA poza Stanami Zjednoczonymi, nawet jeśli komunikują się one z obywatelami USA, jeżeli taka inwigilacja przyczyni się do "legalne gromadzenie wywiadu zagranicznego". Tło ujawnienia w 2013 r., że NSA zbierała dane telefoniczne milionów klientów Verizon, sięga innej inicjatywy po 11 września: sekcji 215 amerykańskiej ustawy PATRIOT Act, która zmieniła FISA, zezwalając sądowym nakazom FISC na wymuszanie produkcji dokumentacji biznesowej i innych przedmiotów materialnych dla kogokolwiek, nawet dla obywateli USA. Sekcja 215 służyła jako podstawa programu masowego gromadzenia metadanych telefonicznych NSA; Sekcja 215 nakazów FISC nie wymaga prawdopodobnej przyczyny. Zamiast tego wystarczy "istotność dla toczącego się dochodzenia". Po wzroście liczby żądań organów ścigania w ostatnich latach wiele firm (w tym Google, Microsoft, Facebook, Verizon, Skype i Twitter) opublikowało raporty przejrzystości dotyczące liczby rządowych żądań danych i wskaźników zgodności z tymi żądaniami.

Hakerstwo

Oprócz publiczno-prywatnych mechanizmów przesyłania danych, rządy mogą stosować brutalną siłę, czyli hacking, aby uzyskać dostęp do danych znajdujących się w rękach dostawców usług chmurowych lub do danych przechowywanych na komputerach osobistych. Greenwald i Andy Greenberg opisują Tailored Access Operations NSA jako prywatną jednostkę hakerską z możliwościami instalowania złośliwego oprogramowania monitorującego (np. rejestratorów naciśnięć klawiszy) na komputerach i włączania wyłączonego telefonu. Na przykład The New York Times poinformował w 2014 r., że co najmniej od 2008 r. NSA zainstalowała oprogramowanie do nadzoru Quantum na prawie 100 000 komputerów na całym świecie. W 2015 roku The Intercept informował o włamaniach NSA i GCHQ do wewnętrznej sieci komputerowej Gemalto, holenderskiego producenta kart SIM, w 2010 i 2011 roku. Należy zauważyć, że doniesienia prasowe o podejrzeniu udziału NSA w hakowaniu nie zawsze potwierdzały uwikłanie. W przypadku włamania na belgijskiego profesora kryptografii Jean-Jacquesa Quisquatera w artykułach prasowych donoszono o podejrzeniu udziału zarówno NSA, jak i brytyjskiego GCHQ. Jednym z powodów, dla których ustalenie, czy NSA była odpowiedzialna za atak lub w nim pomagała, może być trudne, są podobieństwa w kodzie źródłowym różnych programów służących do nadzoru, używanych przez członków NSA Sojusz Pięciu Oczu. Na przykład w 2014 roku Wired poinformował, że firmy zajmujące się bezpieczeństwem Kaspersky Lab i Symantec odkryły narzędzie hakerskie o nazwie Regin, które zostało użyte do zhakowania Komisji Europejskiej, Belgacom (największego dostawcy usług telekomunikacyjnych w Belgii) i Quisquater. Kaspersky Lab zakładał zaangażowanie państwa narodowego, biorąc pod uwagę złożoność i koszty rozwoju Regina. Według Costina Raiu i Igora Soumenkova, na początku 2015 r. Kaspersky Lab zidentyfikował podobieństwa kodu źródłowego między Reginem a szkodliwym programem o nazwie QWERTY. QWERTY to keylogger podobno używany przez członków Sojuszu Pięciu Oczu. W raporcie na temat Regin z 2015 roku Symantec powiedział, że jest skonfigurowany między innymi do kradzieży haseł, monitorowania ruchu sieciowego i odzyskiwania skasowanych plików na zainfekowanych komputerach



Powrót

Neogeografia



Od połowy 2000 roku nastąpił gwałtowny wzrost ilości danych przestrzennych tworzonych za pomocą technologii Web 2.0 i urządzeń rozpoznających lokalizację. Neogeografia jest jednym z kilku terminów i wyrażeń używanych do opisania pojawienia się tych nowych internetowych aplikacji mapowych i cyfrowych informacji geograficznych tworzonych przez użytkowników bez formalnego szkolenia w zakresie systemów informacji geograficznej (GIS) lub kartografii. Inne terminy obejmują dobrowolne informacje geograficzne (VGI), geoweb, web mapping 2.0, wikifikację GIS, mapy 2.0 i mashupy map. Przykłady obejmują zindywidualizowaną produkcję map online przy użyciu platform takich jak Mapy Google i Google Earth oraz mapy generowane przez użytkowników, takie jak OpenStreetMap (OSM) i Wikimapia. Zamiast dostarczać wyczerpującego opisu praktyk neogeografii, niniejszy wpis dokumentuje główne debaty i wydarzenia związane z tym zjawiskiem. We wpisie omówiono powstanie neologii, charakterystykę neogeografii, główne debaty dotyczące neogeografii w środowisku naukowym oraz jej zastosowania.

Definiowanie neogeografii

Praktyki mapowania online były wcześniej kojarzone z GIS i specjalistami od mapowania lub organizacjami, które mają wiedzę, umiejętności i zasoby do zaangażowania się w te praktyki. Pojawienie się neogeografii przyniosło głębokie zmiany w internetowych mapach krajobrazów. Di-Ann Eisnor, współzałożycielka Platial, ukuła termin neogeografia w 2006 roku. W tym uznanym wstępnym opisie definiowania neogeografii jest on postrzegany jako oznaczający szereg różnorodnych praktyk, które nie stanowią praktyk zawodowych geografów. Rozróżnienie na zawodowych geografów i neogeografów jest obecne w definicji Eisnora. Termin ten pojawił się następnie w kilku blogach i serwisach informacyjnych, w tym w National Geographic, Wired i National Public Radio. W tych relacjach neogeografia jest uznawana za praktykę tworzenia spersonalizowanych map przez osoby bez profesjonalnego przeszkolenia w zakresie GIS lub kartografii, na przykład poprzez dodawanie adnotacji do określonych lokalizacji za pomocą oznaczeń miejsc, znaczników i opisów oraz łączenie informacji z wielu źródeł. Andrew Turner dalej zaludnił ten termin, definiując neogeografię jako o ludziach tworzących i używających map na własnych warunkach, które wykraczają poza sferę konwencjonalnego GIS. W związku z tym pojawienie się terminu neogeografia zostało ugruntowane przez praktyki nieprofesjonalnych geografów i laików. Neogeografia przyciągnęła znaczną uwagę geografów i badaczy GIS. We wczesnych debatach dotyczących pojawienia się neogeografii uczeni dyskutowali, w jaki sposób to zjawisko może mieć implikacje nie tylko dla badań geograficznych, ale także dla publicznego pojęcia geografii. Na przykład Daniel Sui zauważa, że neogeografia, nowa geografia bez geografów, jest częścią procesu rosnącej wikifikacji GIS. Sui argumentuje, że wikifikacja GIS jest kontynuacją rozwoju oprogramowania open source, takiego jak Linux, w którym pojawił się kult amatora. Andrew Hudson-Smith i Andrew Crooks zwracają uwagę na rolę nowych narzędzi i usług towarzyszących powstawaniu neogeografii, które mogą dostarczyć nowych źródeł danych i nowych sposobów wizualizacji danych dla dziedziny GIS, zwłaszcza geowizualizacji. Opracowali kilka aplikacji, takich jak GMap Creator i MapTube, które ułatwiają dostarczanie informacji generowanych przez użytkowników w celu zademonstrowania takich możliwości. Czyniąc to, Hudson-Smith i Crooks sugerują, że nadszedł czas, aby badacze GIS przyjęli neogeografów oraz dane i usługi, które generują. W nowszej relacji Matthew Wilson i Mark Graham definiują neogeografię jako zestaw praktyk, które ustanawiają nowe relacje w procesie współkonstrukcji wiedzy przestrzennej. Praktyki te są z natury warunkowe, częściowe i oparte na współpracy. W tej analizie Wilson i Graham podkreślają znaczenie badania relacji społecznych związanych z takimi praktykami mapowania i wzywają do zwrócenia większej uwagi na badanie złożoności tworzenia mapowanej wiedzy za pomocą neogeografii. Proponują program badań, który sytuuje rozwój neogeografii w pięciu obszarach. Pierwszym obszarem badań jest zbadanie warunków sprzyjających powstaniu neogeografii. Drugi obszar obejmuje badanie implikacji dla reprezentacji cyfrowych generowanych przez uwagę i uprzedzenia. Trzeci obszar badań śledzi formację podmiotu potrzebną do tych zmian. Czwarty obszar dotyczy tego, jak zmienia się rola geografii i geografów. Wreszcie, badacze muszą pracować nad możliwością interwencji i przerw, które są responsywne.

Charakterystyka

Neogeografia charakteryzuje się nieustrukturyzowaną treścią, wysokim poziomem heterogeniczności oraz zwiększoną szybkością tworzenia i udostępniania danych geograficznych. Te cechy są renderowane przez zestaw technologii internetowych i urządzeń rozpoznających lokalizację, wraz z powiązanymi formatami danych i standardami wymiany. Główne funkcje udostępniane przez internetowe media przestrzenne to wizualizacja i udostępnianie informacji geograficznych, a nie bardziej złożona analiza przestrzenna, którą umożliwia konwencjonalna analiza GIS. W swojej książce z 2006 roku Wprowadzenie do neogeografii Turner wprowadza terminologię używaną w neogeografii. Niektóre przykłady tej terminologii obejmują geotag (dodawanie informacji o lokalizacji do dokumentów internetowych), format wymiany Global Positioning System (GPS) (standard używany do przechowywania danych GPS, takich jak punkty trasy i ślady), GeoRSS (dodawanie informacji o lokalizacji do kanałów Really Simple Syndication, Keyhole Markup Language, który jest również w stanie osadzać modele wizualizacji 3D) oraz mikroformaty (dodawanie znaczenia do strony internetowej za pomocą standardowego schematu identyfikującego pewne dane atrybutów, takie jak adresy i lokalizacje). Wiele wczesnych badań nad neogeografią koncentrowało się na zawartości danych. Badacze przyznają, że wiele z tych mapowań dotyczy codziennych doświadczeń i pochodzi z lokalnej wiedzy. Biorąc pod uwagę różnorodne podmioty zaangażowane w tworzenie i rozpowszechnianie informacji przestrzennych w Internecie, badacze GIS zadają również pytania dotyczące jakości i ważności danych. Na przykład Andrew Flanagin i Miriam Metzger rozszerzają pojęcie wiarygodności danych, które zwykle koncentruje się na dokładności informacji, aby uwzględnić postrzeganie ludzi, zwłaszcza w przypadku informacji, które są bardziej oparte na opiniach. Badacze sugerują również, że nieustrukturyzowane dane i większa łatwość tworzenia map, którą umożliwiła neogeografia i inne powiązane praktyki, mogą zapewnić nowe możliwości udziału społeczeństwa i zaangażowania obywatelskiego z wykorzystaniem wiedzy zmapowanej lub przestrzennej, na którą duży wpływ miały debaty w GIS partycypacji publicznej. Na przykład David Tulloch argumentuje, że te nowe, tworzone przez użytkowników mapy, zwykle opierają się na zbiorach danych osobowych, aw mniejszym stopniu na wykorzystywaniu publicznych zestawów danych. W nowszych badaniach zbadano pytania związane z tym, jakie rodzaje wiedzy są zaawansowane i legitymizowane oraz w jaki sposób w tych praktykach mapowania. Na przykład Sarah Elwood i Agnieszka Leszczyński wyjaśniają, w jaki sposób dzięki neogeografii wyłoniła się nowa polityka wiedzy, charakteryzująca się interaktywnym, eksploracyjnym wytwarzaniem wiedzy i wiarygodnością danych poprzez obserwację, wzajemną weryfikację i przejrzystość.

Debaty o neogeografii

Pojawienie się neogeografii pobudziło rosnący dorobek prac dotyczących kwestii władzy, równości i wiedzy. Wczesna dyskusja naukowa na temat neogeografii dotyczyła tego, w jaki sposób praktycy neogeografii mają tendencję do pozycjonowania się jako odmienna od "starej" geografii. Mogą nawet mieć antagonistyczne nastawienie do konwencjonalnej nauki GIS i przemysłu GIS. W szczególności zwolennicy neogeografii i czynni praktycy neogeografii postrzegają neogeografię jako wyzwalającą, która pozwala ludziom tworzyć mapy na własnych warunkach. W związku z tym niektórzy badacze, w tym Jeremy Crampton, zwracają uwagę, że te narracje mapowania "zrób to sam" mogą również stanowić podstawę narracji o deprofesjonalizowaniu. Niektórzy uczeni twierdzą, że neogeografia, mapy 2.0 i geoweb zwykle dotyczą tworzenia i udostępniania informacji geograficznych przez bardziej zróżnicowaną grupę podmiotów. Technologie te mogą nie obejmować złożonych funkcji GIS. Tymczasem naukowcy uznają również, że skala, wielkość i szybkość produkcji, gromadzenia i rozpowszechniania informacji geograficznych, które umożliwiają te technologie, przyniosły głębokie zmiany w badaniach nad GIS i innymi pokrewnymi dziedzinami technologii geoprzestrzennych. Takie przemiany mają również implikacje dla dziedzin nauk społecznych dotyczących kwestii społeczności, publiczności, poczucia miejsca i polityki wiedzy, a także dla ustaleń instytucjonalnych, które ułatwiają takie zmiany. W związku z tym jednym z kierunków badań nad neogeografią jest zbadanie implikacji neogeografii dla badań GIS. Marcus Foth, Bhishna Bajracharya, Ross Brown i Greg Hearn uważają neogeografię za czwarty etap rozwoju GIS, który umożliwia łatwiejsze angażowanie się w codzienne poglądy i głosy. Michael Batty, Andrew Hudson-Smith, Richard Milton i Andrew Crooks zajmują się możliwością odejścia w dziedzinie GIS od podejścia, które opiera się na prostych warstwach czasowych w przetwarzaniu danych czasoprzestrzennych. W szczególności podkreślają, że pobieranie próbek danych w czasie rzeczywistym, takich jak te przechwytywane w kanałach Twittera, oraz rozwój urządzeń lokalizacyjnych może umożliwić nowe sposoby wizualizacji przestrzeni i czasu. W swoim artykule z 2012 roku Elwood, Michael Goodchild i Daniel Sui badają zjawisko VGI (którego tworzenie można postrzegać jako formę neogeografii) poprzez trzy aspekty: formę (1) danych przestrzennych, (2) dowodów, oraz (3) praktyka społeczna. Te trzy ramy z kolei mają wpływ na sposób, w jaki geografowie mogą odpowiednio angażować się w VGI. Jako formę danych przestrzennych, autorzy próbują prześledzić istniejące inicjatywy VGI i wyodrębnić trzy grupy pod względem celów tworzenia VGI: (1) mapowanie informacji generowanych przez użytkowników (geowizualizacja), (2) przechwytywanie i manipulowanie informacjami oznaczonymi geotagami (geoinformacja), oraz (3) udostępnianie geolokalizowane dane medialne (geospołeczne). Takie dane VGI mogą uzupełniać lub stanowić alternatywę dla konwencjonalnego rozwoju infrastruktury danych przestrzennych. Jako dowód autorzy omawiają rolę geografów w wykorzystywaniu VGI jako źródła danych, omawiając kwestie jakości danych i rozwój metodologii syntezy VGI. Jako formę praktyki społecznej, autorzy identyfikują silne wpływy krytycznych badań GIS, odzwierciedlone w rosnącej liczbie prac badających wpływ i implikacje neogeografii. Badania te obejmują badanie demokratyzacyjnego potencjału neogeografii i jego ograniczeń, procesów polityczno-ekonomicznych, które ucieleśniają praktyki neogeografii oraz pytania dotyczące użytkownika. Istnieją różne opisy społecznego znaczenia neogeografii. Naukowcy argumentowali, że neogeografia może zapewnić nowe możliwości tworzenia wiedzy przestrzennej, podczas gdy inni wyrażali obawy, że mogą pojawić się nowe formy wykluczenia i nadzoru. Barney Warf i Sui omawiają ontologiczne i epistemologiczne implikacje neogeografii, argumentując, że neogeografia dostarczyła alternatywnych poglądów na przestrzeń i miejsce, podczas gdy konwencjonalny GIS ma tendencję do podkreślania obiektywnych faktów. Twierdzą, że neogeografia może umożliwić nowe epistemologiczne otwarcia dla produkcji wiedzy, która przyjmuje pogląd konwersacyjny, który kładzie większy nacisk na praktykę, wykonanie i akty mowy. Michael Crutcher i Matthew Zook ujawniają, jak korzystanie z Google Earth w kontekście postkatriny wzmocniło i odtworzyło ekonomiczne i rasowe podziały w Nowym Orleanie w Luizjanie. Leszczyński skupił się na "neo" w neogeografii, ilustrując, w jaki sposób idea nowości związana z neogeografią jest wykorzystywana do normalizacji lub racjonalizacji pewnych rodzajów relacji technologia-społeczeństwo. W szczególności wyjaśnia, w jaki sposób to ujęcie neogeografii (lub internetowych mediów przestrzennych) ma szersze implikacje społeczne, które mogą działać jako narzędzie odpolityczniające, sposób racjonalizacji efektów technologii przestrzennych oraz model napędzający i utrzymujący rentowność z tych technologii. Pojawiły się również pytania dotyczące użytkownika i kwestii subiektywności. Uczeni starali się zrozumieć motywacje twórców map neogeograficznych, a także różnice w sile między uczestnikami i nieuczestniczącymi. W kilku badaniach zbadano wymiar subiektywności w odniesieniu do rozprzestrzeniania się cyfrowych zindywidualizowanych danych i informacji geograficznych, które umożliwiają wszechobecne technologie komputerowe, interaktywne platformy geoprzestrzenne i urządzenia rozpoznające lokalizację. Badacze zwrócili również uwagę na procesy kształtowania się podmiotu politycznego w kontaktach z praktykami neogeograficznymi. Czerpiąc z literatury na temat polityki codziennych praktyk i krytycznej literatury GIS, Wen Lin analizuje projekt sztuki performance w Wuhan w Chinach, który obejmuje wykorzystanie internetowych technologii mapowania, takich jak Google Maps i dostosowanych narzędzi. Lin pokazuje, jak pewne praktyki neogeograficzne działają jak performansy lub taktyczne narracje przestrzenne, rezonując z koncepcją Michela de Certeau taktyki prowadzonej przez słabych, którzy mogą być podzieleni i uciekający, ale stanowią formę oporu. Opierając się na projekcie neogeograficznym przeprowadzonym z młodymi nastolatkami w Seattle, który trwał 3 lata, Elwood i Katharyne Mitchell argumentują, że neogeografia może nie tylko służyć jako miejsca konstytuowania pewnych form polityki, ale może również działać jako kluczowe miejsca formacji politycznej.

Zastosowania Neogeografii

Uczeni starali się przeanalizować liczne zastosowania neogeografii. W tym wpisie omówiono trzy przykładowe przykłady: (1) OSM, (2) Harbin Sound Map (HSM) oraz (3) Ordnance Survey OpenSpace. Te przykłady ilustrują możliwości tworzenia map. Istnieją inne przykłady neogeografii, takie jak mashupy map kryzysowych i aplikacje geoweb tworzone przez twórców oprogramowania i przedsiębiorstwa. Te trzy przypadki, omówione poniżej, można zidentyfikować odpowiednio jako przykłady trzech szerokich kategorii. Pierwsza kategoria obejmuje dane geograficzne wytworzone w sposób podobny do Wikipedii. Druga kategoria wiąże się z praktykami mapowania, które są ułatwione przez swobodnie dostępne interfejsy programowania aplikacji, zwykle dostarczane przez głównych, jeśli nie dominujących, internetowych graczy korporacyjnych, takich jak Google Maps i Twitter. Trzecia kategoria obejmuje inicjatywy wywodzące się z instytucji sektora publicznego, które mogą również obejmować wysiłki geografów akademickich.

Otwórz mapę ulic

OSM jest jednym z najczęściej cytowanych przykładów dotyczących mapowania generowanego przez użytkowników i mapowania crowdsourcingowego. Została założona w 2004 roku przez Steve′a Coasta, który był doktorantem University College London. OSM ma na celu stworzenie bezpłatnej mapy świata tworzonej przez zarejestrowanych użytkowników. Od momentu powstania OSM odnotował ogromny wzrost, z ponad 3 milionami zarejestrowanych użytkowników do 2016 roku. Dziesięć lat po pojawieniu się OSM techniki wykorzystywane do przesyłania danych OSM ewoluowały od wcześniejszego polegania na śledzeniu GPS do szerszego zakresu praktyk, w tym śledzenia zdjęć satelitarnych . Coraz więcej prac dotyczy rozwoju OSM i jego implikacji. Badania te dotyczyły jakości danych OSM, motywacji twórców map OSM, wykorzystania OSM do badań GIS oraz tego, w jaki sposób OSM może implikować inny sposób mapowania i tworzenia wiedzy. Przeanalizowano również badania nierówne położenie geograficzne konstrukcji OSM, w tym objęte obszary, prezentowane funkcje i dominujące dane demograficzne twórców map OSM. Wraz z rosnącą adopcją danych OSM w wielu aplikacjach internetowych i urządzeniach mobilnych, potrzebne są ciągłe badania w celu zbadania sposobów, w jakie OSM jest konstruowany i używany na całym świecie.

Mapa dźwiękowa Harbin

HSM został uruchomiony w 2009 roku przez artystów dźwiękowych w Chinach, za pośrednictwem którego zarejestrowani użytkownicy mogą przesyłać swoje nagrania terenowe i mapować nagranie na podstawie miejsca, w którym miało miejsce nagranie. Ten przykład może być postrzegany jako odzwierciedlenie wysiłków związanych z wykonywaniem nagrań terenowych w różnych częściach świata. Podobnie jak w przypadku OSM, te mapy dźwiękowe ewoluują w czasie, pod wpływem nie tylko rozwoju technologicznego, ale także określonych warunków społecznych i politycznych. Na przykład początkowy HSM został opracowany przy użyciu interfejsu programowania aplikacji Google Ditu (Google Ditu to chińska wersja Google Maps). Jednak obecny interfejs HSM pokazuje mapy Baidu od krajowego dostawcy usług mapowania w Chinach jako mapę bazową. Google przeniósł swój serwer do Hongkongu, biorąc pod uwagę spory, jakie toczył z chińskim rządem o cenzurę informacji. Nic więc dziwnego, że wielu chińskich użytkowników Internetu przyjęło Mapy Baidu do codziennego użytku, ponieważ mogą istnieć bariery w dostępie do Map Google. Na koniec 2016 roku HSM pokazuje łącznie 36 nagrań. Jeśli kliknie się na symbol nagrania na mapie, nagranie zostanie odtworzone w prawej górnej części interfejsu, która zawiera również informacje o rejestratorze, miejscu nagrania i czasie nagrania, a następnie krótki opis przechwyconego dźwięku. Taki sposób mapowania może służyć jako dźwiękowe archiwum miasta. Co więcej, prezentując te nagrania na mapie i udostępniając je online za pomocą wkładu generowanego przez użytkowników, HSM może zapewnić nagrywającym nowe przestrzenie do dzielenia się swoimi doświadczeniami i spotkaniami z miastem, co z kolei może pomóc w generowaniu refleksji na temat przestrzeni miejskich . Niemniej jednak przecięcie między mapowaniem dźwięku a neogeografią jest stosunkowo mniej zbadane.

Ordnance Survey Kreator map internetowych OpenSpace

Ordnance Survey Kreator map sieciowych OpenSpace umożliwia zarejestrowanym użytkownikom tworzenie własnych map online przy użyciu platformy opracowanej przez firmę Ordnance Survey w Wielkiej Brytanii. Jest to przykład wysiłków tradycyjnego, autorytatywnego dostawcy danych przestrzennych, aby zaangażować się w neogeografię poprzez świadczenie usług mapowania online dla społeczeństwa. Użytkownicy mogą dostosowywać własne mapy, korzystając z wymienionych opcji, takich jak określanie skali i dołączanie mapy poglądowej. Oprócz platformy mapowania dostępne jest forum internetowe, na którym można zadawać i omawiać pytania dotyczące korzystania z tej usługi.Muki Haklay, Alex Singleton i Chris Parker dostarczają przydatnych informacji na temat tej usługi mapowania świadczonej przez krajową agencję kartograficzną. Chociaż istnieją badania badające rolę agencji rządowych w ułatwianiu praktyk neogeograficznych, potrzebne są dalsze badania, aby zbadać rolę agencji publicznych różnej skali w konstruowaniu krajobrazu mapowania online i związanych z tym implikacji społeczno-politycznych.

Przyszłe kierunki

Rozwój neogeografii i innych powiązanych sposobów tworzenia informacji geograficznych generowanych przez użytkowników przyciągnął znaczną uwagę zarówno badaczy, jak i praktyków, którzy dyskutowali o sposobach tworzenia, opracowywania i udostępniania informacji geograficznych. Ogromne i wysoce heterogeniczne dane przestrzenne, generowane często (choć nie zawsze) z oszałamiającą szybkością, stworzyły nowe możliwości i wyzwania dla społeczności naukowej. Chociaż wczesne debaty miały na celu zmaganie się z implikacjami neogeografii dla roli specjalistów GIS i geografów akademickich, późniejsze badania wezwały do zwrócenia większej uwagi na badanie złożoności tworzenia map i praktyk wizualnych, które obejmują neogeografię. Chociaż każde z trzech zastosowań omówionych w tym wpisie można postrzegać jako reprezentujące szerszą kategorię praktyk neogeograficznych, razem służą one jako punkt wyjścia do naświetlenia możliwości i wyzwań związanych z tymi praktykami. W ciągu dekady od połowy 2000 roku praktyki neogeograficzne wzrosły wykładniczo. Stanowi wyzwanie dla zawodowych geografów i zapewnia równoległą pozycję pozaakademickiej produkcji wiedzy geograficznej. Podjęto znaczne wysiłki, aby zakwestionować, zlokalizować i skomplikować te początkowe twierdzenia. Istnieją również bogate relacje omawiające możliwości, możliwości, wyzwania i ograniczenia związane z neogeografią. Potrzebne są dalsze badania, aby zbadać praktyki neogeograficzne i ich rolę w GIS i geografii, umiejscowić te praktyki w różnych kontekstach, zbadać sposoby ich konstruowania i zbadać ich znaczenie społeczne, nie tylko dlatego, że praktyki neogeograficzne będą się nadal rozwijać.



Powrót

Neutralność sieci



Neutralność sieci to ruch w społeczności technologicznej, który ma na celu ustanowienie i zachowanie uczciwej i otwartej dostępności sieci dla wszystkich użytkowników końcowych, dostawców treści i protokołów technologicznych. Chodzi o to, aby Internet - obejmujący wiele protokołów, takich jak protokół przesyłania hipertekstu, protokół przesyłania plików, poczta elektroniczna (protokół dostępu do wiadomości internetowych, protokół pocztowy, protokół prostego przesyłania poczty) i wiele innych - był jednakowo dostępny dla wszystkich użytkowników. Co więcej, pomysł polega na tym, że wszyscy wydawcy (np. strony internetowe, blogerzy, portale społecznościowe) i usługi sieci (np. Netflix, Spotify, Hulu) powinny być jednakowo dostępne dla wszystkich płacących klientów. Bardziej zasadniczo, być może, wielu postrzega neutralność sieci jako podstawową zasadę społeczeństwa sieciowego. Jest to możliwość swobodnego komunikowania się online z kimkolwiek, za pośrednictwem dowolnego kanału, jaki wybiorą. Termin neutralność sieci jest ogólnie przypisywany profesorowi prawa Uniwersytetu Columbia, Timowi Wu. Wu użył tego terminu w swoim artykule z 2003 roku "Network Neutrality, Broadband Discrimination". Centralnym punktem dyskusji na temat neutralności sieci jest rola rządu federalnego Stanów Zjednoczonych, a zwłaszcza Federalnej Komisji Łączności (FCC), w regulowaniu tego, co dostawcy usług internetowych (ISP) mogą, a czego nie mogą robić w ramach ich kluczowych ról w zapewnianiu łączności sieciowej. Istnieją ważne względy społeczne, ekonomiczne i technologiczne po obu stronach dyskusji na temat neutralności sieci, z których każda ma znaczące konsekwencje dla przyszłości świata połączonego siecią. W tym wpisie omówiono argumenty za i przeciw neutralności sieci, technologię neutralności sieci oraz względy ekonomiczne, społeczne, prawne i polityczne.

Argumenty za neutralnością sieci

Zwolennicy uczciwej i otwartej sieci publicznej uważają, że ta neutralność może być zagrożona przez duże korporacje i dostawców usług internetowych starających się o preferencyjne traktowanie niektórych części Internetu w stosunku do innych. Praktyczna neutralność sieci została już wystawiona na próbę, ponieważ główni dostawcy usług telekomunikacyjnych i dostawcy usług internetowych zaczęli opracowywać plany ograniczania przepustowości sieci lub zapewniania szybkiego dostępu stronom internetowym i usługom, które chcą i są w stanie za to zapłacić. Na przykład duży dostawca treści online mógłby negocjować z dostawcą usług internetowych, aby zapewnić swoim użytkownikom szybsze połączenie z jego treścią. Kiedy te duże konglomeraty zapewniają preferencyjne traktowanie niektórym witrynom, inni producenci treści mogą mieć trudności z udostępnieniem ich treści publicznie. Gdy przepustowość jest ograniczana przez dostawców usług internetowych, nie wszyscy klienci korzystają z tego samego Internetu. W niektórych skrajnych przypadkach dostawcy usług internetowych mogą nawet decydować, do których stron internetowych użytkownicy mają dostęp w ich sieciach (praktyka znana jako dyskryminacja danych). Obrońcy sieci neutralnej uważają, że obowiązkiem rządu jest stworzenie przepisów uniemożliwiających dostawcom usług internetowych (gatekeeper) podejmowanie decyzji w oparciu o ich interesy korporacyjne, a nie interesy ich klientów. Wielu zwolenników neutralności sieci uważa, że dostęp do Internetu szybko staje się (jeśli już nim nie jest) podstawowym prawem człowieka. Ponieważ bardziej krytyczne usługi są uzależnione od Internetu, społeczeństwo musi mieć swobodny dostęp do tych usług z niezawodnym czasem działania i szybkością.

Argumenty przeciwko neutralności sieci

Główni przeciwnicy ruchu neutralności sieci sugerują, że dostawcy usług internetowych powinni mieć możliwość prowadzenia działalności bez ingerencji w regulacje rządowe. Te korporacje - dostawcy usług internetowych, konglomeraty telekomunikacyjne i dostawcy infrastruktury wspierającej - argumentowali, że regulacje rządowe byłyby szkodliwe dla rentowności przedsiębiorstw i ostatecznie spowodowałyby wyższe ceny dla konsumentów. Jedną z wymiernych korzyści często wymienianych przez dostawców usług internetowych jest to, że praktyka zerowania niektórych usług dla klientów mobilnych w rzeczywistości zwiększa dostępność dla niektórych, których może nie stać na kosztowny pakiet połączenia szerokopasmowego. Przeciętny klient telefonu komórkowego płaci za miesięczny abonament obejmujący 2 gigabajty transferu danych. Klienci korzystają z danych, gdy na przykład odwiedzają stronę internetową lub przeglądają aplikację społecznościową na swoim urządzeniu mobilnym. Ocena zerowa to funkcja, która umożliwia konsumentom dostęp do określonych witryn lub usług bez wykorzystywania przydzielonej im mobilnej transmisji danych; w istocie dane te mają zerową stawkę, ponieważ nie są wliczane do płatnego planu klienta. W ten sposób firmy telekomunikacyjne mogą zapewnić dostęp do popularnych serwisów internetowych (np. Facebook, Wikipedia, Google) za darmo lub po bardzo niskich kosztach konsumentom na rynkach wschodzących.

Ograniczanie i kierowanie

Istnieje kilka sposobów, w jakie dostawcy usług internetowych i operatorzy telekomunikacyjni mogą manipulować ruchem internetowym. Jednym z bardziej powszechnych sposobów jest dławienie, czyli ograniczanie przepustowości połączeń w sieci. W przeszłości niektórzy dostawcy usług internetowych skupiali się na sieciach peer-to-peer i usługach udostępniania plików i zasadniczo ograniczali ilość danych i prędkość, z jaką ci użytkownicy mogą przesyłać pliki. Ograniczanie przepustowości to technika stosowana przez dostawców usług internetowych w celu zwalczania przeciążenia sieci, ale zwolennicy neutralności sieci twierdzą, że pozostawia ona zbyt dużą kontrolę w rękach inżynierów dostawcy usług internetowych. Jest to również przykład kierowania na protokół, praktyki, w której dostawcy usług internetowych mogą identyfikować i manipulować niektórymi typami połączeń. Na przykład większość ruchu poczty e-mail w Internecie wykorzystuje protokół Post Office Protocol, Internet Message Access Protocol i/lub Simple Mail Transfer Protocol do przesyłania wiadomości. Natomiast protokół przesyłania plików i protokół przesyłania hipertekstu służą różnym celom (odpowiednio przesyłaniu plików i przeglądaniu Internetu). Protokoły targetowania umożliwiają dostawcom usług internetowych uprzywilejowanie lub ograniczenie niektórych typów połączeń. Kierowanie na protokół to jeden z technicznych przykładów tego, jak dostawcy usług internetowych mogą współpracować z dostawcami treści w celu poprawy usług i tworzenia potencjalnie lukratywnych kontraktów. Tego właśnie obawia się wielu zwolenników neutralności sieci, ponieważ umieszcza ona ogromną władzę (i pieniądze) w rękach niewielkiej grupy zainteresowanych stron.

Względy ekonomiczne i społeczne

Nie ulega wątpliwości, że Internet wywarł ogromny wpływ na współczesne społeczeństwo. Ponieważ połączenie z Internetem we wszystkich jego formach jest obecnie tak ważne, kwestia neutralności sieci ma daleko idące implikacje dla światowej gospodarki i całego społeczeństwa. Przeciwnicy neutralności sieci sugerują, że regulacje rządowe dotyczące dostawców usług internetowych byłyby szkodliwe dla inwestycji w infrastrukturę, tworzenia miejsc pracy i jakości usług. Zgodnie z przepisami rządowymi dostawcom usług internetowych może być trudniej budować nowe sieci fizyczne lub aktualizować istniejące w celu ulepszenia oferty produktów, a tym samym zysków. Przy tym, co stanowi postrzegany pułap zysków, dostawcy usług internetowych mogą nie mieć dodatkowego kapitału potrzebnego do ekspansji na nowe rynki, zatrudniania nowych pracowników i kontynuowania inwestycji w badania i rozwój. I odwrotnie, obrońcy neutralności sieci argumentują, że niewielka liczba rentownych dostawców usług internetowych działających obecnie ma wystarczająco wysokie zyski i kontroluje prawie monopol na większości rynków. Na niektórych obszarach klienci mają do wyboru tylko jednego lub dwóch dostawców usług internetowych. Ta ekonomiczna dominacja, w połączeniu z nieograniczoną kontrolą nad treściami przepływającymi przez ich sieci, prowadzi wielu zwolenników otwartego Internetu do wezwania rządu do złagodzenia władzy głównych telekomów za pomocą przepisów federalnych.

Względy prawne i polityczne

Jednym z najwcześniejszych praw dotyczących Internetu i neutralności sieci była ustawa o telekomunikacji Stanów Zjednoczonych z 1996 r., podpisana przez prezydenta Billa Clintona. Ustawa ta została zaprojektowana w celu rozwiązania wielu problemów, które pojawiły się od czasu przyjęcia jej poprzedniczki, Ustawy o komunikacji z 1934 r. Przepisy z 1996 r. Miały na celu deregulację zmieniającego się przemysłu telekomunikacyjnego i stymulowanie otwartej konkurencji rynkowej wśród nowych dostawców usług. Krytyczne dla tej ustawy było dokonane rozróżnienie między usługami telekomunikacyjnymi a usługami informacyjnymi. Podczas gdy usługi telekomunikacyjne oferowane są bezpośrednio społeczeństwu, usługi informacyjne wymagają pośrednika w świadczeniu określonych usług informacyjnych za pośrednictwem sieci telekomunikacyjnej. Te dwie klasy usług są regulowane w różny sposób, a rozróżnienie to doprowadziło do wielu kontrowersji wokół neutralności sieci w latach od 1996 r. Zaproponowano i omówiono kilka struktur regulacyjnych w organach ustawodawczych na całym świecie. W Stanach Zjednoczonych w połowie 2000 roku wprowadzono kilka nieudanych środków. W 2010 roku FCC zatwierdziła Open Internet Order, ustanawiając zestaw zasad, które zachowałyby neutralność sieci. Uprawnienia FCC zostały zakwestionowane i ostatecznie zaostrzone w sprawie z 2014 r. dotyczącej Verizon Wireless. W wyniku tej sprawy wprowadzono kilka nowych środków, które mają na celu wyjaśnienie klasyfikacji dostawców usług telekomunikacyjnych i informacyjnych oraz roli rządu federalnego w regulowaniu branży. W 2015 r., za prezydenta Baracka Obamy, FCC głosowała za uregulowaniem szerokopasmowego dostępu do Internetu zgodnie z tytułem II ustawy o łączności i przyjęła zasady gwarantujące, że dostawcy usług internetowych nie będą blokować treści zgodnych z prawem ani nadawać priorytetu niektórym dostawcom treści za opłatą. W grudniu 2017 roku FCC kierowana przez przewodniczącego wyznaczonego przez Donalda Trumpa, Ajita Pai, głosowała za usunięciem zasad regulujących sposób, w jaki firmy łączą klientów z Internetem.

Patrząc w przyszłość

Idea sprawiedliwego i otwartego Internetu jest złożona i trudna do zrealizowania. W debacie, która ma daleko idące implikacje dla gospodarki, rządu i społeczeństwa, bierze udział wiele stron . W zależności od neutralności Internetu można osiągnąć lub utracić duże zyski korporacyjne, a jednocześnie zagrożone mogą być indywidualne wolności, prywatność i być może prawa człowieka bez interwencji rządów lub organów regulacyjnych. Zarówno zwolennicy, jak i przeciwnicy neutralności sieci bez wątpienia będą nadal pracować dla swojej sprawy, a debata nabierze nowych wymiarów w miarę rozwoju i zmian technologii i ekonomii cyfrowej.



Powrót

Netflix



Netflix to amerykańska firma rozrywkowa oferująca oparte na subskrypcji usługi przesyłania strumieniowego wideo na żądanie i DVD-by-mail. Założona w 1997 roku przez Reeda Hastingsa i Marca Randolpha firma zaczynała jako internetowa konkurencja dla sieci wypożyczalni wideo, takich jak Blockbuster, oferując klientom możliwość zamawiania i wypożyczania płyt DVD przez Internet bez pobierania opłat za opóźnienia. Wraz ze stałym wzrostem penetracji łączy szerokopasmowych i korzystaniem z Internetu w Stanach Zjednoczonych w latach 2000. Netflix rozszerzył swój model biznesowy o strumieniowe przesyłanie wideo w 2007 r. Od tego czasu firma nieustannie rozwija swoją ofertę strumieniowego przesyłania wideo, najpierw poprzez ekspansję na rynki międzynarodowe, z Kanadą w 2010 r., a następnie udostępniając "Netflix Originals", treści medialne zamówione i debiutujące na platformie streamingowej Netflix, począwszy od 2012 r. Chociaż firma nadal utrzymuje usługę DVD-by-mail w Stanach Zjednoczonych, jest dziś w dużej mierze znana ze swojej międzynarodowej dominacji w sektorze strumieniowego przesyłania wideo. W tym wpisie omówiono historię Netflix, praktyki oglądania na żądanie, technologię oraz sposób, w jaki Netflix rzucił wyzwanie branżom medialnym.

Praktyki przeglądania na żądanie

Zarówno w prasie rozrywkowej, jak i w pismach naukowych, Netflix jest często używany jako doskonały przykład odnoszący się do zmieniających się praktyk oglądania w erze cyfrowej. Termin upijanie się jest coraz częściej używany w odniesieniu do trybu konsumpcji mediów, który polega na oglądaniu wielu odcinków serialu telewizyjnego z rzędu. Chociaż Netflix aktywnie zachęca do tego sposobu konsumpcji, na przykład udostępniając jednocześnie wszystkie odcinki sezonu telewizyjnego, upijanie się nie jest zjawiskiem występującym wyłącznie w erze cyfrowej. Można to prześledzić wstecz do analogowych dni kasety wideo rejestrator, kiedy widzowie po raz pierwszy mogli nagrywać programy telewizyjne w celu archiwizacji i przeglądania. Jednak w przypadku Netflix Chuck Tryon argumentuje, że oglądanie nałogowe polega zarówno na aktywnym zarządzaniu czasem przed telewizorem, jak i na ekskluzywności i byciu częścią nowatorskiej technologii i narracji. Gdy nowe sezony prestiżowych programów Netflix, takich jak House of Cards, stają się natychmiast dostępne, programy telewizyjne stają się formą kapitału kulturowego, która inspiruje zarówno subskrybentów Netflix, jak i publikacje rozrywkowe do udziału w uprzywilejowanych rozmowach na temat treści. Dzięki modelowi na żądanie Netflix przyczynia się nie tylko do zmiany oczekiwań co do tego, kiedy treści multimedialne powinny być udostępniane odbiorcom, ale także gdzie i na jakich urządzeniach. Tryon wprowadza termin mobilność platformy, aby odnieść się do możliwości rozpoczęcia filmu lub programu telewizyjnego na jednym urządzeniu (np. telewizorze), a następnie przeniesieniu oglądania na inne urządzenie (np. telefon komórkowy) z minimalnymi przerwami. Pojęcie mobilności platformy komplikuje również tradycyjne koncepcje specyficzności medium - to znaczy zmusza do ponownego przemyślenia technologicznych i fizycznych właściwości medium takiego jak telewizja. W dobie Netflix telewizor nadal może znajdować się na środku salonu widza, ale nie musi już znajdować się w centrum oglądania.

Eksploatacja technologii

Naukowcy zajmujący się mediami i komunikacją zwrócili uwagę, że zmiany technologiczne wpływają nie tylko na konsumpcję treści na żądanie, ale także na sposób, w jaki firma taka jak Netflix produkuje i dystrybuuje te treści w Internecie. Neta Alexander zauważa, że od 2011 roku Netflix nie tylko taguje filmy i programy telewizyjne w swoim katalogu, ale także z powodzeniem wydobywa dane użytkowników za pomocą zaawansowanego systemu algorytmicznego o nazwie Cinematch, aby przewidzieć, jakie treści dany widz najprawdopodobniej obejrzy w następnej kolejności. Jednak ten system to coś więcej niż silnik rekomendacji skierowany do odbiorców. Dzięki Cinematch Netflix ma dostęp do metadanych dotyczących nawyków oglądania milionów subskrybentów na całym świecie, które może wykorzystać do podejmowania świadomych decyzji dotyczących tego, jakiego rodzaju treści firma powinna licencjonować lub produkować w następnej kolejności. Dostęp do tego rodzaju dużych zbiorów danych daje firmie przewagę konkurencyjną nad sieciami telewizyjnymi, które opierają się na bardziej tradycyjnych technikach pomiaru oglądalności, a nawet instynkcie kierownictwa przy podejmowaniu tego rodzaju decyzji. Internet zapewnia technologiczną podstawę Netflix do udostępniania strumieni wideo widzom na całym świecie. Te strumienie wymagają dużych ilości danych do przesłania przez Internet. W szeroko cytowanym badaniu z 2015 roku stwierdzono, że Netflix jest odpowiedzialny za ponad jedną trzecią całego szczytowego ruchu internetowego w Ameryce Północnej. Christian Sandvig przekonuje, że bez kluczowych zmian technologicznych w architekturze dystrybucji Internetu nie byłoby to w ogóle możliwe. Internet został przeprojektowany z sieci typu punkt-punkt do sieci umożliwiającej wielu użytkownikom dostęp do tego samego pliku ze stosunkowo niewielkiej liczby serwerów (model przesyłania strumieniowego). W tym celu opracowano sieci dostarczania treści, rozproszone systemy serwerów rozmieszczone w centrach danych na całym świecie, aby pomóc dostawcom treści, takim jak Netflix, odciążyć część ich ruchu, umożliwiając im buforowanie treści w strategicznych miejscach zlokalizowanych blisko użytkownika. Netflix zbudował własną sieć dostarczania treści, Open Connect, aby pomóc firmie w dostarczaniu strumieni, które teoretycznie ładują się szybko, odtwarzają w wysokiej jakości i są rzadziej przerywane.

Wymagające branże medialne

Netflix ma złożone relacje z uznanymi aktorami w branży medialnej. To, co zaczęło się jako konkurencja dla sieci wypożyczalni wideo, takich jak Blockbuster, przekształciło się w firmę tak poważnie wpływa na biznes i ekonomię przemysłu telewizyjnego na całym świecie. Odcinanie kabli, praktyka polegająca na rezygnacji z subskrypcji telewizji kablowej na rzecz opcji przesyłania strumieniowego, jest aktywnie promowana przez Netflix i, jak przekonuje Michael Strangelove, jest akceptowana przez konsumentów niezadowolonych z drogich ofert branży telewizji kablowej. Co więcej, jak zauważają Kevin McDonald i Daniel Smith-Rowsey, naśladując strategie dotyczące treści i brandingu kanałów premium, takich jak HBO, czyli oferując hollywoodzkie treści premium i inne oryginalne programy, opakowane w sposób, który sprawia, że usługa sprawia wrażenie wysokiej jakości Netflix był w stanie zająć pozycję uzasadnionego konkurenta na rynku tradycyjnie zdominowanym przez konglomeraty medialne o ugruntowanej pozycji, takie jak Time Warner (spółka macierzysta HBO). Popularność Netflix w Stanach Zjednoczonych i poza nimi spowodowała, że firma rozwijała czasami niespokojne relacje z posiadaczami praw i międzynarodowymi abonentami. Netflix ma lokalne umowy licencyjne ze swoimi partnerami w zakresie treści, które regulują, jakie tytuły mogą być udostępniane w wielu regionach, w których działa firma. W wyniku tych umów biblioteki Netflix mogą wyglądać znacznie inaczej poza głównymi rynkami, takimi jak Stany Zjednoczone, konsternację abonentów Netflixa na całym świecie. Aby zachować kontrolę nad międzynarodowymi trasami dystrybucji i spełnić wymagania swoich partnerów w zakresie praw cyfrowych, Netflix (podobnie jak większość głównych platform wideo na całym świecie) stosuje geoblokowanie, technologię filtrowania, która ogranicza dostęp do treści online w oparciu o położenie geograficzne użytkownika Adres IP. Jednak, jak pokazał Ramon Lobato i inni, nie skończyło się to inaczej społecznościom i zainteresowanym stronom na całym świecie - w tym wczesnym użytkownikom, konsumentom wrażliwym na ceny i ekspatriantom - korzystania z narzędzi do maskowania lokalizacji, takich jak wirtualne sieci prywatne lub serwery proxy systemu nazw domen, w celu uzyskania dostępu do żądanych treści.



Powrót

Netykieta



W 2016 roku Międzynarodowy Związek Telekomunikacyjny poinformował, że na całym świecie było ponad 7 miliardów abonamentów telefonii komórkowej, a 3,2 miliarda ludzi korzystało z Internetu. Innymi słowy, tylko mniej niż połowa światowej populacji jest online. Przy takim poziomie penetracji Internet jest zderzeniem kultur i środowisk, z odmiennymi normami i oczekiwaniami społecznymi, w tym dotyczącymi korzystania z Internetu, regulacji, praw autorskich, anonimowości i netykiety. Ten wpis definiuje terminy etykieta i netykieta oraz omawia, w jaki sposób netykieta odnosi się do komunikacji online, w szczególności poczty elektronicznej i mediów społecznościowych. Chociaż kraje ustanowiły prawa i wytyczne dotyczące korzystania z Internetu, nie ma wyraźnych, ustandaryzowanych zasad dla użytkowników, a jeśli istnieją wytyczne dotyczące użytkowania, różnią się one w różnych kulturach, zarówno globalnie, jak iw odizolowanych środowiskach internetowych. Autonomia i bezpośredniość w trybie online, w połączeniu z zaciemnioną tożsamością, mogą sprawić, że osoby komunikujące się online będą bardziej pozbawione zahamowań i będą mogły swobodnie wyrażać swoje zdemaskowane, niefiltrowane emocje, opinie i ideologie. Kulturowa heterogeniczność globalnego Internetu, deindywiduacja i odhamowanie nieodłącznie związane z korespondencją online, a brak konsekwencji za wykroczenia obywatelskie tworzą platformę podatną na konflikty społeczne. Chociaż globalna netykieta - powszechnie akceptowalny wielokulturowy kodeks postępowania dotyczący wszystkich zachowań online - nie istnieje, istnieje lokalna cyberetykieta, która jest uzależniona od szerszej kultury hosta dla każdej witryny internetowej, bloga, profesjonalnego konta e-mail lub platformy mediów społecznościowych. Etykieta odnosi się do ukrytych wytycznych lub norm społecznych, które rządzą zachowaniem. Termin wywodzi się z XVI-wiecznego francuskiego słowa étiquette, które pierwotnie oznaczało "bilet", a później zaczęło oznaczać również właściwe zachowanie. Oczekiwania dotyczące etykiety różnią się w zależności od kultury oraz środowiska osobistego i zawodowego i są niezwykle płynne, zmieniając się wraz ze społeczno-politycznym duchem czasu. Neologizm netykieta to połączenie słów Internet i etykieta. Odnosi się do niejawnego standardu uprzejmości używanego w komunikacji za pośrednictwem komputera. Ponieważ nie ma znormalizowanego kodeksu postępowania w komunikacji internetowej, wiele artykułów i książek akademickich i branżowych próbowało zlikwidować to naruszenie, oferując zalecane wytyczne i konwencje pozwalające uniknąć konfliktów społecznych w Internecie. Książka Virginii Shea z 1994 r. Netykieta przedstawia szereg zasad cyberuprzejmości, z których wszystkie obejmują adaptacje Złotej Zasady lub prawa wzajemności: Traktuj innych tak, jak chcesz być traktowany. Pierwsza zasada Shea, "Pamiętaj o człowieku", stała się tropem, przypominającym pisarzom o emocjonalnym człowieczeństwie ich internetowych czytelników. Normy społeczne ograniczają nieuprzejmą mowę i nieuprzejme zachowanie. Jeśli indywidualna tożsamość komunikatora łączy się z tożsamością społeczną grupy internetowej, jednostka jest mniej nieodpowiedzialna. Ta deindywiduacja może skutkować zmniejszoną introspekcją, większym odhamowaniem i mniejszą dyskrecją emocjonalną, co skutkuje internetowymi wojnami na płomienie. Podczas gdy podpalanie odnosi się do wyrażania silnie zakorzenionych, często emocjonalnych przekonań, podpalanie niekoniecznie jest zachowaniem negatywnym lub niegrzecznym. Wyrażanie tych zapalających przekonań może wywołać dyskusję wśród czytelników, często prowadzącą do wzajemnego zrozumienia. W przeciwieństwie do tego, wojny płomieni to jadowite ataki między dwiema lub więcej osobami, które dominują na forach dyskusyjnych, blogach lub w komentarzach online, niszcząc w ten sposób morale i sens dyskusji grupowej. Częste, powtarzające się i celowe próby wzniecenia wojny na płomienie są określane jako trolling. Trollowanie to nakłanianie poprzez karzący lub prowokacyjny język, aby zaangażować innych (zwykle grupę zewnętrzną) w okrężną, obronną dyskusję; trolle odnoszą się do tych, którzy angażują się w takie zachowanie. Powiązane zachowania, takie jak cybernękanie i cybernękanie, są podobne do trollingu, ale nękanie i zastraszanie online zazwyczaj obejmuje powtarzające się, osobiste ataki na jednostki, a nie na grupy, z zamiarem skrzywdzenia, zawstydzenia lub grożenia. Wiadomości e-mail, grupy dyskusyjne i posty w mediach społecznościowych są powszechnymi narzędziami wojen, nękania i zastraszania. Ponieważ nie istnieje znormalizowana rubryka dotycząca odpowiedniego zachowania w Internecie, a normy zachowań różnią się w różnych kulturach globalnych i internetowych, wykroczenia grzecznościowe w komunikacji online są powszechne i często niezamierzone. Rozwój, ewolucja i rozpowszechnianie się komunikacji internetowej doprowadziły do tego, że użytkownicy mediów internetowych stają się coraz bardziej zróżnicowani. Właściwe zachowanie zależy od lokalnych norm i środowiska online, w którym pojawia się komunikacja. Na przykład netykieta w osobistym e-mailu do członka rodziny różni się od tej wymaganej w e-mailu zawodowym do kolegi. Oczekiwania dotyczące uprzejmości w witrynach z grami niezmiennie będą różnić się od norm na czacie, blogu lub na Facebooku. To sprawia, że standaryzacja netykiety jest praktycznie niemożliwa, ale istnieją względy, które dotyczą dwóch głównych rodzajów komunikacji internetowej - poczty elektronicznej i mediów społecznościowych. Zasada Shea, pamiętaj o człowieku, obejmuje również szacunek dla czytelnika, zwłaszcza dla jego czasu. Według McKinsey Global Institute pracownicy niektórych branż spędzają jedną czwartą swojego tygodnia pracy na czytaniu i odpowiadaniu na e-maile. Pewne wytyczne mogą zmniejszyć prawdopodobieństwo, że wiadomości e-mail wysyłane w kontekście miejsca pracy będą miały szkodliwy wpływ na produktywność. Obejmują one upewnienie się, że wiersze tematu są bezpośrednie i podsumowują główny punkt wiadomości; aby sama wiadomość była zwięzła, jasna i łatwa do zrozumienia; i że ton wiadomości jest odpowiedni. Media społecznościowe to formy mediów online przeznaczone do interakcji peer-to-peer, udostępniania treści i współpracy. Strony internetowe i aplikacje, takie jak Twitter, Facebook, Blogger, Snapchat, Instagram i LinkedIn to przykłady popularnych serwisów społecznościowych. Te platformy są zazwyczaj otwarte; w związku z tym użytkownicy powinni zachować ostrożność przy udostępnianiu elementów, których nie chcieliby, aby niektóre osoby je widziały. Ponadto użytkownicy mediów społecznościowych muszą wziąć pod uwagę, jakie wypowiedzi mogą zostać uznane za zniesławiające lub podżegające, za co mogą zostać pociągnięci do odpowiedzialności przed sądem cywilnym. Konta w mediach społecznościowych to fora indywidualnej autoprezentacji; w związku z tym publikowanie komentarzy, odpowiedzi lub krytyki z poglądami sprzecznymi z ideologią, komentarzem obronnym lub argumentacyjną odpowiedzią na ścianie lub blogu innej osoby może być postrzegane jako naruszenie przestrzeni osobistej lub jako niegrzeczne. Niemiła lub nietolerancyjna wiadomość opublikowana w dowolnym miejscu w mediach społecznościowych może zostać odrzucona jako ignorancja, trollowanie, zastraszanie lub nękanie. Ponadto publikowanie materiałów należących do innych osób bez ich zgody i zgody (tj. udzielenia ustnego lub pisemnego błogosławieństwa) stanowi naruszenie netykiety na praktycznie każdej platformie internetowej, w tym w poczcie elektronicznej i mediach społecznościowych. Może to obejmować oznaczanie zdjęć przyjaciół, rodziny, współpracowników, a zwłaszcza nieletnich, którzy mogą być dodatkowo chronieni ograniczeniami prawnymi.


Powrót

Netizen



Znaczenie w komunikacji międzyludzkiej pojawia się na różnych poziomach interakcji w środowisku kulturowym. Ten kontekst kulturowy jest sygnalizowany przez używany język, w połączeniu z tym, kto mówi, a kto słucha. Kontekst kulturowy staje się zreifikowany i problematyczny po konwersji na pismo, gdzie może być trudno określić, kto jest autorem i czy istnieje zamierzony czytelnik. W dobie globalizacji niektóre słowa używane w języku angielskim, takie jak internauci, mają wiele odniesień stosowanych jako nazwy, zwłaszcza gdy są używane w sytuacjach międzykulturowych. Z językowego punktu widzenia, internauta ma zarówno denotację, jak i konotację. Netizen oznacza osobę, która używa Internetu do wyrażania określonych sądów wartościujących na temat praktyk społecznych z myślą o założonej publiczności. Netizen oznacza każdą osobę korzystającą z komputera, która publikuje wiadomość w sieci World Wide Web bez określonej grupy odbiorców. Denotacje kodują pewną liczbę cech wspólnych dla wszystkich zastosowań (osoba, korzystanie z Internetu, osąd wartościujący) zwanych rozszerzeniami, podczas gdy inne cechy są unikalne dla danego przekazu (docelowa grupa odbiorców, brak odbiorców, ocena pozytywna, ocena negatywna). Konotacje są używane jako sposób na wybranie ramki lub kontekstu, w jaki sposób używać tej nazwy. Krótko mówiąc, kluczem do zrozumienia terminu takiego jak internauta jest zrozumienie kontekstu użycia w danej kulturze, który nazywamy dyskursem. Aby zilustrować kontrastujące poglądy kulturowe, ten wpis porównuje amerykańskie użycie internautów z chińskim użyciem semantycznym. Oprócz uwzględnienia kontrastu kulturowego, porównanie ma również tę zaletę, że obejmuje dwa języki, angielski (amerykański) i chiński (mandaryński), które stanowią zdecydowaną większość użytkowników Internetu na scenie globalnej. We wpisie omówiono genezę tego terminu, jego kulturowe i polityczne konteksty oraz badania komunikologii międzykulturowej dotyczące chińskiego użycia tego terminu.

Pochodzenie terminu

Termin netizen jest amerykańskim angielskim neologizmem, który łączy słowa sieć i obywatel w krótkiej formie, łącząc przyimek "net-" i postpozycję "izen", tworząc technicznie słowo portmanteau. Ten proces łączenia służy do tłumaczenia tego terminu na język chiński (wa˘ngmín), gdzie znak "sieć" jest łączony ze znakiem "ludzi". Pierwsze użycie internauty przypisuje się Michaelowi Haubenowi, wczesnemu twórcy stron internetowych. Odnośna historia zaczyna się w 1979 roku wraz z rozwojem Usenetu (sieci użytkowników) i jej założenie online w 1980 roku w Stanach Zjednoczonych jako prekursor Internetu. Grupy dyskusyjne Usenet rozwinęły kodową praktykę dołączania przyimka "net". do dowolnego tematu dyskusji, aby utworzyć plakietkę. Tak więc wraz z tagami takimi jak net.auto, net.cops i net.general pojawiło się oznaczenie "net.citizen" i skrócona konotacja "netizen".

Kulturowe i polityczne konteksty tego terminu

Różne kultury mają różne kosmologie lub sposoby postrzegania i wartościowania ich doświadczenia jako postrzeganej rzeczywistości. Ogólnie rzecz biorąc, Amerykanie i Chińczycy patrzą na świat z przeciwnych końców ulicy, że tak powiem. Rzeczywistość jest taka sama, ale widok z ulicy (Stany Zjednoczone: indywidualna rzeczywistość "praw") kontrastuje z widokiem z ulicy (Chiny: grupowa rzeczywistość "obowiązków"). Każda kultura ma priorytetowy pogląd na dokonywanie osądów. Amerykanie mają tendencję do skupiania się na prywatnych pomysłach (interes własny lub skupienie się na jednostce) w porównaniu z rzeczami (rozwijająca się przyszłość), podczas gdy Chińczycy koncentrują się na sytuacjach zachowań publicznych (inne interesy lub skupienie się na grupie) w porównaniu z naturą. Kategorie te można wykorzystać do zilustrowania porównawczych konotacji kulturowych terminu internauta widzianych przez Amerykanina i Chińczyka. Brian Fung ilustruje kontrast między tymi konotacjami w swoim artykule z 2012 roku, przedstawiającym socjocentryczny chiński pogląd na internautów jako działaczy politycznych, podobnie jak Matt Schiavenza w artykule z 2013 roku, w którym twierdzi, że termin internauta przekroczył swoją użyteczność w opisywaniu użytkowników Internetu w Chinach. Artykuł Schiavenzy odzwierciedla perspektywę internautów jako indywidualnych aktorów. Każdy z autorów bierze pod uwagę obie opcje kulturowe (konotacje: zarówno indywidualne, jak i grupowe), a jednak każdy twierdzi, że jako dominujący dyskurs kulturowy jego pogląd jest semantycznie poprawny. Artykuł Funga odzwierciedla skupienie się na logice kulturowej i kontekstualizacji języka gramatyki społecznej jako porządku analizy ("widok w tle"), podczas gdy artykuł Schiavenzy skupia się na retoryce społecznej kontekstualizującej osobistą semiotykę jako porządek doświadczenia ("pierwszy plan" widok) . Należy zauważyć, że "wolność wypowiedzi" jest powszechnym określeniem we wszystkich kulturowych zastosowaniach internautów, o czym świadczy Nagroda Netizen przyznana przez Reporterów Without Borders, grupa założona w 1985 roku przez dziennikarzy z Montpellier we Francji.

Komunikologia terminu chińskiego

Komunikologia to badanie formacji dyskursu, w których użytkownicy stosują się do określonej retoryki odzwierciedlającej ukierunkowaną semantyczną pozycję kulturową. Pierwotne znaczenie słowa "netizen" wywodzi się z wielu badań z zakresu komunikacji międzykulturowej, które wyróżniają chińskie użycie. Jak zauważa Paul Clark, politykę Chin często mierzy się aktywnością grupową młodzieży (qingnian), dla której kluczem do kulturowego zrozumienia są kolejne pokolenia. Sugeruje, że różne pokolenia ukształtowały poglądy polityczne, które są rozpoznawane przez media, w tym nowoczesny Internet, w którym internauci nazywają ruch młodzieżowy. W wyniku połączenia między grupami internetowymi a kawiarenkami internetowymi istnieje bezpośredni związek między retoryką internetową a dyskursem osobistym. Zarówno Jens Damm, jak i Richard Lanigan przeprowadzili badania nad semantycznymi konsekwencjami budowy i użytkowania witryn internetowych w kontekście chińskim. Analiza przeprowadzona przez Lanigan dotyczy ogólnie kultury i kodeksów, ale w szczególności chińskiego społeczeństwa i przekazów. W badaniu wykorzystano stronę internetową zbudowaną przez państwową gazetę China Daily, pobierając próbki rzeczywistego dyskursu internetowego używanego przez reporterów do zgłaszania (oznaczeń) o postach internautów w Internecie (konotacje). Korzystając z tych dowodów, typologię użycia można zdefiniować, lokalizując tematy używane przez blogerów oraz semantycznie opisane wartości za lub przeciw. W ten sposób można zdefiniować fenomenologię znaczeń używaną przez rzeczywistych ludzi. W Chinach retoryka internautów ma hierarchię denotacji społeczno-politycznych, która począwszy od najważniejszego tematu obejmuje: (1) odpowiedzialność za komunikowanie się w Internecie, (2) odpowiedzialność za sprawiedliwe warunki mieszkaniowe, (3) odpowiedzialność funkcjonariuszy publicznych (zwalczanie przekupstwa) (4) odpowiedzialność za prawo i sprawiedliwość oraz (5) odpowiedzialność za zapobieganie handlowi dziećmi. Dla porównawczej amerykańskiej perspektywy kulturowej można po prostu zastąpić (egocentryczne) indywidualistyczne wyrażenie "prawo do" zamiast (socjocentrycznego) wyrażenia "odpowiedzialność za". Zatem denotacja rzeczywistości terminu internauta ma dwie przeciwstawne konotacje rzeczywistości, jedną w amerykańskim angielskim, a drugą w chińskim mandaryńskim. Podsumowując, rzeczywistość oznacza komunikację, że żyjemy w świecie fizycznym, który postrzegamy jako "naturalny", podczas gdy rzeczywistość oznacza świat konceptualny, który postrzegamy jako "kulturowy". Zarówno "aktualny", jak i "rzeczywisty" odnoszą się na różne semantyczne sposoby do tego samego przedmiotu.



Powrót

NSFNET



Chociaż Internet powstał pod auspicjami Agencji Zaawansowanych Projektów Badawczych Obronności w postaci ARPANET, nie pozostał tam długo. NSFNET był formą, jaką Internet przybierał przez stosunkowo krótki okres, od 1986 do 1995 roku, ale odegrał ważną rolę we wczesnej historii powstającego Internetu. Było to więc ważne zjawisko przejściowe między militarnymi korzeniami Internetu a nowoczesnym systemem stosowanym współcześnie. Ten wpis omawia rozwój NSFNET i okoliczności, które doprowadziły do jego demontażu. Ponieważ zadaniem Agencji Zaawansowanych Projektów Badawczych Obronności było rozwijanie najnowocześniejszych technologii, a nie administrowanie siecią komunikacyjną, administrowanie Internetem zostało przekazane Narodowej Fundacji Nauki (NSF). Celem był cywilny odpowiednik sieci wojskowej, która wyłoniła się z ARPANET. W 1981 roku NSF sfinansowała Sieć Informatyczną, której planowanie rozpoczęło się w 1979 roku, w celu połączenia komputerów uniwersyteckich niepołączonych z ARPANET. W 1984 roku NSF utworzyło Office of Advanced Scientific Computing, które miało zbudować NSFNET w 1986 roku pod kierownictwem dyrektora programu NSFNET Dennisa Jenningsa. Celem NSFNET, w przeciwieństwie do swojego poprzednika ARPANET, było promowanie sieci wśród badaczy i nauczycieli. Jej ustawa o przyznaniu uprawnień upoważniła NSF do "wspierania rozwoju i wykorzystywania komputerów oraz innych metod i technologii naukowych i inżynieryjnych, głównie do badań i edukacji w zakresie nauk ścisłych i inżynierii". Zastosowania komercyjne nie były wyraźnie dozwolone w celu zachowania przepustowości do celów badawczych. Jednocześnie agencja uruchomiła również inicjatywę superkomputerów, w tym serię superkomputerów na pięciu uniwersytetach: (1) Centrum Johna von Neumanna na Uniwersytecie Princeton; (2) Narodowe Centrum Zastosowań Superkomputerowych na Uniwersytecie Illinois; (3) Centrum Teorii Cornella na Uniwersytecie Cornell; (4) Centrum Superkomputerowe San Diego na Uniwersytecie Kalifornijskim w San Diego; oraz (5) Pittsburgh Computing Center (w tym Westinghouse, Carnegie Mellon University i University of Pittsburgh). Pierwsza sieć NSFNET połączyła ośrodki w Illinois i Cornell, a wkrótce rozszerzyła się o pozostałe trzy. NSFNET połączył również te ośrodki i National Center for Atmospheric Research w Boulder w Kolorado. NSF przewidywał, że system będzie 25 razy szybszy niż Computer Science Network. Pierwszy router NSFNET nosił nazwę Fuzzball, a jego oprogramowanie zostało opracowane przez Davida Millsa z University of Delaware; obejmował wszystkie zatwierdzone standardy internetowe. Połączenia systemu z ARPANETem były kluczowe dla jego rosnącego znaczenia, w szczególności porozumienie zezwalające ARPANETowi na przenoszenie ruchu NSFNET. System wykorzystywał architekturę trójwarstwową, ze szkieletami, sieciami regionalnymi i lokalnymi sieciami kampusowymi. Wykorzystywał także Transmission Control Protocol/Internet Protocol, przejęty z ARPANET, i przesyłał dane przez linie telefoniczne 56 kb/s (wolne jak na dzisiejsze standardy, ale pierwotny ruch nie zawierał wiadomości multimedialnych). Odpowiedzialność za zarządzanie siecią szkieletową powierzono University of Illinois. Wsparcie dla użytkowników końcowych znajdowało się w Centrum Obsługi Sieci NSF. Z pierwotnych sześciu węzłów sieć zaczęła rozszerzać się na inne ośrodki akademickie, przekraczając pierwotny mandat superkomputera. Do 1991 r. to rozszerzył się do 14 węzłów, w tym University of Utah, University of Washington, University of Delaware i Stanford University, a także dodał połączenia międzynarodowe. NSFNET miał również połączenia z sieciami w NASA i Departamencie Energii. W międzyczasie NSF finansuje program Connections, aby pomóc szkołom wyższym i uniwersytetom w przystąpieniu do systemu, a także ulepszone centrum usług i we współpracy ze Sprint, International Connections Manager, który wspierał więzi z uniwersytetami i ośrodkami badawczymi za granicą. Wraz ze wzrostem liczby węzłów ruch sieciowy gwałtownie wzrastał, podwajając się co 7 miesięcy, a system zaczął cierpieć z powodu poważnych zatorów i przeciążeń, co bardzo frustrowało badaczy. W odpowiedzi, po rozważeniu sześciu propozycji, w 1987 roku NSF wybrało jedną złożoną przez partnerstwo z IBM, MCI, stanem Michigan i Merit, konsorcjum uniwersytetów publicznych w Michigan. W skład zespołu zarządzającego wchodzili Doug Van Houweling, Hans-Werner Braun, Ellen Hoffman i Eric Aupperle. Proces modernizacji szkieletów trwał 3 lata; pierwsza linia światłowodowa T1 została uruchomiona 13 miesięcy później, w 1988 roku. Zwiększona przepustowość spowodowała wzrost popytu o 20% miesięcznie. Merit natychmiast zaczął planować modernizację do 19 linii światłowodowych T3 (o przepustowości 45 Mb / s) w ramach kontraktu na 28 milionów USD; kiedy uruchomiono je w 1991 r., przepustowość sieci wzrosła 30-krotnie. W przypadku IBM i MCI proces ten obejmował transfer technologii. Merit został również obciążony wsparciem dla użytkowników. Inne zmiany obejmowały przyjęcie protokołu Border Gateway oraz protokołu sieci bezpołączeniowej OSI. Ed Krol , menedżer sieci, jest autorem Autostopowicza po Internecie, a później The Whole Internet User′s Guide & Catalog, które były ważne dla spopularyzowania Internetu wśród szerszej publiczności spoza środowiska akademickiego. Do 1988 roku około 170 regionalnych sieci kampusowych było podłączonych do NSFNET, przesyłając 150 milionów pakietów miesięcznie. W 1989 roku NSFNET obejmował dwie federalne giełdy internetowe na Uniwersytecie Maryland i NASA Ames Research Center w Mountain View w Kalifornii, a także węzły w Houston i Salt Lake City. Ostatecznie NSFNET składał się z łączy szkieletowych między 200 superkomputerami akademickimi, sieciami średniego poziomu (konsorcja oparte na kampusach lub superkomputerach) oraz setkami sieci kampusowych. Do 1991 roku liczba ta wzrosła do 3500 sieci kampusowych; do 1991 roku liczba ta wzrosła do 6000; a do 1992 r. do 7500, z czego jedna trzecia znajdowała się poza Stanami Zjednoczonymi (głównie w Meksyku, Kanadzie i Europie). Połączenia z NSFNET były bezpłatne, chociaż sieci regionalne mogły pobierać symboliczne opłaty. Również w 1991 roku organizacja non-profit Advanced Networks and Services została podwykonawcą Merit Network i utworzono spółkę zależną nastawiona na zysk, aby zachęcać do komercyjnego wykorzystania Internetu. Rosnące zapotrzebowanie na zastosowania korporacyjne i komercyjne okazałoby się zgubą NSFNET. System zaczął obsługiwać ruch komercyjny z zastrzeżeniem, że jego usługi szkieletowe nie zostaną zmniejszone. W 1988 roku Vint Cerf przekonał NSF, aby zezwoliła na rozpowszechnianie w sieci komercyjnych wiadomości e-mail MCI. W 1992 roku Kongres uchwalił ustawę o nauce i zaawansowanych technologiach, która zezwalała NSFNET na łączenie sieci komercyjnych z instytucjami edukacyjnymi i badawczymi. Zaczęło pojawiać się kilka konkurencyjnych sieci świadczących usługi komercyjne, w tym UUNET, ALTERNET, CERFNet, NEARNet i sieć Performance Systems International. Ponadto regionalne sieci badawcze zaczęły generować podmioty nastawione na zysk. ANS CO+RE, nastawiona na zysk spółka zależna organizacji non-profit Advanced Network and Services, została utworzona specjalnie w celu obsługi ruchu komercyjnego. Przejście do sieci komercyjnych stanowi klasyczny przypadek korzyści sektora prywatnego z inwestycji publicznych w badania i technologię. Było to również kwestią kontrowersji, ponieważ niektórzy obserwatorzy Internetu obawiali się, że firmy te czerpią korzyści kosztem publicznym. W 1992 r. Izba Podkomisji ds. Nauki Komisji Nauki, Przestrzeni Kosmicznej i Technologii przeprowadziła przesłuchania w celu przeglądu zarządzania NSFNET. W 1992 roku, pod naciskiem sieci regionalnych, które chciały obsługiwać ruch komercyjny, NSF wydało zmienioną politykę dopuszczalnego użytkowania, która stopniowo rozszerzała dopuszczalne zastosowania. Na przykład komercyjni dostawcy poczty e-mail, tacy jak CompuServe, uzyskali pozwolenie na eksperymentalne bramy, umożliwiające użytkownikom Internetu wymianę wiadomości przez Internet. Wraz ze wzrostem zainteresowania komercyjnego ruch eksplodował: do końca 1994 r. NSFNET przesyłał 17,8 bilionów bajtów miesięcznie, co odpowiada przenoszeniu zawartości Biblioteki Kongresu co 4 miesiące. W tym samym roku NSF przyznał prywatnym korporacjom kontrakty na budowę czterech punktów dostępu do sieci, które obsługiwały interakcje między różnymi sieciami. Kontrakty trafiły do Sprint w Nowym Jorku; Verizon dla Waszyngtonu; AT&T dla Chicago; i PacBell dla San Jose w Kalifornii. Wkrótce potem sieci zaczęły migrować z NSFNET, a ruch na liniach T3 gwałtownie spadł. Model szkieletów finansowanych ze środków federalnych ustąpił miejsca modelowi sprywatyzowanemu, w którym prywatni przewoźnicy obciążają użytkowników na rynku. W 1995 roku NSF rozpoczęło demontaż NSFNET. Szkielet NSFNET został oficjalnie wycofany z eksploatacji 30 kwietnia 1995 r., Kiedy NSF pozbawił go funduszy po wydaniu 200 milionów dolarów w ciągu 11 lat, a po roku planowania wprowadzono nową architekturę. NSF sfinansował jednak przejście na nowy system i zachował podstawową sieć badawczą do celów badawczych, bardzo szybką usługę sieci szkieletowej o przepustowości 155 Mb/s, która stała się podstawą Internetu 2.0. Zamiast szkieletów NSFNET ruch byłby przenoszony przez sieci regionalne i komercyjne, takie jak należące do Sprint, IBM i MCI. Ta zmiana zasadniczo oznaczała stałą prywatyzację zarządzania Internetem i odzwierciedlała nie tylko jego wzrost, ale także jego coraz bardziej korporacyjny charakter.



Powrót

Nieużytkownicy Internetu



W 2016 roku ponad połowa światowej populacji nie korzystała z Internetu, przy czym różnice w korzystaniu są duże między różnymi regionami świata. W obu Amerykach i Wspólnocie Niepodległych regionach Stanów Zjednoczonych około 35% populacji jest offline. Równoważne odsetki osób niebędących użytkownikami Internetu w innych regionach wynoszą 75% w Afryce, 58% w krajach arabskich oraz w regionie Azji i Pacyfiku oraz 21% w Europie (na podstawie danych Międzynarodowego Związku Telekomunikacyjnego z 2016 r.). Mobilne sieci szerokopasmowe (3G lub wyższe) docierają do 84% światowej populacji, chociaż nadal istnieją różnice pod względem szybkości i jakości łączy szerokopasmowych. W tym wpisie dokonano przeglądu głównych debat, wątków badawczych i zmian, które charakteryzują badania dotyczące niekorzystania z Internetu, i kończy się omówieniem strategii ograniczania niekorzystania z Internetu. W krajach rozwiniętych Internet jest postrzegany jako środek dostarczania usług związanych z edukacją, zdrowiem, zabezpieczeniem społecznym i opieką społeczną, a także promowania demokracji. Cyfryzacja usług może jednak usprawnić lub utrudnić dostęp do informacji i usług. Literatura akademicka identyfikuje trzy kluczowe cele, do których przyczynia się korzystanie z Internetu i umiejętności korzystania z mediów (rozumiane jako zdolność do uzyskiwania dostępu, rozumienia i tworzenia komunikacji w różnych kontekstach): (1) demokracja, uczestnictwo i aktywne obywatelstwo; (2) gospodarka oparta na wiedzy, konkurencyjność i wybór; oraz (3) uczenie się przez całe życie, ekspresja kulturalna i osobiste spełnienie. W związku z tym uważa się, że osoby niebędące użytkownikami Internetu są zagrożone wykluczeniem z obecnych i przyszłych usług cyfrowych oraz z udziału w życiu społecznym. Niekorzystanie z Internetu i nieprzyjmowanie innowacji w zakresie technologii informacyjnych (IT) było znacznie mniej badane niż korzystanie z Internetu i przyjmowanie technologii informatycznych. W swoim artykule Technology in Society z 2003 roku Neil Selwyn argumentuje, że większość badań akademickich skupiała się na niekorzystaniu z technologii informacyjno-komunikacyjnych (ICT) jako irracjonalnym wyborze dokonywanym przez osoby niebędące użytkownikami. W związku z tym niestosowanie ICT było dyskutowane głównie w ramach dyskursów o niedostatku ekonomicznym i poznawczym, technofobii, ideologicznej odmowie i dyfuzji lub z punktu widzenia oporu wobec nowych technologii. Dyskurs o technologiach charakteryzuje się technologicznym optymizmem: rozumieniem technologii jako środka postępu i rozwoju. Według Jennifer Daryl Slack i J. Macgregor Wise, w technologicznym optymizmie więcej technologii oznacza lepsze życie. Ponadto badania nad istniejącymi systemami informatycznymi (IS) oraz badania nad dyfuzją technologii charakteryzują się nastawieniem proinnowacyjnym. Everett Rogers w swojej książce Diffusion of Innovations z 1984 r. zdefiniował nastawienie proinnowacyjne jako założenie, że innowacja powinna być rozpowszechniana i szybko przyjmowana przez wszystkich członków systemu społecznego. Niektórzy badacze odporności IT przyjęli neutralne stanowisko wobec oporu wobec IT, rozumiejąc, że nie jest to ani dobre, ani złe. Opór może być ważnym sygnałem ze strony konsumentów, zgodnie z artykułem Rhody C. Joseph z 2010 roku, w którym stwierdzono, że przedsiębiorcy i programiści nie uwzględnili wystarczającego wkładu użytkownika w projekt produktu i dlatego muszą przeprojektować i ulepszyć.

Różnorodność wśród osób niebędących użytkownikami Internetu

W literaturze naukowej osoby niekorzystające z Internetu określane są mianem nieużytkowników Internetu. Termin ten jest jednak zbyt szeroki, aby objąć różnorodność istniejącą w tej grupie. Po pierwsze, istnieje zróżnicowanie pod względem tego, czy dana osoba nigdy nie korzystała z Internetu, czy też jest tzw. osoba, która wcześniej korzystała z Internetu, ale przestała z niej korzystać z różnych powodów. Osoby, które konsekwentnie korzystały z technologii iw pewnym momencie przestały z niej korzystać, zazwyczaj nie są klasyfikowane jako osoby niebędące użytkownikami lub osoby nieadaptujące, ponieważ wcześniejsze badania wykazały, że wyraźnie różnią się one od osób niebędących użytkownikami. Jednak nieużytkownicy Internetu można definiować na wiele sposobów w różnych kontekstach badawczych. Na przykład w ankiecie przeprowadzonej przez Carol Ting na obszarach wiejskich w Chinach respondenci, którzy nie korzystali z Internetu w poprzednim miesiącu, zostali uznani za nieużytkowników. Po drugie, istnieje zróżnicowanie pod względem tego, czy niekorzystanie z Internetu, jak również nieprzyjęcie innowacji IT, jest świadomą decyzją niekoniecznie wynikającą z czynników społeczno-ekonomicznych. Osoby te są coraz częściej określane jako "niepotrzebne"; jednak badacze nie zgadzają się co do stopnia, w jakim wybór jest naprawdę wolny lub wymuszony przez okoliczności społeczno-ekonomiczne. Jeśli niekorzystanie z Internetu przez daną osobę jest uważane za wybór, można to rozumieć i konceptualizować jako opór lub odrzucenie jako odwrotność akceptacji lub odmowy. We wcześniejszych badaniach zidentyfikowano różne stopnie oporu i odrzucenia. Na przykład opór może być aktywny lub pasywny. Aktywny opór występuje wtedy, gdy jednostka podejmuje świadomą decyzję o nieprzyjmowaniu innowacji informatycznych i może objawiać się odrzuceniem lub odłożeniem, co oznacza, że jednostka świadomie zdecydowała się opóźnić przyjęcie takiej innowacji, na przykład w nadziei, że jej cena spadnie. Pasywny opór występuje, gdy jednostka jest albo nieświadoma, albo świadomi, ale niezainteresowani daną technologią. W taksonomii stworzonej przez Leona Coetsee zachowania związane z oporem to apatia, opór bierny, opór aktywny i opór agresywny. Apatię można dostrzec w zachowaniach takich jak bezczynność, dystans i brak zainteresowania. Opór bierny może objawiać się np. wycofaniem, natomiast opór czynny może przejawiać się silniej w postaci np. wyrażania przeciwnych punktów widzenia. Z drugiej strony, agresywny opór może obejmować groźby, strajki, bojkoty lub sabotaż. Trudno jest wytyczyć wyraźną granicę między odmową korzystania z Internetu a oporem lub odrzuceniem. Badacze niekorzystania z Internetu argumentowali, że granica między używaniem a nieużywaniem jest trudna do zdefiniowania, dynamiczna i chwiejna. Co więcej, opór i odrzucenie mogą przejawiać się na różnych poziomach. Jeśli chodzi o korzystanie z Internetu, można oprzeć się określonej funkcji (Poziom 1), projektowi produktu (Poziom 2), rodzajowi zastosowania (Poziom 3), jakiemukolwiek korzystaniu przez siebie (Poziom 4) lub w ogóle (Poziom 5) . Według Iana Milesa i Grahama Thomasa odporność na poziomie 5 jest rzadka. Ponadto, w odniesieniu do niekorzystania z Internetu przez osoby starsze, badania wykazały, że nawet jeśli osoby starsze mogą same nie być użytkownikami, często pozwalają innym robić coś za nich w Internecie lub zmuszają je do tego. Badania nad niekorzystaniem z Internetu można z grubsza podzielić na badania, które przede wszystkim szukają wyjaśnień demograficznych oraz badania, które dotyczą przede wszystkim jednostek samodzielnie lub w ich otoczeniu społecznym. Jednak kilku badaczy stwierdziło, że zarówno czynniki demograficzne, jak i indywidualne przyczyniają się do niekorzystania z Internetu, dlatego należy wziąć pod uwagę wielopoziomowe wyjaśnienia.

Dane demograficzne związane z niekorzystaniem z Internetu

Niekorzystanie z Internetu wiąże się z wykształceniem, dochodami, zatrudnieniem, klasą, niepełnosprawnością, pochodzeniem rasowym i etnicznym i często ma miejsce na przecięciu tych czynników. Niekorzystanie z Internetu jest również związane z obszarami, w których ludzie mieszkają, tak że obszary wiejskie mają więcej nieużytkowników niż obszary miejskie i podmiejskie. Zwykle tłumaczy się to brakiem infrastruktury internetowej i innymi czynnikami demograficznymi: Na obszarach wiejskich często występuje stosunkowo duża liczba osób starszych i osób bez wykształcenia policealnego. Starszy wiek jest związany z niekorzystaniem z Internetu: Nie znacznie więcej osób nieużytkowających jest wśród osób powyżej 65 roku życia. Od 2000 r. wzrasta wykorzystanie komputerów i Internetu przez osoby starsze; jednak pomimo wzrostu liczby starszych użytkowników Internetu, a także krajowych i unijnych polityk promujących aktywny tryb życia, duża liczba osób starszych nadal nie korzysta z Internetu lub jest jego byłym użytkownikiem. W odpowiedzi na to władze i organizacje publiczne uruchomiły znaczną liczbę inicjatyw w zakresie umiejętności korzystania z mediów skierowanych do osób starszych. Istniejące badania dotyczące niekorzystania z Internetu przez osoby starsze były krytykowane za traktowanie osób starszych jako jednorodnej grupy o jednakowych powodach niekorzystania z Internetu. Etapy życia osób starszych i powiązania społeczne mogą odgrywać ważniejszą rolę niż sam wiek. W dużej części dotychczasowych badań seniorzy niebędący użytkownikami Internetu są opisywani w oparciu o dane demograficzne, a nie pytani bezpośrednio, dlaczego nie korzystają z Internetu. Niekorzystanie z Internetu jest zależne od płci. Wskaźniki penetracji Internetu są wyższe dla mężczyzn niż dla kobiet we wszystkich regionach świata. Według raportu Międzynarodowego Związku Telekomunikacyjnego z 2016 r. globalna różnica między płciami wśród użytkowników Internetu wzrosła z 11% w 2013 r. do 12% w 2016 r. i pozostaje największa w najsłabiej rozwiniętych krajach świata, na poziomie 31%. Jednak w krajach rozwiniętych płeć może nie być istotnym czynnikiem powodującym niekorzystanie z Internetu, przynajmniej wśród młodszej populacji. Wśród osób starszych korzystanie z Internetu może być czynnością zdominowaną przez mężczyzn.

Badanie indywidualnych barier i otoczenia społecznego niekorzystania z Internetu

Wiele z tak zwanych badań barier lub podejścia do analizy barier w niekorzystaniu z Internetu skupiało się na osobach starszych, które nie korzystały z Internetu z powodu indywidualnych okoliczności lub osobistych braków. Badania te sugerują, że wiele starszych osób trzyma się z dala od komputerów i Internetu, ponieważ one

•  nie dostrzegają potrzeby ani korzyści,
•  brak zainteresowania lub motywacji,
•  mają negatywny stosunek do Internetu,
•  uważają się za zbyt starych,
•  są onieśmieleni żargonem komputerowym,
•  mają obawy dotyczące bezpieczeństwa,
•  brakuje czasu lub wystarczających informacji i wsparcia,
•  uważa, że to jest drogie,
•  mają ograniczenia fizyczne,
•  mają myślenie stereotypowe,
•  mają niewielkie doświadczenie lub nie mają go wcale,
•  mają nieodpowiednie interfejsy użytkownika lub brak połączeń sieciowych,
•  mają niewystarczające umiejętności,
•  mają niskie poczucie własnej skuteczności przy korzystaniu z komputera i/lub
•  mają wysoki wskaźnik lęku przed komputerem.

Ponadto argumentowano, że niższy poziom tradycyjnej umiejętności czytania i pisania może wyjaśniać, dlaczego niektóre starsze osoby są offline. Joseph podzielił bariery związane z nieadaptacją IT na trzy główne grupy: (1) funkcjonalne, (2) psychologiczne i (3) informacyjne. Bariery funkcjonalne dotyczą wykorzystania innowacji informatycznych i obejmują m.in. na przykład projekt interfejsu, koszty produktu, koszty usług i koszty konserwacji. Bariery psychologiczne odnoszą się do konfliktów z wcześniejszymi przekonaniami, systemami wartości, preferencjami i poznaniem użytkownika. Bariery informacyjne odnoszą się do dostępu do konkretnych informacji dotyczących np. korzyści i wyzwań związanych z wykorzystaniem innowacji informatycznych. Ellen Helsper i Bianca Reisdorf przeprowadziły badanie, w którym przeanalizowano osoby niebędące użytkownikami i byłymi użytkownikami Internetu w dwóch krajach europejskich o dużym rozpowszechnieniu, Wielkiej Brytanii i Szwecji, i odkryły, że zgłaszane przez siebie powody bycia offline zmieniły się w latach 2005-2013. Osoby niebędące użytkownikami w tych krajach są coraz częściej wymyślane z najbardziej narażonych populacji, czyli tych, które są starsze, gorzej wykształcone, w gorszym stanie zdrowia i bardziej odizolowane społecznie. Wykluczenie społeczne i niekorzystna sytuacja ekonomiczna stały się silniejszymi determinantami wycofania się z technologii cyfrowych niż w przypadku badań nad technologiami cyfrowymi zaczęły się podziały, wskazujące na pojawienie się cyfrowej podklasy, dla której brak zainteresowania stał się główną barierą. Badania barier zazwyczaj opierają się na samoopisach osób niebędących użytkownikami, co rodzi kilka pytań, zwłaszcza pytanie, jakie powody są społecznie pożądane, a zatem podawane przez uczestników badania. Na przykład w przypadku osób starszych bardziej akceptowalne może być stwierdzenie, że osoby z wyższym wykształceniem są zajęte, a osoby z niższym poziomem wykształcenia obwiniają wiek i brak zainteresowania. Badania sugerują również, że niektórzy niekorzystający z Internetu mogą zgłaszać, że nie potrzebują Internetu, ponieważ w rzeczywistości nie wiedzą, w jaki sposób Internet może zaspokoić ich potrzeby. Innymi słowy, ich świadomość potencjalnych korzyści płynących z Internetu jest niewystarczająca. Ting argumentował, że zakładanie, że osoby niebędące użytkownikami są wystarczająco poinformowane, aby wyjaśnić swoje nieużywanie, jest wysoce wątpliwe w krajach rozwijających się, takich jak Chiny, gdzie średni poziom wykształcenia jest stosunkowo niższy, a mniej niż jedna czwarta ludności wiejskiej kraju jest online. Badania nad podziałami cyfrowymi były krytykowane za zaniedbanie społecznego osadzania korzystania z Internetu przez jednostki. Podejście bardziej zorientowane społecznie i kulturowo uznaje, że wykorzystanie i znaczenie technologii są społecznie i historycznie konstruowane i negocjowane w służbie określonych wartości. Na przykład, w swoim badaniu fińskich starszych osób niekorzystających z Internetu, Päivi Hakkarainen stwierdziła, że niekorzystanie z Internetu odzwierciedla dość tradycyjny, zorientowany na zdrowie i przyrodę styl życia respondentów w środowisku pozamiejskim, a zwłaszcza wyartykułowało wartość wolności, dla której komputer i Internet były uważane za zagrożenia. Badania sugerują, że w szczególności otoczenie społeczne osób starszych ma znaczenie dla korzystania przez nich z Internetu i niekorzystania z niego. Osoby starsze są częściej izolowane społecznie, a żyjąc samotnie, nie dowiadują się o Internecie od tzw. użytkowników pośredniczących, czyli partnerów, dzieci czy kogoś innego w domu, w pracy, w sąsiedztwie. Dlatego kilku badaczy wezwało do badań nad dynamiką gospodarstw domowych i dynamiką społeczną nieużywania, a nie tylko nad jednostkami. Ponadto Päivi Rasi i Arja Kilpeläinen, opierając się na swoim badaniu kompetencji cyfrowych osób starszych mieszkających w odległych wioskach wiejskich w fińskiej Laponii, doszły do wniosku, że kompetencje cyfrowe są w dużym stopniu rozproszonymi kompetencjami nieformalnych sieci mieszkańców wsi i dlatego nie powinny być oceniać wyłącznie jako cechy indywidualne.

Ramy teoretyczne stosowane w badaniach nad niekorzystaniem z Internetu

Niekorzystanie z Internetu to multi- i interdyscyplinarny obszar badań, który przyciąga badaczy z takimi dyscyplinami jak media i komunikacja, socjologia, psychologia i biznes. Nieużywanie było badane w różnych obszarach naukowych, takich jak badania nad przepaściami cyfrowymi i nierównościami cyfrowymi, adopcja technologii, interakcja człowiek-komputer, badania SI i kulturoznawstwo. Jednak wciąż niewiele jest jednoznacznych podejść do technologii w kulturoznawstwie. Ramy podziału cyfrowego zakładają, że istnieje przepaść społeczna między "posiadającymi" i "nieposiadającymi", czyli tymi, którzy mają dostęp do ICT, a tymi, którzy go nie mają. Badania dotyczące przepaści cyfrowej dowodzą, że grupy znajdujące się w niekorzystnej sytuacji w tradycyjnym sensie społeczno-ekonomicznym są również najbardziej narażone na wykluczenie cyfrowe. Najczęstszymi wskaźnikami nierówności społecznych w literaturze dotyczącej przepaści cyfrowej są status społeczno-ekonomiczny, płeć i wiek. Status społeczno-ekonomiczny, mierzony głównie dochodami lub wykształceniem, jest kluczowym konstruktem w literaturze poświęconej podziałom cyfrowym. Badania nad przepaściami cyfrowymi były krytykowane za niedostateczną teorię i omawianie luk zamiast gradacji włączenia i wykluczenia cyfrowego. Wraz z nasyceniem penetracji Internetu w krajach rozwiniętych nastąpiło przesunięcie punktu ciężkości badań z penetracji Internetu na wzorce korzystania z Internetu i nierówności wyższego rzędu dotyczące umiejętności korzystania z Internetu. Badania wykazały, że przepaści cyfrowe drugiego stopnia (zainteresowania i umiejętności) zastępują pierwotne przepaści cyfrowe (koszty i dostęp), chociaż niektóre badania zaprzeczają temu odkryciu. Badania naukowe nad przepaścią cyfrową i przyjęciem technologii mają długą historię, sięgającą lat 90. Większość badań w mniej więcej pierwszej dekadzie koncentrowała się na penetracji Internetu przez pryzmat teorii dyfuzji innowacji Rogera. Teoria ta, opublikowana po raz pierwszy w 1962 roku, wyjaśnia, jak, dlaczego iw jakim tempie rozprzestrzeniają się innowacje technologiczne. Teoretycznie użytkownicy dzielą się na pięć kategorii w zależności od czasu potrzebnego na przyjęcie technologii: (1) innowatorzy, (2) pierwsi użytkownicy, (3) wczesna większość, (4) późna większość i (5) ) maruderów. Interakcja człowiek-komputer i badania SI opierają się głównie na modelach indywidualistycznych, psychologicznych i decyzyjnych. Badacze SI przyjrzeli się przepaści cyfrowej i braku adopcji technologii z perspektywy teorii planowanego zachowania lub modelu akceptacji technologii, które wyjaśniają zamiar adopcji za pomocą predyktorów percepcyjnych: (a) postrzegane korzyści technologii, (b) postrzegane normy oraz (c) postrzegana kontrola. Nowsze ramy obejmują ujednoliconą teorię akceptacji i użytkowania technologii, wariantów teorii interakcji, teorii równości, modelu biernego oporu i atrybucyjnego modelu reakcji indywidualnych. Wszystkie wyżej wymienione modele podkreślają koncepcję utraty lub zagrożenia jako klucz do oporu użytkownika. Wiele badań dotyczących odporności w obszarze SI skupia się na odporności użytkownika (jednostki, grupy, organizacji) na określone innowacje IT, w tym systemy informacji zarządczej, systemy wspomagania decyzji, systemy informacji klinicznej i systemy korporacyjne. Jednak wykorzystano również wielopoziomowe perspektywy uwzględniające zarówno indywidualne, jak i grupowe perspektywy oporu. Socjologiczne, społeczno-psychologiczne i kulturowe badania niekorzystania z Internetu miały na celu kontekstualizację niekorzystania z jego szerszych kontekstów społecznych, kulturowych i społecznych. Podejście udomowienia jest jednym z takich przykładów, a opisując procesy, w których innowacje technologiczne są oswajane lub przywłaszczane przez ich użytkowników w ich codziennym życiu, podejście to może również omawiać nieużywanie i nieprzyjęcie. Teoria udomowienia została wykorzystana podczas badania, na przykład, w jaki sposób starsi ludzie mieszkający na odległych obszarach oswajają, używają i sprzeciwiają się technologiom, takim jak komputer, telewizja cyfrowa i Internet. Z perspektywy kulturoznawstwa Slack i Wise podkreślili potrzebę rozważenia wymiarów sprawczości w projektowaniu, wdrażaniu i wykorzystywaniu nowych mediów. Jednym z takich przykładów jest badanie przeprowadzone przez Rasiego i Kilpeläinena, którzy wykorzystali teorię modalności sprawczości do zbadania niekorzystania z Internetu przez osoby starsze mieszkające na odległych wiejskich obszarach fińskiej Laponii. Odkryli, że decyzja osób starszych, aby nie korzystać z Internetu, była związana z dynamiczną interakcją różnych modalności sprawczości: (a) wiedzieć, jak, (b) być w stanie, (c) musieć, (d) mieć możliwość , (e) chcieć i (f) czuć. Presja społeczna lub imperatyw korzystania z Internetu przejawiał się w modalności "muszę". W swoim badaniu empirycznym dotyczącym podziałów uczestnictwa w sieci w Niemczech Christoph Lutz zastosował podejście społeczne, inspirowane socjologiczną teorią Pierre′a Bourdieu. Wyniki Lutza wskazują, że obywatele niemieccy są silnie podzieleni na odrębne środowiska internetowe, które różnią się intensywnością, różnorodnością, zrozumieniem i postawami wobec uczestnictwa w sieci. Jednym z siedmiu środowisk są "internetowi zdystansowani outsiderzy" - osoby starsze, które korzystają z internetu bardzo mało lub wcale. Wreszcie przykładami ram psychologii społecznej do zrozumienia niekorzystania z Internetu są badania przeprowadzone przez Hakkarainen i Rasi oraz Christine O′Neil. Badali starszych Finów i Amerykanów świadomie odmawiających korzystania z komputera i Internetu, korzystając z teorii reprezentacji społecznych Serge′a Moscivici, która utrzymuje, że grupy społeczne różnią się pod względem rozumienia zjawisk społecznych. Ich wyniki wskazują, że nieużytkownicy biorący udział w ich badaniu podzielali bardzo negatywną społeczną reprezentację komputera i Internetu jako bezużytecznych i ryzykownych "narzędzi i rzeczy", które zagrażają wolności, stylowi życia, zdrowiu i bezpieczeństwu oraz tworzą różnice między użytkownikami a nieużytkownicy. Ta reprezentacja odzwierciedlała ich historię pracy, kohorty wiekowe oraz dość tradycyjny i zorientowany na zdrowie i przyrodę styl życia w środowisku pozamiejskim.

W kierunku pełnej integracji cyfrowej

Populacja nieużytkowników zmniejszyła się i będzie się zmniejszać jeszcze w przyszłości. Jednak, jak stwierdza Joseph, zawsze znajdą się osoby, które nie będą korzystały z jakiejkolwiek innowacji. Dlatego badacze i specjaliści IT muszą lepiej zrozumieć subtelne niuanse niekorzystania z Internetu oraz indywidualne potrzeby osób niebędących użytkownikami w różnych kontekstach lokalnych i krajowych. Polityka integracji cyfrowej również powinna obejmować wybór niekorzystania z Internetu. Strategie mające na celu ograniczenie niekorzystania z Internetu mogą obejmować edukowanie konsumentów na temat potencjalnej wartości Internetu, szkolenia dostosowane do potrzeb i pokazy różnych zastosowań Internetu, modyfikowanie usług i aplikacji (np. projektowanie usług i aplikacji internetowych. Osoby starsze w wieku powyżej 75 lat stanowią wyzwanie dla decydentów, którzy dążą do pełnej integracji cyfrowej, a tworzenie pozytywnego nastawienia do możliwości, jakie niesie ze sobą korzystanie z Internetu, jest kluczowym czynnikiem w promowaniu korzystania z niego. Polityki dostosowane do krajów rozwiniętych mogą nie służyć równie dobrze krajom rozwijającym się, a ponadto istnieją różnice między krajami rozwiniętymi i rozwijającymi się. Dlatego badania ukierunkowane na osoby niebędące użytkownikami w kontekście konkretnego kraju są niezbędne do skutecznego projektowania polityki i interwencji. Interwencje polityczne muszą uwzględniać zarówno użytkowników niebędących użytkownikami, jak i użytkowników o małej liczbie użytkowników. Interwencje mogą obejmować kampanie informacyjne ukierunkowane na określone negatywne postawy, na przykład przeciwko idei uzależnienia od Internetu. Interwencje muszą zająć się wykluczeniem cyfrowym w coraz trudniej dostępnych grupach, takich jak izolowane społecznie starsze osoby niebędące użytkownikami, za pomocą wielu strategii, biorąc pod uwagę umiejętności, świadomość, doświadczenie, emocje i kwestie motywacyjne.



Powrót

Nadzór internetowy



Biorąc pod uwagę jego globalny zasięg i dostęp, jaki daje miliardom ludzi do informacji, które w przeciwnym razie mogłyby nie być dostępne, Internet okazał się niezwykłym czynnikiem zmian. Ale ta sama usługa, która umożliwia ten dostęp, oferuje wielu innym możliwość obserwowania tego, co robimy, dokąd zmierzamy, czego pragniemy, oraz relacji, jakie mamy między przyjaciółmi i przyjaciółmi naszych przyjaciół. Ta ostatnia zdolność jest tym, co stanowi nadzór internetowy. Chociaż ten nadzór jest często postrzegany jako zapoczątkowany przez państwo, może on składać się ze złożonego zestawu podmiotów o splątanych interesach i motywacjach. Co więcej, inwigilacja internetowa oferuje wiele sposobów, dzięki którym stajemy się chętnymi uczestnikami obserwowania innych, a także obserwowania, jak inni obserwują nas samych. Nadzór to sala luster. Wiele wymiarów nadzoru internetowego prawie nie różni się od tego, który był prowadzony przez tysiąclecia. Jeden jest nadal obserwowany i zgłaszany. Nadal prowadzone są zapisy. Tajemnice wciąż są odkrywane. Inwigilacja internetowa po prostu, ale radykalnie spotęgowała to doświadczenie, zmieniając wymiary czasu (natychmiastowość), przestrzeni (wszechobecność) i pokrewieństwa (interaktywność). Ten wpis dotyczy tych wymiarów jako pojedynczych problemów, z których każdy jest zestawiony z przykładami ścieżki, jaką przebył ten wymiar nadzoru

Odziedziczone dziedzictwo tradycyjnego nadzoru

Inwigilacja należy do najstarszych "sztuki". Sun Tzu, być może pierwszy filozof wojny, napisał w IV lub V wieku p.n.e., że mądry książę musi zdobyć wiedzę o swoim wrogu poprzez użycie szpiegów. Rzeczywiście, zapisy prawie każdej starożytnej cywilizacji wskazują na powszechne znaczenie szpiegostwa i inwigilacji w przypadkach zarządzania konfliktami zbrojnymi, utrzymywania porządku politycznego, nakładania podatków i śledzenia intryg na dworze królewskim.

Czujność

Etymologicznie termin nadzór wywodzi się od łacińskiego słowa vigila-re (być czujnym). Noc wymaga szczególnej ostrożności, ponieważ vigila-re oznacza również, że należy nie zasnąć, uważny i czujny. Niepokój, który wydaje się leżeć u podstaw współczesnej inwigilacji, wynika z obawy, że tego, czego nie możemy zobaczyć, nie możemy poznać, a to, czego nie możemy poznać, jest niebezpieczne. Dlatego idealną formą nadzoru jest zawsze widzieć; wojsko określa to jako "stałą obserwację", która gromadzi, filtruje i analizuje możliwości, komunikację i ruchy potencjalnych przeciwników w celu przewidywania zagrożenia i analizowania potencjalnych miejsc przechwytywania. W rezultacie technologia dronów jest szeroko stosowana w strefach walki w celu zwiększenia czujności. Metafora "uporczywego patrzenia" odnosi się również do lokalnych aplikacji organów ścigania, w tym do monitorowania internetowych danych open source i wykorzystania technologii do przechwytywania komunikacji telefonicznej. W XVII wieku Jean-Baptiste Colbert, minister finansów Ludwika XIV, zebrał niezwykłe szczegóły dotyczące francuskiej gospodarki, aby wymusić reformę przemysłu i cechów. W tym sensie najwcześniejsze potwierdzone użycie inwigilatora odnosi się do uważnego obserwowania ogólnych spraw, zwłaszcza organizacji, takich jak armie, przedsiębiorstwa i inwentarze. Nadzór obejmuje integrowanie technik (procesów technologicznych), technik (komponentów technologicznych) i systemów w celu rozszerzenia naszej percepcji na logiczne, wirtualne lub złożone domeny, których nie moglibyśmy łatwo uchwycić w inny sposób. Często domeny te obejmują same technologie, które są wykorzystywane do prowadzenia inwigilacji. Na przykład Agencja Bezpieczeństwa Narodowego (NSA) korzysta z jednego z najbardziej zaawansowanych superkomputerów na świecie, Cray XC30. Producent chwali się, że XC30 zawiera hiperczujny, wszechwidzący monitor każdego komponentu i operacji logicznych, aby zapewnić, że w przypadku jakiejkolwiek awarii system może elastycznie przewidywać lub odtwarzać bez zakłóceń, a wszystko to przy wykonywaniu do 100 biliardów obliczeń zmiennoprzecinkowych na drugi.

Oszustwo

Inwigilacja, jako nowoczesna praktyka, została ustanowiona we Francji wraz z przyjęciem ustawy o podejrzanych, która upoważniała komitety inwigilacyjne do pilnowania cudzoziemców i podejrzanych kontrrewolucjonistów. W każdym regionie kraju iw każdej okolicy powołano komisje do inspekcji i przesłuchiwania każdej podejrzanej osoby. Członkowie komitetu werbowali płatnych informatorów, którzy infiltrowali spotkania polityczne, nadzorowali punkty tranzytowe, z których mogły korzystać podejrzane osoby, oraz zatrudniali w więzieniach agentów przebranych za więźniów w celu przechwytywania spisków. Organizacje działają z różnym stopniem zaufania. Im większe zaufanie wymagane w organizacji, tym większa weryfikacja i poleganie na oczekiwaniach dotyczących utrzymania granicy między wnętrzem a zewnętrzem organizacji. Intymne lub tajne stowarzyszenia najrzadziej akceptują osoby z zewnątrz bez weryfikacji. Neil Rowe (2013) określa oszukańczą ingerencję w dostęp do systemów informatycznych jako cyberperfidię, przebiegłe wykorzystanie pęknięć w granicy zaufania między osobami z wewnątrz iz zewnątrz w organizacji. Termin wiarołomstwo wiąże się z wieloma problemami etycznymi i politycznymi wynikającymi z oszustwa stosowanego w celu spenetrowania kręgu zaufania. W żargonie branżowym akt ten jest określany jako inżynieria społeczna, technika lub zestaw metod nakłaniania innych do zrobienia czegoś, czego inaczej by nie zrobili. Wśród użytkowników Internetu najpowszechniejszą metodą ataku jest phishing, wykorzystujący nieszkodliwą zachętę do instalowania złośliwego oprogramowania typu koń trojański i uzyskiwania dostępu osób postronnych do prywatnych informacji użytkowników.

Utrzymanie porządku

Idąc za komitetami inwigilacyjnymi, w 1802 roku Napoleon, jako pierwszy konsul, zaczął tworzyć ogólnonarodową organizację bezpieczeństwa, wywierając ciężar administracyjnego i sądowego przymusu na swoich przeciwników oraz szerszy stan nieładu - w efekcie stając się "prawem i porządek" regenta. W odniesieniu do tej mobilizacji angielskiemu czytelnikowi zostaje wprowadzone słowo nadzór. Wysoce rozproszone sieci, takie jak Internet, spłaszczają dostęp do informacji i władzy (choć nie w równym stopniu ani równostronnie), jednocześnie skalując ten dostęp do wymiarów globalnych. Cyberprzestępcy odkryli tę zdolność w latach 90. XX wieku, aby dokonywać kradzieży tożsamości i oszustw związanych z kartami kredytowymi. Obecnie większość agencji policyjnych (krajowych i lokalnych) uznaje znaczącą rolę, jaką odgrywa komunikacja elektroniczna w działalności przedsiębiorstw przestępczych. W odpowiedzi agencje te zainicjowały programy nadzoru mediów społecznościowych, które skutkują aresztowaniami, wyrokami skazującymi i konfiskatami nielegalnych towarów. Chociaż wartość postów w mediach społecznościowych jako rozstrzygającego dowodu łączącego daną osobę z konkretnym czynem przestępczym jest kontrowersyjna, wartość dowodowa tych samych postów dla sugerowania spisku okazała się wystarczająco przekonująca dla oskarżonych, że często przyznają się do winy, zamiast ponieść surowsze kary po rozprawie .

Dyscyplina

Minister policji Napoleona, Joseph Fouché, był architektem nowoczesnej inteligencji. Stworzył potężny system raportowania w całej Francji, rozszerzony na Europę, za pomocą którego dostarczał Napoleonowi codzienne informacje na temat stanu gospodarki, polityki i niepokojów społecznych. Do 1835 roku znaczenie inwigilatora zaczęło być definiowane wężej i nie dotyczyło już tylko grup, spisków i sił zbrojnych, ale bardziej skupiało się na indywidualnym zachowaniu. Wraz z publikacją w 1977 r. Dyscypliny i kary: narodziny więzienia Michel Foucault ustanowił nowoczesne studia nad inwigilacją. Foucault zwraca naszą uwagę na istotne różnice w formach karania, które wystąpiły w okresie przejściowym do modernizmu. Na początku XIX wieku kary fizyczne zostały wyparte przez dyscyplinarną władzę inwigilacji ukonstytuowaną w wszechwidzącym panoptykonie, gdzie

•  przedmioty są rozmieszczone w przestrzeni - najpierw w ramach kategorii, a następnie w bardziej wymiennych partycjach, które odwzorowują różnorodność zainteresowań dyscyplinarnych;
•  przestrzenie odpowiadające segmentacji czasu są starannie regulowane i stale stopniowane;
•  relacja między podmiotem, przestrzenią i czasem jest dokładnie oceniana - "mikrofizyka osądów", która stanowi praktykę dyskursywną ucieleśnioną w uporczywym spojrzeniu;
•  ustanowienie metod łączących te osądy z jednostką poprzez pojęcie "sprawy"; I
•  taksonomiczny podział przypadków koreluje dyscyplinę, wynik i status.

W ten sposób inwigilacja staje się formalnym procesem klasyfikowania i dyscyplinowania podmiotu. Fitbit reprezentuje najnowsze szaleństwo w dziedzinie cyfrowej dyscypliny zdrowia osobistego, integrując czujniki ruchu i biosensory z technologią bezprzewodową do monitorowania i ilościowego określania aktywności związanej z kondycją, takiej jak chodzenie i bicie serca, a wszystko to w celu budowania lepszego stylu życia. Poza samodyscypliną polegającą na monitorowaniu własnych danych dotyczących wydajności, Fitbit agreguje dane indywidualne z danymi wszystkich użytkowników, aby zapewnić podstawowe wskaźniki, na podstawie których użytkownicy mogą ocenić swój względny sukces (lub jego brak). Istnieją również podobne aplikacje do finansów (np. Mint firmy Intuit) i zarządzania wagą (np. MyFitness-Pal). Nasze ciała, nasze pieniądze i nasze spożycie kalorii są zarządzane w cyfrowym panoptikonie.

Racjonalizacja i segmentacja

W połowie XIX wieku praktyki inwigilacyjne zostały włączone do procesów gospodarczych. Tak jak więźniowie i nędznicy zostali skupieni w domach pracy, Karol Marks zauważa, że skupiając pracowników w jednej organizacji (fabryce), mogą oni pracować razem i być wspólnie obserwowani i nadzorowani dla wspólnego dobra przedsiębiorstwa i maksymalizacji zysków. Dla socjologa Maxa Webera motywacja do inwigilacji była nie tylko ekonomiczna. Wiązała się raczej z dostosowaniem procesów technologicznych do zarządzania ludźmi. Innymi słowy, inwigilacja była po prostu produktem ubocznym racjonalizacji władzy biurokratycznej, która sama w sobie jest przykładem jej wyższości jako procesu technicznego, tak jak maszyna demonstruje swoją wyższość nad wcześniejszymi sposobami produkcji. W związku z tym Frederick Taylor, znany jako twórca naukowego zarządzania, podkreślał korzyści wynikające z identyfikacji pracowników, którzy najprawdopodobniej odniosą sukces, mierząc ich produktywność w krokach szczegółowych, tak jak inżynier mechanik oceniałby transfer energii z tłoka do twornika , opracowując w procesie coraz krótsze ulepszenia pracy robotnika, z naciskiem na poprawę wydajności, produktywności i zysków. Marks, Weber i Taylor prowadzili swoje badania w epoce wielkiej industrializacji, w której rozwój gospodarczy koncentrował się na produkcji. Dziś gospodarka nie jest napędzana przez produkcję i popychanie produktów do konsumenta, ale przez konsumpcję i stymulowanie popytu. Aby produkcja i zyski były przewidywalne, konsumenci muszą być obserwowani i zarządzani tak, jak kiedyś byli pracownikami. Internet sprawia, że kontakt z konsumentami jest niemal przejrzysty: lokalizacja i godziny stają się nieistotnymi barierami w prowadzeniu biznesu, a oferty produktów, zamówienia i usługi są dostarczane z minimalnym tarciem. Ale być może większą zaletą dla firm jest dostęp do małych nisz klientów i możliwość oferowania rozwiązań mało opłacalnych przed Internetem. Samopowiązanie konsumentów z mikrorynkami wymaga od firm jeszcze bardziej szczegółowego myślenia o cechach klientów. Acxiom Corporation, z danymi na temat prawie każdego konsumenta w Stanach Zjednoczonych i wielu innych krajów, dostarcza rynkom szczegółowych informacji na temat 70 różnych segmentów w 21 "grupach na różnych etapach życia", takich jak "rodziny z szarlotką", "kreskówki i wspólne przejazdy", "kluby i sprawy" oraz "dynamiczne duety". Acxiom zapewnia dostęp do marketerów i producentów wyjątkowych księgowości wąskich segmentów rynku, które są stale aktualizowane i dostosowywane. W 2013 roku Facebook nawiązał współpracę z Acxiom, aby stworzyć coś, co nazywa Audience Insights - mapowanie, segmentację i korelację zachowań online z zachowaniami offline. Tworzenie tych nisz rynkowych i umiejętność ich "zrozumienia" nie byłoby możliwe bez Internetu i nadzoru, który mu towarzyszy.

Zwierciadło Internetu: Jaźń Nadzorcy

Przejście do współczesnych form inwigilacji nie nastąpiło w wyniku pojedynczego wydarzenia, ale poprzez nagromadzenie wielu innowacji i ponowne wynalezienie technik i organizacji, które jednocześnie zmieniły i ponownie wyrównały relacje społeczne. Ta sekcja dotyczy wpływu fotografii, telegrafii, telefonii, kina, radia, telewizji, komputerów i Internetu.

Tożsamość

Paszporty, prawa jazdy, karty ZUS, legitymacje studenckie - każda z tych form dokumentacji stanowi część naszej tożsamości prawnej. Nasz pierwszy punkt odniesienia dla naszej tożsamości to nasze imiona i nazwiska, które są uzupełnione naszym podpisem i często zdjęciem nas samych. Hologramy, metalowe wstążki, termoczułe atramenty i wbudowane mikroczipy identyfikujące częstotliwość radiową potwierdzają tę tożsamość za pomocą warstw uwierzytelniania, które prawdopodobnie są stosowane, gdy uzasadniamy nasze twierdzenia o tym, kim jesteśmy, za pomocą oficjalnych dokumentów. W większości krajów tożsamość ogranicza się do jednego krajowego numeru identyfikacyjnego. Istnieje również wiele połączeń tożsamości społecznej, na które składają się relacje, takie jak więzi rodzinne, osobiste przyjaźnie i relacje z rówieśnikami. W pewnym momencie stosunki te były podtrzymywane przez naszą wzajemną bliskość geograficzną. Obecnie wiele z tych połączeń jest utrzymywanych za pośrednictwem aplikacji społecznościowych, takich jak Facebook. Wreszcie istnieją tożsamości cyfrowe, które mogą, ale nie muszą, przecinać się z naszymi tożsamościami prawnymi i społecznymi. Są one zawarte w cyfrowym detrytusie, który zdeponujemy niezliczoną ilość razy dziennie, kiedy korzystamy z kart kredytowych, łączymy się z Internetem, odwiedzamy lekarza lub korzystamy z telefonów komórkowych. Działania te generują dane cyfrowe, które służą do konstruowania tego, co socjologowie Kevin Haggerty i Richard Ericson (2000) nazywają naszym "duplikatem danych" - profilem nas samych w danych, który określa, kim jesteśmy jako istoty społeczne. Być może ważniejsze, przynajmniej dla osób zajmujących się dyscypliną społeczną (czy to firmy obsługujące karty kredytowe, czy funkcjonariusze organów ścigania), jest wykrywanie anomalii i wyjątków dla danego profilu. Łączenie tych cyfrowych tożsamości często daje nam tożsamość społeczną, która z kolei wskazuje na wyjątkowe jednostki. W 2013 roku prywatna firma zajmująca się cyberbezpieczeństwem Mandiant opublikował raport oskarżający chińskie siły zbrojne, Armię Ludowo-Wyzwoleńczą, o przeprowadzenie masowej penetracji i operacji szpiegowskiej przeciwko amerykańskim sieciom komputerowym. W raporcie zidentyfikowano jednostkę 61398 jako organizację odpowiedzialną za włamania do ponad 100 firm, aw jednym przypadku za kradzież 6,7 terabajtów danych. Oprócz zidentyfikowania odpowiedzialnej organizacji, Mandiant znalazł również dokumenty online od chińskiego dostawcy usług telekomunikacyjnych, które prowadziły do adresu jednostki 61398 w dzielnicy New Pudong w Szanghaju. Ale Mandiant poszedł o krok dalej i twierdził, że zidentyfikowali trzech aktywnych sprawców z Jednostki 61398. Mandiant dokonał tej triangulacji, korzystając z internetowej dokumentacji chińskiej korporacji i rządu, indywidualnych rejestracji w Gmailu i na Facebooku oraz rejestracji na chińskich stronach internetowych w celu powiązania i potwierdzenia powiązania osób cyfrowych, nie tylko z konkretnymi osobami, ale także z wysoce tajną organizacją Unit 61398. Rok później Departament Sprawiedliwości USA ogłosił akt oskarżenia z imienia i nazwiska oraz fotografii pięciu członków Unit 61398, w tym tych, których po raz pierwszy zidentyfikował Mandiant.

Dane

Kiedy mówimy o danych w XXI wieku, często zakładamy, że nieodłącznym elementem danych jest zestaw faktów, które wspólnie dostarczają dowodów; stąd wyrażenie "dane mówią same za siebie". Ale, jak zauważa Daniel Rosenberg, między inskrypcją a wiedzą istnieje niejednoznaczna strefa danych, faktów i dowodów. Pomimo podobieństwa i sposobu, w jaki traktujemy je jako synonimy, Rosenberg zauważa, że etymologicznie iw świadomej praktyce są one tak naprawdę różne. Dane odnoszą się do czegoś danego. Fakty wywodzą się z czegoś, co zostało zrobione. Dowody zwykle oznaczają, że coś zostało zauważone. Tak więc fakty są ontologiczne; dowody są epistemologiczne; a dane są retoryczne. W takim przypadku dane są oferowane jako potencjalny dowód, zanim fakt zostanie zweryfikowany. Dane istnieją przed faktem i mogą istnieć tylko w relacji z innymi danymi jako związek fikcyjny. Biblioteka Kongresu Stanów Zjednoczonych została założona w 1800 roku z 6800 książkami, których kolekcja powiększyła się dzisiaj do ponad 16 milionów książek. Google szacuje, że łączna liczba unikalnych tytułów książek na świecie (nie licząc czasopism) wynosi prawie 135 milionów. Acxiom Corp zgromadził setki cech osobistych prawie 200 milionów Amerykanów. Dzięki przejęciom Acxiom zebrał dane o kolejnych 300 milionach nie-Amerykanów i przetwarza bilion rekordów tygodniowo. Biorąc pod uwagę zapotrzebowanie na przechowywanie tych informacji, Acxiom utrzymuje 23 000 serwerów danych w swojej siedzibie głównej w Arkansas. Wiarygodność tych danych jest dobra tylko w takim stopniu, w jakim nie została zakwestionowana przez konsumentów, którzy je wygenerowali. Aby nie dać się prześcignąć, NSA zbudowała największe repozytorium danych na świecie w pobliżu Bluffdale w stanie Utah. Chociaż pojemność pamięci masowej tego obiektu jest utajniona, jeden z wiarygodnych ekspertów szacuje, że centrum jest zaprojektowane na 10 000 szaf serwerowych, po 10 serwerów w każdej. Biorąc pod uwagę ogrom repozytorium, jest prawdopodobne, że niewiele z tych danych jest kiedykolwiek sprawdzanych przez kogokolwiek. Jej jedyny aluzja pochodzi z algorytmów konstruujących relacje wśród elementów danych. To jeden z powodów, dla których NSA potrzebuje komputera Cray XC30. Nadzór polega przede wszystkim na gromadzeniu i przekształcaniu danych w domniemane informacje. Informacja reprezentuje zestaw teoretycznych konstruktów lub poglądów na relacje i pęd między pierwotnymi danymi, które analitycy następnie weryfikują, ignorują lub odrzucają - heurystyczny proces budowania wiedzy. Sukces analizy danych na potrzeby inwigilacji zaczyna się od "normalizacji" zbiorów danych do wspólnej, płaskiej ontologicznie domeny, niezróżnicowanej szczegółami kodowania, struktur danych, semantyki czy pochodzenia. W tej redukcji, wynikające z tego protokoły śledcze mogą wyrównać podstawowy wymiar analizy jako sekwencję czasu, względne miejsce, działania jednostek w czasie i przestrzeni lub zestaw powiązań między wszystkimi tymi czynnikami. W inwigilacji potrzeba tylko tyle danych, ile potrzeba do ustalenia ciągłości powiązań, które Gary Marx nazywa "kategoriami podejrzanych". Praktyka wskazuje, że przez większość czasu analitycy inwigilacji są podejrzliwi wobec własnych kategorii podejrzeń, co wymaga coraz większej ilości danych, dla których bardziej szczegółowa analiza zapewni prawdopodobnie bogatsze implikacje. Żadna aplikacja nie stała się bardziej kluczowa dla znalezienia igły w stogu siana dla firm wojskowych, wywiadowczych, organów ścigania i usług finansowych niż oprogramowanie stworzone przez firmę o nazwie Palantir. Szacuje się, że prywatna firma, założona w 2004 roku z 2 milionami USD dofinansowania CIA oraz ze źródeł prywatnych, przekroczyła 1 miliard USD sprzedaży. Oprogramowanie Palantir odkurza setki milionów rekordów z setek lub tysięcy źródeł - im więcej, tym lepiej. Normalizuje i czyści dane, a następnie je indeksuje, dzięki czemu można szybko wygenerować profile analityczne. Analityk może ocenić sekwencje zdarzeń rozłożonych w przestrzeni (np. zamachy samochodowe w Bagdadzie) lub jak te zdarzenia różnią się w zależności od pory dnia. Analityk może obracać te widoki, składać dodatkowe wymiary (rozmowy telefoniczne, transakcje finansowe, automatyczna identyfikacja licencji) i przechodzić do właściwości określonych zdarzeń. Przypuszczenia można łatwo przetestować, odrzucić lub zrekonstruować w locie. Celem jest odkrycie powiązań między pozornie nierozróżnialnymi wydarzeniami, które razem wzięte może oznaczać coś znaczącego. Złożoność zarówno skali problemów współczesnej inżynierii, jak i szybkości, z jaką musiały działać rozwiązania, stały się łatwo widoczne podczas II wojny światowej. Odszyfrowywanie wiadomości wroga lub budowanie systemów obrony powietrznej, które obliczają współrzędne, prędkość i kierunek szybkich bombowców, oznacza, że logika analityczna musi zostać przełożona na formuły i procedury, które mogą być wykorzystywane przez nowe maszyny obliczeniowe. Dzięki zastosowaniu algorytmów do sortowania, klasyfikowania, przekształcania, upraszczania lub opracowywania oraz korelowania danych obliczenia stały się bardziej logiczne, powtarzalne, spójne i niezawodne. To nie sprzęt, czy to kamery, czy komputery, ale logika algorytmów umożliwia stosowanie złożonych aplikacji nadzoru, takich jak rozpoznawanie twarzy, analiza sieci społecznościowych, tłumaczenie języka i filtrowanie sygnału hałasu. Istnieją dwa sposoby myślenia o tym, jak Google udostępnia nam informacje. Jedno podejście zakłada, że w sieci World Wide Web jest po prostu zbyt dużo danych - 60 bilionów stron i liczba ta rośnie - dlatego posiadanie czegoś, co filtruje cały ten szum, jest bardzo przydatne. Bardziej cyniczna interpretacja zakłada, że te kwalifikowane wyniki zapytań Google są niczym więcej niż konsekwencją algorytmów myślących w naszym imieniu o tym, czego naprawdę chcemy. Z tego punktu widzenia klucz do określenia wartości rankingów Google opiera się na tym, co Google nazywa sygnałami - ponad 200 filtrów, które porządkują wyniki według czynników, które obejmują, jak ostatnio strona internetowa była aktualizowana, jak długo odwiedzający pozostają na stronie i jak często odwiedzający wracają na stronę. W związku z tym Google ma tendencję do zwracania wyników, które są przewidywalnie dobrze ugruntowane. W 2016 roku Google wprowadził RankBrain w ramach przetwarzania zapytań w celu normalizacji lub mapowania nowych zapytań na wcześniej przesłane zapytania. Z biegiem czasu, gdy dane zaczynają wyglądać niesamowicie znajomo, możemy być wdzięczni algorytmom. W dzisiejszych czasach, o ile nie słabną, traktujemy sieci jako coś oczywistego, takie jak autostrady, trasy lotnicze, poczta, telefony, a także Internet. Są narzędziami, za pomocą których skutecznie i wydajnie przenosimy siebie, produkty i informacje z jednego miejsca do drugiego. W przypadku sieci najpierw obserwujemy węzły (miasta, magazyny, hotele, komputery) oraz, w niektórych przypadkach, krawędzie łączące te węzły (autostrady, rzeki, tory kolejowe, linie telefoniczne). Inne krawędzie można przypisać jedynie na podstawie obecności węzłów; nie widzimy transoceanicznych kabli światłowodowych ani tras samolotów podążających za radiolatarniami z jednego lotniska na drugie. Ale reguły, standardy, konwencje i protokoły, które umożliwiają tworzenie sieci, są jeszcze mniej przejrzyste. Od skromnych początków Internet rozrósł się od garstki użytkowników w 1984 roku do prawie połowy dzisiejszej populacji świata. Wzrost ten można przypisać przede wszystkim przyjęciu zestawu otwartych protokołów dostępnych dla wszystkich programistów i użytkowników, w tym protokołów transportowych (TCP [Transmission Control Protocol]) i standardów sieciowych (IP [Internet Protocol]), dzięki czemu Internet stał się niemal bezproblemowym kanałem danych. Dla nadzoru znaczenie protokołu TCP/IP polega na tym, że łączy on wszystkie inne komponenty Internetu (kontrolę regulacyjną, algorytmy i oprogramowanie, architekturę komputerową) w spójny system, umożliwiając w ten sposób oddzielenie danych z jego materialnych odniesień. Dzięki uniwersalnym protokołom Internet jest globalną platformą nadzoru, na której każdy może być obserwowany. Wraz z rozwojem Web 2.0, który odnosi się do wzrostu liczby platform internetowych, które można stale modyfikować poprzez podejście oparte na współpracy, znajdujemy dziesiątki tysięcy aplikacji z otwartymi interfejsami i wzajemnymi połączeniami, które umożliwiają użytkownikom łatwe korzystanie z ich usług. Typowym dla tej generacji aplikacji jest Facebook, który łączy ponad połowę światowych użytkowników Internetu w autorską społeczność. Oznacza to, że 2 miliardy ludzi mówi tym samym protokołem, nawet jeśli nie mówią tym samym językiem. Sukces mimikry internetowej opiera się na możliwościach otwartego performansu, przy jednoczesnym zachowaniu odczytania tych performansów w algorytmicznej ezoteryce. Istnieją trzy punkty w sieci, które należy obserwować - punkty końcowe, takie jak komputery i telefony komórkowe (miliardy), strony WWW i dane na serwerach (biliony) lub sama sieć (tysiące). Jeśli ktoś chce przechwycić komunikację między jedną osobą a drugą, najskuteczniejsze jest dotknięcie sieci. W 1988 roku, mniej więcej w tym samym czasie, gdy Tim Berners-Lee myślał o architekturze tego, co miało stać się siecią WWW, położono eksperymentalny kabel światłowodowy między Wielką Brytanią, Stanami Zjednoczonymi i Francją. Niecałe 30 lat później ponad 550 000 mil kabli światłowodowych oplata dna morskie świata i prawie cały ruch internetowy (e-maile, strony internetowe, Skype, przesyłanie danych, czaty) przechodzi teraz przez te łącza światłowodowe. Dla agencji wywiadowczych okazało się to dobrodziejstwem dla inwigilacji: mały kabel o średnicy 1 cala, przenoszący terabity ruchu z prędkością bliską prędkości światła. Obserwowanie danych przepływających przez sieć to kluczowa misja grupy NSA o nazwie Special Source Operations. Według doniesień NSA przechwyciła siedem "dławików" tych kabli wchodzących do Stanów Zjednoczonych. Uzupełnieniem tej inicjatywy jest jeszcze większy program podjęty przez brytyjskie służby bezpieczeństwa, który według doniesień ma pełne podsłuchy na 200 kablach światłowodowych. Łącznie przez te rygle przechodzi aż 80% ruchu internetowego. W 1992 roku filozof Gilles Deleuze opublikował krótki artykuł, Postscriptum on the Societies of Control, w którym skrytykował możliwość zastosowania Foucaultowskiej koncepcji społeczeństwa dyscyplinarnego do współczesnych struktur społecznych. Proponuje, abyśmy przeszli od społeczeństwa dyscyplinarnego do społeczeństwa kontroli, w którym pojęcie tożsamości przeszło od dwuznaczności podpisu do specyficzności kodowania. Prawo dostępu nie wynika już z twierdzenia, ale jest konsekwencją zaprogramowanej weryfikacji. Podczas gdy stowarzyszenia dyscyplinarne regulują poprzez sprzężenie zwrotne i manipulację, społeczeństwa kontrolne wywodzą się z modulacji anonimowych przepływów sieciowych danych. Nie jesteśmy jednostkami w przeciwieństwie do mas. W społeczeństwie kontroli jesteśmy podzieleni na kolekcje mas, rynków i skupisk. Ta kontrola jest stale skracana i rozszerzana w razie potrzeby; jest zautomatyzowany i zakodowany w celu skoordynowania złożoności wielu części. Hierarchie są objęte modulacją przepływów. Haggerty i Ericson (2000) rozwijają implikacje Postscriptum Deleuze′a, opierając się na bardziej teoretycznej koncepcji Deleuze′a dotyczącej asamblażu, który odpowiada zbiorom ludzi, znaków, przedmiotów, reprezentacji, elementów i systemów. Tym, co daje jedność tym zgromadzeniom, jest pragnienie, a nie pragnienie reprezentowane przez spełnienie czegoś, czego nie ma, ale siła lub wola mocy, zaklęcia, uwodzenia lub oszustwa. Paradygmat kontroli poprzez obserwację nie wynika z mechanicznych powiązań, ale z modulacji między zbiorowiskami i sieciami, które ograniczają stopień swobody ruchu agenta. W 2014 roku badacze współpracujący z Facebookiem opublikowali artykuł w prestiżowym Proceedings of the National Academy Sciences. Chociaż dobrze wiadomo, że stany emocjonalne mogą być łatwo przenoszone między członkami grupy bez ich świadomości tego przeniesienia, to badanie pokazuje, że to samo zjawisko można osiągnąć online i bez bezpośredniego kontaktu twarzą w twarz. Zmieniając emocjonalną zawartość kanałów informacyjnych Facebooka, obserwatorzy zauważyli, że nastroje reprezentowane w treści postów badanych były uzależnione od nastroju kanałów informacyjnych. Efekt tej zmiany nastroju rozciągał się dalej na sieć relacji, pokazując, że zarażenie emocjonalne może rozprzestrzeniać się w sieciach elektronicznych.

Uwodzenie

Ważna dla zrozumienia nadzoru w Internecie jest koncepcja znaków lub przedstawień, które są zapośredniczonymi różnicami między tym, co zakłada się, że jest rzeczywiste, a tym, co jest symbolicznie pożądane. Teoretyzowanie współczesnej rzeczywistości przez Jeana Baudrillarda (symulacja, symulakry i hiperrzeczywistość) ma ogromny wpływ na status inwigilacji. Ale inna krytyka Baudrillarda, znacznie mniej przestudiowana, ma jeszcze większy wpływ na nasze zrozumienie tego, co stanowi inwigilację: zjawisko uwodzenia. Baudrillard (1990) zauważa, że siła "sztucznych otchłani" jest czymś więcej niż mocą iluzji (która jest przynajmniej fałszywą reprezentacją czegoś rzeczywistego). Rozważ gry online lub sesję na Facebooku. W takich scenariuszach użytkownicy napotykają dane, które są często nieważne, pozbawione odniesienia lub wartości oraz jałowe. Jednak pomimo faktu, że znaki pojawiające się w tych spotkaniach już niczego nie przedstawiają, są jednak niezwykle uwodzicielskie. Uwodzenie wynika z mocy rozpadu rzeczywistości w celu stworzenia prywatnej przestrzeni własnego autorstwa. Ogromne przesunięcie gospodarcze w latach dwudziestych XX wieku wynika z przeniesienia wymiany z produkcji na konsumpcję, z rzeczywistości tego, co dane, na możliwości tego, co wyobrażone. Konkluzją tego wyobrażeniowego procesu jest wykluczenie wszystkiego, co pojawia się z zewnątrz. Uwiedziony i uwodziciel wspólnie wyrażają zgodę i współpracują ze sobą inny w wyrzuceniu tego, co rzeczywiste i odbudowie wyobrażonej alternatywy. W swoich wczesnych latach technologia Internetu była żmudna i nudna. Tylko coś, co wykorzystywało pożądanie, mogło zwiększyć atrakcyjność Internetu. Producenci szybko odkryli, że w świecie wirtualnym najbardziej dostępnym (i skutecznym) źródłem symulacji (i stymulacji) pożądania była pornografia, która już w 1998 roku generowała 2 miliardy dolarów rocznego przychodu. Sukces cyfrowej pornografii polegał na utrzymaniu koncentracji konsumentów na wyobrażaniu sobie wirtualnego jako erotycznego i wzbudzaniu pragnienia więcej, innymi słowy, rozwijaniu ekonomii uważności. Reakcje poznawcze po raz pierwszy zauważone przez pornografów okazały się równie istotne dla handlu cyfrowego: utrzymanie uwagi konsumenta poprzez niekończącą się ofertę uwodzenia i powtarzające się pobudzanie pożądania. Prawie każda odnosząca sukcesy witryna e-commerce ma wspólne cechy, w tym przechwytywanie, przechowywanie i analizę zachowań konsumentów, nie w ujęciu zbiorczym, ale na poziomie indywidualnym. Techniki poznawcze stosowane do stymulacji zachowania zasilają ogromne bazy danych monitorowanych zachowań. Z tego oceanu danych algorytmy odkrywają wartość, która z kolei generuje mechanizmy uwodzenia i napędza przepływ potencjalnych klientów do ich witryn. Wszystkie te techniki mają na celu utrzymanie zaangażowania konsumenta, dopóki nie zobowiąże się do zakupu, od oczarowania przez uwodzenie do satysfakcji. W przypadku dzieci często przyjmuje się, że zajęcia ludyczne są sposobem uczenia się umiejętności i sposobów świata. Ale historycy i psychologowie od dawna starają się wyjaśnić, dlaczego dorośli grają w gry. Johan Huizinga zaproponował, aby zasady w grach oddzielały gracza od świata, dając graczowi możliwość ćwiczenia sposobu bycia w świecie, który jednocześnie nie jest częścią świata. Filozof Bernard Suits (2005) postuluje, że podstawową funkcją gier jest swobodnie wybrane wyzwanie polegające na napotykaniu "przeszkód" i towarzyszącemu temu emocjonalnemu uwolnieniu wynikającemu z pomyślnego przezwyciężenia tych ograniczeń, co psychologowie nazywają przepływem. Element nadzoru w grach wysuwa się na pierwszy plan na dwa sposoby - psychologicznie i topologicznie. Psychiczne przeniesienie gracza z tego świata do innego świata daje graczowi możliwość uwiedzenia bez poczucia narzuconego przez doświadczenie - rodzaj psychicznej strefy bezpieczeństwa. Z topologicznego punktu widzenia większość gier (massive multiplayer online, sieciowe konsole i gry na komputery osobiste) wykorzystuje usługi sieciowe i serwer danych. Taka architektura umożliwia masową agregację danych, a biorąc pod uwagę, że gromadzone dane dotyczą zachowania, analityka nadzoru oferuje doskonałą okazję do połączenia wymiarów uwodzenia i oszustwa. Podobnie jak odkrycie przez organy ścigania znaczenia monitorowania mediów społecznościowych, agencje wywiadowcze uznają odpowiednie znaczenie środowisk gier dla organizacji przestępczych i terrorystycznych w zakresie rekrutacji, komunikacji i szkolenia swoich członków. Podczas gdy środowiska wirtualne, takie jak Second Life, od dawna przyciągają śledczych z Federalnego Biura Śledczego i Centralnej Agencji Wywiadowczej, amerykańskie i brytyjskie agencje wywiadowcze coraz bardziej skupiają się na rozwoju wykorzystania Xbox-Live, World of Warcraft i innych podobnych środowisk gier online. Pośród zbieżnych mediów uczestniczymy w interaktywnym spojrzeniu - obserwujemy przedmiot, a przedmiot obserwuje nas. Granice spojrzenia mogą łatwo zostać przekroczone przez szpiegostwo, podsłuchiwanie, inwigilację, wpatrywanie się, podglądanie, ekshibicjonizm i narcyzm mutujący jeden w drugi. Zagmatwana gama możliwości, dzięki którym możemy rozważyć, co stanowi nadzór, może nie być problemem epistemologicznym, ale bardziej fundamentalnym problemem ontologicznym. Z tego miejsca "czuwanie nad", które stanowi podstawową cechę nadzoru, przejawia się w czymś, co można by nazwać spektrum takiego obserwowania. W rzeczywistości tym, co wydaje się najlepiej charakteryzować zjawisko inwigilacji, jest sposób, w jaki jedna forma pilnowania jest wymienna z inną. danah boyd (2014) zauważa, że nastoletni użytkownicy mediów społecznościowych to "cyfrowi flâneurowie", którzy jednocześnie i sporadycznie są ekshibicjonistami i podglądaczami. Jest to status wywodzący się z niejednoznaczności bycia zarówno inwigilantem, jak i ankietowanym w anonimowym kontekście, w którym żadna rola nie jest potwierdzona ani wykluczona. Amerykańskie służby ds. obywatelstwa i imigracji, oceniając możliwość obserwowania osób bez ingerencji w chronione prawa konstytucyjne, stwierdziły w notatce z 2008 r., że aktywność i zawartość portali społecznościowych służy jako "doskonały punkt obserwacyjny. . . obserwować życie codzienne" osób ubiegających się o obywatelstwo. Na portalach społecznościowych można śledzić romanse, relacje rodzinne i rówieśnicze. Użytkownicy tych witryn często ujawniają intymne szczegóły, które w przeciwnym razie mogłyby być bardzo uciążliwe dla władz federalnych. Na horyzoncie Wymiary i właściwości nadzoru internetowego są złożone. Żadna pojedyncza teoria ani podejście nie może definitywnie uchwycić całości tych wymiarów. Można powiedzieć, że Internet, między innymi, jest z natury związany z inwigilacją. Możliwe jest również, że wzrasta łatwość, z jaką inwigilacja może odbywać się za pośrednictwem Internetu; rozważ szybkie przyjęcie Internetu przedmiotów, który obejmuje zdalne monitorowanie osobistych zasobów fizycznych (np. termostatów, zużycia energii elektrycznej, bezpieczeństwa domu, zużycia wody) oraz aktywów instytucjonalnych (np. sieci elektryczne, systemy transportowe, usługi rządowe). Następnie zdigitalizowano systemy dokumentacji medycznej wraz z monitoringiem aparatury biomedycznej. Być może ważniejsze jest włączenie unikalnych identyfikatorów biometrycznych do baz danych, które eliminują anonimowość i zaciemnianie. Na koniec rozważmy zjawisko autonomicznego nadzoru, w którym maszyna monitoruje swoje otoczenie, rozwija własne zasady i priorytety, analitycznie konstruuje własne założenia i podejmuje własne decyzje.



Powrót


[ 150 ]