Wybór algorytmiczny w Internecie



Wybór algorytmiczny w Internecie Internet w coraz większym stopniu przenika życie codzienne z niezbędnym i strukturalnym pakietem innowacji: aplikacjami internetowymi, które działają na zasadzie doboru algorytmicznego. Zautomatyzowany wybór algorytmiczny jest osadzony w różnych usługach i stosowany do wielu celów. Algorytmy w wyszukiwarkach lub agregatorach wiadomości wybierają ogólnie informacje, a w szczególności wiadomości; w systemach rekomendujących sugerują rozrywkę muzyczną i wideo lub wpływają na wybór produktów. Mogą również sugerować przyjaciół, partnerów i trasy podróży. Ponadto służą do automatycznego tworzenia artykułów i wiadomości w mediach społecznościowych, obliczania punktacji treści i osób, a także do obserwacji zachowań i zainteresowań, a także do przewidywania i kształtowania przyszłych potrzeb i działań. Chociaż ich tryby działania różnią się w szczegółach, wszystkie te aplikacje mają wspólną definiującą funkcjonalność: automatycznie wybierają elementy informacji i przypisują im znaczenie. W społeczeństwach informacyjnych, w których rośnie liczba danych, wybór algorytmiczny oparty na Internecie jest niezbędny do wydobywania wartości społecznych i ekonomicznych z dużych i małych danych. W związku z tym te automatyczne przypisania znaczenia wybranym informacjom są już głęboko zakorzenione w wielu dziedzinach życia codziennego. Kształtują to, jak postrzegany jest świat, jakie rzeczywistości są konstruowane i jak się zachowują ludzie. Ich wszechstronne przyjęcie w konsekwencji wywołało dyskusje na temat możliwości i zagrożeń społecznych, takich jak nadzór, komory echa, bańki filtrujące i dyskryminacja społeczna, a także pytania dotyczące odpowiedniej polityki publicznej i środków zarządzania. Ten wpis zawiera krótki przegląd badań na temat wyboru algorytmicznego w Internecie oraz oferuje funkcjonalną typologię aplikacji na nim działających. Następnie omawia ich znaczenie gospodarcze, ryzyko społeczne i opcje zarządzania.

Badania z zakresu selekcji algorytmicznej

Badania nad selekcją algorytmiczną przyciągnęły uwagę różnych dyscyplin, co doprowadziło do obszernego, zróżnicowanego i fragmentarycznego zbioru badań, które obejmują głównie rozważania teoretyczne i fragmentaryczne ustalenia empiryczne specyficzne dla aplikacji. Ogólnie rzecz biorąc, dziedzinę badań nad algorytmami można z grubsza podzielić na badania, które koncentrują się na pojedynczych algorytmach, takich jak sortowanie, dopasowywanie, filtrowanie lub algorytmy rankingowe, jako jednostce analizy, oraz te, które koncentrują się głównie na socjotechnicznym kontekście zastosowań selekcji algorytmicznej. Badania skupiające się na samym algorytmie pokazują możliwości wyboru algorytmicznego i czasami starają się wykryć wewnętrzne działanie algorytmu, zazwyczaj poprzez inżynierię wsteczną kodu, ustawienia eksperymentalne lub przegląd kodu. Ogólnie rzecz biorąc, czysto techniczna definicja algorytmów jako zakodowanych procedur, które przekształcają dane wejściowe w określone dane wyjściowe w oparciu o obliczenia i samo ujawnienie działania algorytmu, nie ujawnia zbyt wiele na temat ryzyka i konsekwencji społecznych. Jest to uwzględnione w badaniach, które koncentrują się na socjotechnicznym kontekście selekcji algorytmicznej, gdzie algorytmy są postrzegane jako umiejscowione artefakty i procesy generatywne osadzone w złożonym ekosystemie. Jako takie, algorytmy są tylko jednym z elementów szerszego zespołu socjotechnicznego. Te zespoły lub ekosystemy obejmują komponenty techniczne (np. Oprogramowanie, platformy, infrastrukturę) i ludzkie (np. Projekty, zamiary, odbiorcy i zastosowania). Na przykład Michael Latzer i jego współpracownicy przeanalizowali duży zestaw aplikacji internetowych, które opierają się na algorytmach, i pogrupowali je w dziewięć różnych typów w zależności od pełnionych funkcji społecznych.

1. Aplikacje wyszukujące stały się niezbędnymi narzędziami do eksploracji Internetu i są najbardziej rozpowszechnionymi usługami algorytmicznymi. Oprócz algorytmicznych wyszukiwarek ogólnego przeznaczenia, takich jak Google i Bing, istnieje ogromna liczba aplikacji do wyszukiwania w określonych domenach lub dotyczących określonych zagadnień, zwanych wyszukiwaniem wertykalnym.
2. Aplikacje agregujące, przede wszystkim agregatory wiadomości, takie jak Google News, zbierają, kategoryzują i przegrupowują informacje z wielu źródeł w jednym punkcie dostępu.
3. Aplikacje obserwacyjne / inwigilacyjne, takie jak Rapid Information Overlay Technology (RIOT) firmy Raytheon, zyskały na znaczeniu w ostatnich latach i były ostro krytykowane po ujawnieniu w 2013 roku informacji o inwigilacji prowadzonej przez Amerykańską Agencję Bezpieczeństwa Narodowego. Wiele aplikacji monitoruje zachowanie w Internecie, aby wykryć nieprawidłowości związane z określonymi zagrożeniami (np. Oszustwa związane z kartami kredytowymi, cyberataki).
4. Prognozy / aplikacje prognostyczne mają na celu przewidywanie przyszłych zachowań lub scenariuszy, na przykład w obszarach takich jak konsumpcja, klęski żywiołowe, rozrywka i przestępczość. Odpowiednie aplikacje, takie jak predykcyjna technologia policyjna PredPol, mają szczególne znaczenie w kontekście analiz dużych zbiorów danych.
5. Aplikacje filtrujące, takie jak filtr antyspamowy Norton, często działają w tle jako pasywne lub aktywne filtry informacji. Filtry pasywne wybierają określone elementy, ale zamiast wyświetlać je użytkownikowi, uniemożliwiają dostęp do nich. Algorytmiczne lub inteligentne filtrowanie jest stosowane na przykład do przeciwdziałania spamowi lub złośliwemu oprogramowaniu. Jednak filtrowanie jest również wykorzystywane do blokowania informacji politycznych, zwłaszcza w reżimach autorytarnych.
6. Aplikacje rekomendacyjne, takie jak rekomendacje muzyczne Spotify, należą do najbardziej znanych usług. Te aplikacje internetowe mają zastąpić tradycyjne rekomendacje przez sprzedawców lub znajomych. Aby zapewnić najbardziej dopasowane rekomendacje, stosują różne metody filtrowania w oparciu o dane dotyczące towaru, użytkownika lub grupy, do której użytkownik jest przypisany.
7. Aplikacje oceniające, takie jak system oceny reputacji eBay, zbierają i przetwarzają opinie o zachowaniu uczestników i wykorzystują te dane do uzyskiwania ocen i ocen związanych z zachowaniem. Głównym celem tych usług jest budowanie zaufania w anonimowym środowisku online i redukcja kosztów transakcji.
8. Aplikacje do tworzenia treści wykorzystują algorytmy do automatycznego tworzenia treści, na przykład za pomocą aplikacji takich jak Quill, opracowanych przez Narrative Science. Te zmiany były ostatnio omawiane pod takimi terminami, jak dziennikarstwo algorytmiczne, dziennikarstwo automatyczne lub dziennikarstwo robotów.
9. Aplikacje alokacyjne samodzielnie i automatycznie przeprowadzają transakcje (np. Umieszczanie ogłoszeń) i alokują zasoby. Algorytmiczne oprogramowanie handlowe lub obliczeniowe usługi reklamowe, takie jak Google AdSense, są dobrymi przykładami takich aplikacji. Zwłaszcza reklama komputerowa jest głównym źródłem przychodów wielu platform internetowych, takich jak wyszukiwarki i sieci społecznościowe.

Ta typologia pokazuje, jak szeroki jest zakres algorytmiki, i stały się aplikacjami selekcyjnymi z algorytmizowanymi funkcjami społecznymi, od wyszukiwania i rekomendacji po prognozy i tworzenie treści. Podejście to koncentruje się na socjotechnice i funkcjonalności i jest dostępne dla badań nad społecznym, ekonomicznym i politycznym wpływem algorytmów oraz zastosowaniami algorytmicznej selekcji mocy, które mogą mieć jako pośrednicy, strażnicy, instytucje, ideologie lub agenci. Zwłaszcza perspektywa instytucjonalna identyfikuje algorytmy jako normy i reguły, które wpływają na zachowanie, ograniczają działania i stwarzają pole manewru. Zasadniczo algorytmy rządzą życiem codziennym, co z kolei czyni je ważnym czynnikiem porządku społecznego.

Znaczenie ekonomiczne

Prawie wszystkie najpopularniejsze i odnoszące sukcesy ekonomiczne strony internetowe na całym świecie oferują usługi, które w dużym stopniu opierają się na doborze algorytmicznym. Reklamy obliczeniowe, wyszukiwanie i rekomendacje to jedne z najważniejszych usług tego typu, z którego korzystają wiodące międzynarodowe firmy, takie jak Google, Facebook, Twitter, Yahoo, Tencent, Alibaba, Baidu. Generalnie rynki przechodzą przez różne fazy w swoich cyklach życia, które są skorelowane z różnymi warunkami podaży i popytu na te usługi i są definiowane przez różne stopy wzrostu i intensywność konkurencji na tych rynkach. Wiele rodzajów algorytmicznych zastosowań selekcji znajduje się nadal w fazie eksperymentalnej lub wczesnej ekspansji (zautomatyzowana produkcja treści), podczas gdy inne znajdują się w fazie wzrostu lub dojrzałości (systemy rekomendujące, reklamy obliczeniowe) lub już osiągnęły stagnację (wyszukiwanie). W sumie wiele rynków wykazuje imponujące stopy wzrostu lub duże rozmiary rynków. Połączenie różnych przemysłowych cech ekonomicznych, takich jak struktury kosztów, korzyści skali i zakresu oraz bezpośrednie i pośrednie skutki sieci, a także dostępność podstawowych zasobów, takich jak wiedza techniczna, infrastruktura sprzętowa, dostęp do danych i jakość dane ułatwiają tendencje koncentracji, a następnie zachowują i wzmacniają siłę rynkową. W szczególności duże udziały w rynku zdobyte przez tak zwanych cyfrowych strażników wywołały zwiększoną uwagę opinii publicznej i organów regulacyjnych oraz doprowadziły do pytań o to, czy te pozycje są tylko tymczasowe, czy też wskazują na długoterminową siłę rynkową. Obejmuje to kwestie, takie jak wątpliwe praktyki biznesowe z różnych punktów widzenia prawnego, w szczególności prawo konkurencji lub prawa własności intelektualnej, oraz wpływ, jaki będą one miały na tradycyjnych (medialnych) operatorów. Wybór algorytmiczny obiecuje zmniejszenie różnego rodzaju kosztów transakcji, takich jak koszty wyszukiwania i informacji oraz asymetrie informacyjne, w których jedna strona transakcji ma więcej informacji niż druga. W efekcie zwiększa konsumpcję i sprzedaż oraz ułatwia orientację społeczną. Dostawcy algorytmicznej selekcji są najczęściej aktywni jako animatorzy rynku (pośrednicy, jak w przypadku aplikacji wyszukujących) lub gracze warstwowi (specjaliści, jak w przypadku dziennikarstwa algorytmicznego). Strategie dochodowe na tych rynkach zależą od tego, że algorytmiczne aplikacje selekcyjne często obsługują różne, współzależne segmenty klientów na rynkach dwu- lub wielostronnych, na których ceny muszą być odpowiednio ważone, a subsydiowanie krzyżowe jest niezbędne.

Zagrożenia społeczne i zarządzanie

Możliwości oferowane przez algorytmiczne aplikacje selekcji, takie jak korzyści dobrobytu wynikające z ograniczenia złożoności i kosztów transakcji lub z usprawnienia procesu podejmowania decyzji przez ludzi, są zagrożone przez szereg potencjalnych zagrożeń społecznych. W szczególności wiele uwagi poświęcono niebezpieczeństwu komór echa lub bąbelków filtrujących, które w istocie opisują sytuacje, w których zamiast wzmacniać spotkania z różnorodnymi informacjami, wybór algorytmiczny ogranicza wybór i jakość informacji oraz skutkuje izolacją użytkowników. wewnątrz bąbelków filtrujących lub komór echa, które są zgodne z ich już posiadanymi przekonaniami i ideami. Istnieje jednak o wiele więcej zagrożeń, w tym (a) manipulacja, (b) uprzedzenia i zniekształcenia rzeczywistości, (c) ograniczenia wolności komunikacji i wypowiedzi, (d) nadzór i zagrożenia dla ochrony danych i prywatności, (e) społeczne dyskryminacja, (f) pogwałcenie praw własności intelektualnej, (g) nadużycie siły rynkowej, (h) wpływ na zdolności poznawcze i ludzki mózg oraz (i) rosnąca heteronomia oraz utrata ludzkiej suwerenności i możliwości kontrolowania technologii. Badania wskazują, że istnieje rosnąca świadomość tych zagrożeń i pokazują, w jaki sposób niektóre z nich zostały już rozwiązane za pomocą różnych podejść do zarządzania, od rozwiązań rynkowych po interwencje państwa. Analizy wskazują ponadto, że istnieje potrzeba kombinacji zarządzania uwzględniającej wielkość liter, spójnej z odnośnymi rodzajami ryzyka i zastosowaniami. Odpowiednie strategie zarządzania często wymagają współdziałania między różnymi poziomami i zaangażowanymi podmiotami. Przykładowo samopomoc konsumentów zależy między innymi od dyspozycji organizacyjnych czy technicznych. Wreszcie, środki zarządzania są ukierunkowane nie tylko na same algorytmy (projekt techniczny), ale przede wszystkim są ukierunkowane na modele i strategie biznesowe, co ma daleko idące skutki dla ekonomiki danych rynków.



Powrót

Wybory i Internet



Rola Internetu w demokracji, polityce i wyborach znacznie się rozwinęła i ewoluowała w ostatnich dziesięcioleciach. Na początku XXI wieku w niektórych częściach świata partie polityczne i kandydaci zaczęli używać prostych stron internetowych (Web 1.0) w celu dostarczania informacji ograniczonej grupie odbiorców internetowych, która składała się z bardzo niewielu wyborców zaangażowanych politycznie. Do 2017 roku korzystanie z Internetu stało się tak powszechne, że prezydent USA Donald Trump wykorzystał Twittera, publiczne i interaktywne medium społecznościowe (Web 2.0), aby ominąć bardziej tradycyjne kanały medialne. Internet jako cyberprzestrzeń, która ułatwia wymianę informacji o treściach generowanych przez użytkowników i elektroniczną interakcję międzyludzką, jest często uważany za idealną przestrzeń, w której może zachodzić działalność demokratyczna. Internet jest środkiem masowego przekazu, który ułatwia komunikację za pośrednictwem komputera przy stosunkowo niskich kosztach dla przeciętnego użytkownika. Rozwój aplikacji internetowych i mediów społecznościowych, takich jak aplikacje na smartfony i sieci społecznościowe, umożliwił zwykłym użytkownikom łatwe wejście pod względem zaangażowania online. W związku z tym Internet ma znaczny potencjał w zakresie zwiększania udziału w życiu politycznym i dostępu do działań demokratycznych, takich jak kampanie online/internetowe. Tego typu działania stały się znane jako e-kampania, e-demokracja i e-polityka, aby odróżnić działania demokratyczne, wyborcze i polityczne występujące w przestrzeni online i offline. Jednak wraz z rozwojem tych działań i związanych z nimi technologii granice między działalnością polityczną online i offline coraz bardziej się zacierają. Czynniki związane z rolą Internetu w wyborach są w dużej mierze napędzane przez innowacje kierowane przez użytkowników w okresie poprzedzającym kampanię wyborczą iw jej trakcie. Sposób, w jaki przejawia się aktywność wyborcza w Internecie, zależy od szeregu zmiennych charakterystycznych dla danego kraju, w tym rodzaju systemu demokratycznego, w którym ma miejsce jakakolwiek obserwowalna aktywność polityczna. Na przykład, porównując systemy polityczne Wielkiej Brytanii i Stanów Zjednoczonych, pierwszy z nich jest bardziej skoncentrowany na partii politycznej, a drugi na kandydatach. Dlatego kampanie wyborcze w Wielkiej Brytanii były bardziej skoncentrowane na działalności partyjnej i wyborach powszechnych w USA na kandydatach na prezydenta. Wynikowy wynik jest taki chociaż w e-polityce można zaobserwować pewne ogólne trendy, wykorzystanie Internetu w kampaniach wyborczych ma istotne niuanse. Mogą one dotyczyć trzech głównych czynników: (1) kraju/systemu, (2) punktu w historii, w którym odbywają się wybory, oraz (3) rodzaju wyborów, np. wyborów mogą znacznie różnić się od kampanii regionalnych w wyborach do Unii Europejskiej. Ten wpis nie może reprezentować wszystkich rozbieżności geograficznych, demokratycznych i wyborczych związanych z Internetem i wyborami na całym świecie. Dlatego koncentruje się tylko na wyborach powszechnych w Wielkiej Brytanii i Stanach Zjednoczonych, aby zilustrować rolę Internetu w wyborach w odniesieniu do kilku kluczowych tematów, w tym demokracji, marketingu politycznego, kandydatów, partii politycznych i wyborców, finansowania kampanii, członkostwa i organizacji partyjnej.

Internet, wybory i demokracja

Badacze demokracji internetowej lub e-demokracji są teoretycznie zorientowani z różnych perspektyw. Zwykle dzieli się ich na trzy główne grupy: (1) cyberoptymiści, (2) cyberpesymiści i (3) normalizacja. Po pierwsze, cyberoptymiści zwykle argumentują, że Internet jest lub może być siłą demokratyzującą wybory. Na przykład uważa się, że pojawienie się mediów społecznościowych przeniosło władzę w ręce zwykłych ludzi na najniższych szczeblach polityki, dając im w ten sposób większy głos. Po drugie, cyberpesymiści są przeciwnego zdania, że technologie cyfrowe osłabiają demokrację i tworzą większe podziały między elitami a ludźmi. Po trzecie, argument normalizacyjny sugeruje, że wraz z rozwojem Internetu struktury społeczne i hierarchie obserwowane w świecie offline zostaną przeniesione do sieci. Przykładem tego zjawiska jest to, że znani i elitarni politycy, tacy jak Boris Johnson i Donald Trump, mają prawdopodobnie znacznie więcej obserwujących na Twitterze niż przeciętny polityk. Im więcej obserwujących online ma dana osoba, może zwiększyć swój potencjał szerszego zasięgu odbiorców, a tym samym mieć większy potencjał głosu online niż przeciętny użytkownik Internetu. Odzwierciedla to rodzaj dostępu do publiczności, jakiego można oczekiwać od elit i nieelit w starszych mediach, takich jak telewizja i prasa, w świecie off-line. Jednak od czasu pojawienia się Internetu i szybkiego rozwoju technologii smartfonów i innych urządzeń połączonych z Internetem wiele różnych form mediów zaczyna się łączyć. Dlatego rozróżnienie między nowymi i starymi mediami jest mniej wyraźne. W The Hybrid Media System: Politics and Power Andrew Chadwick argumentuje, że konkurencja między nowymi i starymi mediami prowadzi do hybrydowego lub mieszanego systemu medialnego, w którym obie formy mediów współistnieją i skutecznie się integrują. Czytelnicy mają obecnie dostęp do wielu gazet zarówno online, jak i offline. Wiadomości telewizyjne są teraz dostępne do przesyłania strumieniowego na żywo zarówno ze smartfona, jak i inteligentnego telewizora. Osoby fizyczne mogą publikować własne filmy polityczne na YouTube, internetowej platformie wideo w mediach społecznościowych. Filmy można następnie oglądać i wchodzić z nimi w interakcję na laptopie, smartfonie, tablecie i/lub inteligentnym telewizorze. Jedną z głównych różnic w zakresie zaangażowania demokratycznego od czasu pojawienia się Internetu i technologii mobilnej jest to, że zwiększa on potencjał treści generowanych przez użytkowników i interakcji w czasie rzeczywistym, o każdej porze dnia iw ruchu. Na przykład osoby, które skądinąd nie były zaangażowane politycznie, mogą teraz korzystać z mediów społecznościowych podczas kampanii wyborczej, dojeżdżając pociągiem do pracy i zamieszczać linki do wiadomości, które pomagają promować ich własne interesy polityczne. Ma to potencjał wpływania na wyborców w internetowych sieciach społecznościowych danej osoby, co może mieć namacalne wyniki wyborcze w świecie offline. W związku z tym Internet może ułatwić oszczędzanie czasu i oszczędny głos polityczny dla zwykłych użytkowników, który nie był dostępny przed integracją tych technologii.

Marketing polityczny online: kandydaci, partie polityczne i wyborcy

W systemach demokratycznych politycy i ich partie wykorzystują techniki marketingowe zarówno online, jak i offline, aby nawiązać kontakt z elektoratem, zwłaszcza w okresie poprzedzającym wybory. Głównym cel marketing polityczny polega na strategicznym przekonywaniu elektoratu do oddania głosu na konkretną partię polityczną lub kandydata. Internet stał się ważnym medium udostępniającym wiele elektronicznych i sieciowych narzędzi marketingu politycznego. Niedawno interaktywne aplikacje internetowe, takie jak media społecznościowe, znane jako Web 2.0, znacznie się rozwinęły w kontekstach wyborczych. Dlatego strony internetowe i poczta elektroniczna, zgrupowane jako Web 1.0, są obecnie starszymi metodami stosowanymi w marketingu politycznym.

Strony internetowe

Strony internetowe partii i kandydatów mogą służyć jako witryna sklepowa kampanii wyborczej. Umożliwia wyraźne wyświetlanie zdjęć kandydatów i brandingu partii politycznych oraz dostęp do nich za pośrednictwem adresów URL lub wyszukiwarek, takich jak Google lub Bing. W okresach kampanii strony polityczne zazwyczaj zawierają hiperłącza do informacji związanych z wyborami, takich jak obietnice wyborcze i/lub kluczowe kwestie polityczne. Mogą one być regularnie aktualizowane i dostępne dla ogółu społeczeństwa 24 godziny na dobę. Jest to znaczący postęp w porównaniu ze starszymi technikami marketingu politycznego/off-line, jak ulotki i reklamy/transmisje telewizyjne, które są naprawiane po produkcji i mogą wkrótce stać się nieaktualne. Polityczne strony internetowe służą jako przestrzeń online, w której informacje mogą być przekazywane elektoratowi i łączone z innymi działaniami marketingowymi techniki. Nowsze i wyrafinowane przykłady marketingu politycznego wykorzystują techniki przechwytywania danych osobowych osób odwiedzających strony polityczne. Zwykle polega to na zachęcaniu odwiedzających witrynę do podania swoich adresów e-mail. Wiele brytyjskich partii politycznych, takich jak Konserwatyści i Partia Niepodległości Zjednoczonego Królestwa (UKIP), zastosowało tę technikę w wyborach powszechnych w 2015 roku.

E-mail

Marketing polityczny za pomocą poczty e-mail znacznie się rozwinął od początku XXI wieku. Zarówno w Wielkiej Brytanii, jak iw Stanach Zjednoczonych istnieje tendencja do wysyłania e-maili do dużej liczby potencjalnych wyborców i zwolenników w nieformalnym stylu. Technika ta zwiększa prawdopodobieństwo, że odbiorca otworzy wiadomość e-mail. W wyborach powszechnych w Wielkiej Brytanii w 2015 r. Partia Konserwatywna zwracała się do wyborców po imieniu w e-mailach i używała nieformalnych nagłówków tematycznych. W porównaniu ze starszymi, bardziej formalnymi technikami komunikacji wyborczej, komunikacja partii za pośrednictwem poczty elektronicznej była świeższa i bardziej współczesna. W Stanach Zjednoczonych kampanie prezydenckie Obamy były pionierami używania nieformalnego tonu w politycznych e-mailach. Na przykład w 2012 r. używano nieformalnych nagłówków tematycznych, takich jak "Jestem po prostu taki szczęśliwy" (był to tytuł e-maila od Rufusa Gifforda, krajowego dyrektora finansowego kampanii prezydenckiej Obamy w 2012 r.).

Media społecznościowe i smartfony

Od 2005 roku media społecznościowe, takie jak blogi, Facebook, Instagram, LinkedIn, Twitter i YouTube, znacznie wzrosły pod względem liczby osób na całym świecie angażujących się w ich funkcje. Dało to partiom politycznym możliwości nawiązania kontaktu z nowymi odbiorcami na nowe sposoby. Niektórzy uczeni nazywają to cyfrowym marketingiem politycznym. W Wielkiej Brytanii, od wyborów powszechnych w 2010 r., w szczególności Facebook i Twitter zaczęły być używane przez uczestników politycznych, zwłaszcza tych należących do partii politycznych. Aktywiści zaczęli zamieszczać linki do materiałów i stron internetowych kampanii partii oraz odtwarzać komunikaty partii i branding. Ta działalność była w dużej mierze organiczna. Urzędnicy partyjni podejmowali niewiele prób wpływania, manipulowania lub kontrolowania dorobku swoich działaczy. Same partie polityczne również wykorzystywały media społecznościowe do promowania przesłań kampanii, działań i kandydatów. Facebook był używany do promowania przywódców politycznych, takich jak David Cameron dla konserwatystów i Nick Clegg dla Liberalnych Demokratów. Ze stron partii na Facebooku i Twitterze korzystały wszystkie główne partie polityczne w Wielkiej Brytanii. Strony w dużej mierze działały jak ruchome tablice ogłoszeń, które dostarczały strumień tekstu, hiperłączy, zdjęć i filmów do efemeryd kampanii cyfrowych. Uczestnicy mediów społecznościowych mogą wchodzić w interakcje z postami, klikając "Lubię to", udostępniając je swoim własnym kontaktom online i/lub pisząc komentarze. Stopień, w jakim tego rodzaju działalność wpływa na głosowanie w wyborach, jest obecnie niejasny. Jednak niektórzy badacze, jak Rachel K. Gibson, opracowują nowe metodologie, które pomogą zbadać tego typu pytania, w tym czy wyniki wyborów można przewidzieć za pomocą dużych zbiorów danych zebranych z platform mediów społecznościowych. Do czasu wyborów powszechnych w Wielkiej Brytanii w 2015 r. wykorzystanie mediów społecznościowych do celów marketingu politycznego stało się bardziej scentralizowane. Główne partie, takie jak Konserwatyści, Partia Pracy i Liberalni Demokraci, zaczęły inwestować więcej zasobów w zarządzanie wiadomościami z mediów społecznościowych przez swoich kandydatów i aktywistów. Techniki stały się bardziej wyrafinowane w porównaniu z wcześniejszymi wyborami w 2010 roku. W 2015 roku Partia Konserwatywna i jej kandydaci wykupili reklamy na Facebooku, które mogły być kierowane do użytkowników Facebooka w lokalizacjach określonych w okręgach wyborczych. Główne partie nadal korzystały z Facebooka i Twittera do promowania głównych przesłań kampanii swojej partii. jednakże uważa się, że Twitter jest ograniczony pod względem rozpowszechniania polityki, ponieważ Twitter publikuje posty (tweety) są ograniczone do 140 znaków tekstu. Twitter stwarza partiom politycznym możliwości bezpośredniej interakcji z elektoratem. Badanie przeprowadzone przez Anthony′ego Ridge-Newmana i Mary Mitchell opublikowane w 2016 roku sugeruje, że centralne operacje większych brytyjskich partii nie angażowały się zbytnio w dwukierunkowe interakcje z wyborcami na Twitterze w 2015 roku. Mniejsze partie, takie jak Szkocka Partia Narodowa i Wykazano, że UKIP angażuje się w częstsze i bezpośrednie kontakty z szerszą publicznością za pośrednictwem kanałów mediów społecznościowych. W połączeniu z postępami w technologii telefonii komórkowej, takimi jak połączenie internetowe 4G, Wi-Fi, iPhone firmy Apple i inne smartfony, dostęp do mediów społecznościowych jest teraz łatwy w ruchu. Dlatego do wyborów w 2015 r. partie polityczne, kandydaci i aktywiści mogli promować przesłania i działania swoich partii nie tylko w czasie rzeczywistym, ale także w ruchu. To wykorzystanie i możliwości Web 2.0 do marketingu politycznego wyraźnie kontrastuje z wcześniejszymi okresami naznaczonymi bardziej ograniczonymi technologiami Web 1.0. Podobnie jak w przypadku partii politycznych w Wielkiej Brytanii, bardziej skoncentrowany na kandydacie system badań amerykańskich również pokazał różnice między kandydatami Demokratów i Republikanów pod względem korzystania przez nich z Twittera. Amalia Adams i Tina McCorkindale stwierdziły, że w kampanii prezydenckiej w 2012 roku Barack Obama, kandydat Demokratów, był znacznie bardziej aktywny na Twitterze niż jego republikański przeciwnik Mitt Romney. Jednak w kampanii prezydenckiej w 2016 roku Donald Trump, kandydat Republikanów, zasłynął z bardzo aktywnego korzystania z Twittera. Trump twierdzi, że korzystanie z Twittera pozwoliło mu bezpośrednio przekazać swoje przesłanie milionom amerykańskich wyborców i obserwatorów na całym świecie.

Finansowanie kampanii online, członkostwo i organizacja imprez

W poprzednich częściach zbadano, w jaki sposób politycy wykorzystują Internet do łączenia się z wyborcami w okresie poprzedzającym kampanie wyborcze. Rozwój technologii internetowych wpłynął również na organizację polityczną i mobilizację zwolenników. Obejmuje to sposoby pozyskiwania funduszy przez partie polityczne i organizowania kampanii wyborczych.

Finanse

Partie polityczne i kandydaci na ogół dążą do zbierania pieniędzy za pośrednictwem darczyńców, aby sfinansować swoje kampanie wyborcze. Tradycyjnie fundusze w dużej mierze pochodziły od niewielkiej liczby zamożnych darczyńców. Jednak pojawienie się Internetu w niektórych przypadkach zrewolucjonizowało finansowanie kampanii. Najbardziej godnym uwagi przykładem było wykorzystanie przez Obamę Internetu w postaci mybarackobama.com (MyBo) podczas kampanii prezydenckiej w 2008 roku. Witryna posiadała funkcje interaktywne oraz ułatwiała i zachęcała miliony darczyńców do przekazywania drobnych datków. Podejście to było bardzo skuteczne i wzmocniło kampanię Obamy. W Wielkiej Brytanii, w okresie poprzedzającym wybory powszechne w 2010 roku, Partia Konserwatywna próbowała naśladować podejście MyBo i stworzyła porównywalną stronę internetową, którą nazwała myconservatives.com. Konserwatyści zachęcali zwolenników partii, w tym osoby niebędące członkami, do przekazywania niewielkich kwot. Jednak badania przeprowadzone przez Anthony′ego Ridge-Newmana sugerują, że fundusze zebrane za pomocą myconservatives.com były minimalne i nie przyczyniły się znacząco do funduszy kampanii w porównaniu z tymi wygenerowanymi przez MyBo Obamy w 2008 roku. Konserwatyści uznali to podejście za nieskuteczne w systemie politycznym Wielkiej Brytanii i nie uruchomił ponownie myconservatives.com na potrzeby wyborów powszechnych w 2015 roku.

Strony internetowe i członkostwo

Jeśli chodzi o członkostwo w partii, okres poprzedzający wybory jest ważnym okresem rekrutacji nowych członków i sympatyków. Większość istniejących partii politycznych jest reprezentowana online przez stronę internetową. Strony internetowe stały się ważnym czynnikiem przy zapisywaniu nowych członków partii. W Zjednoczonym Królestwie Partia Pracy była szczególnie skuteczna w strategicznym wykorzystywaniu swojej strony internetowej do przyjmowania nowych członków. Niedawne dążenia do członkostwa w Partii Pracy były powiązane z wyborem nowych przywódców partii. Motywacje do członkostwa były wykorzystywane do zachęcania ludzi do przyłączenia się do partii poprzez oferowanie zachęty do głosowania, aby pomóc zdecydować o wyniku wyborów przywódczych. Liczba członków Partii Pracy znacznie się rozszerzyła od czasu korzystania ze strony internetowej partii w ten sposób. Podkreśla również znaczenie łączenia strategii z wykorzystaniem Internetu w celu zwiększenia prawdopodobieństwa pomyślnych wyników. Strony internetowe umożliwiają potencjalnym członkom samodzielne administrowanie swoim członkostwem w partii politycznej poprzez proste wypełnianie formularzy online i elektroniczne opłacanie składek członkowskich. Przed tymi funkcjami osoby ubiegające się o członkostwo musiałyby zwrócić się do przedstawiciela lokalnego stowarzyszenia politycznego lub dołączyć za pośrednictwem innego organu, takiego jak związek zawodowy w przypadku brytyjskiej Partii Pracy. W niektórych przypadkach okazało się to długotrwałym procesem dla uczestników wielu partii politycznych. Dlatego strony internetowe partii pomogły usunąć niektóre tradycyjne bariery przynależność do partii politycznej. Jednak dołączenie do partii politycznej przez Internet również stwarza problemy. Helen Margetts sugeruje, że internetowe członkostwo polityczne jest słabą formą relacji między członkiem a partią polityczną. Dlatego należy podjąć dalsze działania między członkiem a partią, aby zachęcić do namacalnych interakcji, takich jak zaangażowanie w kampanie polityczne w świecie off-line.

Bazy danych

W okresach kampanii wyborczych dojrzałe partie polityczne polegają na posiadanych i zarządzanych wewnętrznie technologiach baz danych w celu organizowania i realizowania komunikacji z elektoratem. Może to obejmować organizowanie i zarządzanie danymi wyborców wykorzystywanymi w akwizycji bezpośredniej i od drzwi do drzwi oraz rozsyłanie korespondencji tradycyjnej i elektronicznej. W Wielkiej Brytanii Partia Konserwatywna rozwijała swoje technologie baz danych w kolejnych wyborach zgodnie z rozwojem technologii internetowych. Z biegiem czasu te dwie technologie zostały zintegrowane, aby umożliwić Partii Konserwatywnej bardziej natychmiastowy, połączony w sieć i mniej zakorzeniony geograficznie krajowy system baz danych o nazwie VoteSource. Wcześniejsza baza danych, Merlin, została połączona przez Internet z centralną partyjną bazą danych w celu udostępniania danych lokalnym stowarzyszeniom konserwatywnym. Jednak Merlin musiał być używany na konkretnym komputerze w biurze stowarzyszenia, podczas gdy dostęp do VoteSource można uzyskać za pośrednictwem przeglądarki internetowej na dowolnym komputerze osobistym z dostępem do Internetu. Podczas kampanii prezydenckiej w USA w 2016 roku Partia Republikańska zaczęła używać aplikacji agitacyjnej, dostępnej za pośrednictwem tabletu lub smartfona z ekranem dotykowym. To jest prawdopodobna przyszłość akwizycji od drzwi do drzwi i frontonu partyjnych baz danych. Prawdopodobne jest, że więcej partii politycznych zainwestuje w technologie, które umożliwią eliminację papieru oraz natychmiastowy mobilny dostęp do informacji o wyborcach, które aktywiści mogą aktualizować na ekranie iw czasie rzeczywistym. Takie systemy akwizycji połączone z Internetem eliminują potrzebę używania papieru i długopisu oraz wprowadzania danych po sesji akwizycji, oszczędzając w ten sposób czas, miejsce i zasoby.

Media społecznościowe i organizacja

Media społecznościowe ułatwiły nawiązywanie kontaktów między osobami o wspólnych zainteresowaniach, na przykład uczestnikami polityki, którzy mogą spotykać się w przestrzeni internetowej, aby mobilizować formy aktywizmu politycznego, zarówno online, jak i offline. Sieć społecznościowa Facebook jest szczególnie skuteczna w łączeniu ludzi w sieci polityczne i umożliwia im organizowanie niektórych aspektów działań kampanii wyborczej. W Wielkiej Brytanii członkowie UKIP i Szkockiej Partii Narodowej są szczególnie zaangażowani w wyświetlanie logo partii i kolorów w sieciach społecznościowych. Oznacza to, że poszczególne profile można łatwo zidentyfikować jako wspierające określoną partię, co z kolei jest sygnałem dla podobnie myślących zwolenników, że podzielają tę samą sprawę. Na Facebooku sieci online rozwijają się poprzez wysyłanie/akceptowanie zaproszeń do grona znajomych. W okresie poprzedzającym kampanię referendum w sprawie Unii Europejskiej w Wielkiej Brytanii, zwolennicy UKIP wysłali zaproszenia do grona znajomych na Facebooku do osób o podobnych poglądach, zarówno z UKIP, jak i spoza niej, w tym zwolenników Partii Konserwatywnej, zwiększając w ten sposób potencjał mobilizacji uczestników politycznych, którzy podzielali cel UKIP, jakim jest Wielkiej Brytanii do opuszczenia Unii Europejskiej. Od 2008 r. partie polityczne w Wielkiej Brytanii, zwłaszcza ich młodsi członkowie, zaczęły eksperymentować z grupami na Facebooku, aby częściowo zorganizować siebie i swoją działalność kampanijną za pośrednictwem internetowego narzędzia sieciowego. Grupy internetowe ułatwiły gromadzenie podobnie myślących polityków, których interakcje nie są już ograniczone barierami geograficznymi i czasowymi. Za pośrednictwem Facebooka działacze polityczni mogą wchodzić w interakcje z grupą i dynamiką kampanii na odległość oraz umawiać się na udział w działaniach kampanii w lokalizacjach geograficznych, które bez dostępu do Internetu wydawałyby się bardziej odległe. Wczesne organizacyjne zastosowania Facebooka przez partie polityczne koncentrowały się w dużej mierze na działaniach oddolnych zwykłych członków partii. Niedawno centralne operacje partii politycznych zaczęły wykorzystywać Facebooka do organizowania działań kampanijnych. Na przykład w Wielkiej Brytanii Partia Konserwatywna regularnie organizuje udział w operacjach swojego centralnego call center za pośrednictwem Facebooka, co jest strategicznie połączone z zaproszeniami do udziału członków za pośrednictwem poczty elektronicznej z centralnych operacji partii. Funkcja wydarzenia na Facebooku ułatwia mobilizację zwolenników do kampanii wyborczej niskim kosztem oraz w szybki i łatwy sposób. W wyborach w 2010 r. w dużej mierze dotyczyło to udziału młodszych zwolenników partii. Jednak do 2015 roku w Wielkiej Brytanii liczba osób korzystających z Facebooka do organizacji politycznych wzrosła. Dlatego we współczesnych kontekstach wykorzystanie mediów społecznościowych do organizacji politycznej jest reprezentowane przez różnorodność uczestników politycznych. Jest to coś, co zmieniło się z biegiem czasu wraz ze wzrostem znaczenia aplikacji internetowych. Ponieważ coraz więcej osób przechodzi na technologię smartfonów, media społecznościowe stają się coraz bardziej dostępne i łatwe w użyciu dla różnych osób. W związku z tym wykorzystanie i rozwój takich technologii w kontekstach demokratycznych i wyborczych prawdopodobnie będzie z czasem rosnąć zgodnie z szerszą ewolucją technologiczną oraz praktykami kulturowymi i politycznymi. Ten wpis koncentruje się na zdefiniowaniu i wyjaśnieniu roli Internetu w demokracji, polityce i wyborach. Dostarczył szereg przykładów zastosowań Web 1.0 i Web 2.0 w wielu kontekstach w systemach politycznych Wielkiej Brytanii i Stanów Zjednoczonych. Niuanse z tych kontekstów pomagają zilustrować, w jaki sposób korzystanie z Internetu w wyborach różni się w zależności od systemu oraz między różnymi partiami politycznymi i uczestnikami politycznymi w danym systemie politycznym. Pojawienie się Internetu w kontekście demokratycznym pomogło uczestnikom politycznym w wysyłaniu wiadomości, które mogą ominąć bardziej tradycyjne kanały medialne. Świat online ma pewien potencjał w zakresie demokratyzacji działalności politycznej na najniższych szczeblach i poszerzenia udziału politycznego, przynosząc jednocześnie znaczne korzyści i tak już znanym działaczom politycznym. Internet oferuje tanie i łatwo dostępne aplikacje dla zwykłego użytkownika, ale strategie stosowane przez elity w partiach politycznych stają się coraz bardziej złożone i wyrafinowane. Charakter technologii smartfonów w czasie rzeczywistym i w ruchu napędza nowe innowacje w korzystaniu z technologii połączonych z Internetem w kontekstach politycznych. W niektórych przypadkach pomaga to usprawnić aktywizm polityczny, oszczędzając czas, miejsce i polegając na tradycyjnych zasobach. Naukowcy starają się nadążyć za szybkim tempem zmian w obszarze e-polityki. Nowe metodologie pomogą określić, jak skuteczne mogą być media społecznościowe w wpływaniu i przewidywaniu sposobów, w jakie ludzie głosują. To z kolei prawdopodobnie wpłynie na strategie stosowane przez partie polityczne przy wykorzystywaniu Internetu jako narzędzia w przyszłych kampaniach wyborczych.


Powrót

Wirtualna rzeczywistość



Popularne media i najnowsze produkty konsumenckie sprawiają wrażenie, że wirtualna rzeczywistość (VR) polega głównie na byciu przywiązanym do komputera z wyświetlaczem montowanym na głowie (HMD) zakrywającym twarz, słuchawkami na uszach i jakimś kontrolerem w obu rękach do interakcji. Chociaż jest to rzeczywiście jedno ważne wcielenie systemu VR, nie jest to jedyne. Wirtualną rzeczywistość można dość szeroko zdefiniować jako syntetycznie generowane wrażenia sensoryczne (np. wideo, obrazy, dźwięk, dotyk), które mają na celu zanurzenie użytkowników w sztucznym, symulowanym i interaktywnym środowisku. Ten wpis definiuje VR i omawia jego historię, sprzęt i zastosowania.

Zdefiniowane w VR

Ponieważ wzrok jest naszym dominującym zmysłem, nie dziwi fakt, że większość rozwiązań i badań VR kładzie duży nacisk na technologię wyświetlania (np. ciągłe środowisko 360° lub duże ekrany, które otaczają użytkownika ze wszystkich stron, aby osiągnąć ten sam efekt). Aby służyć zmysłom słuchowym, zwykle stosuje się głośniki stereo lub dźwięk przestrzenny lub systemy słuchawkowe. Dotyk to kolejny ważny zmysł, który można stymulować za pomocą systemów sprzężenia zwrotnego siły, aby stworzyć wrażenie namacalnego środowiska wirtualnego. Dotyczy to również innych zmysłów (zapach, smak); jednak ze względu na złożoność techniczną liczba takich rozwiązań lub badań w tych obszarach jest proporcjonalnie znacznie mniejsza. Interakcja jest kluczowym elementem, umożliwiającym użytkownikowi nawigację, reagowanie i wpływanie na środowisko, co odróżnia VR od czysto pasywnej prezentacji filmu przypominającej park rozrywki. VR znajduje się na jednym końcu ciągłego widma, a rozszerzona rzeczywistość (AR) na drugim końcu. Wirtualna rzeczywistość charakteryzuje się przede wszystkim całkowitym wykluczeniem bodźców ze świata rzeczywistego (np. poprzez użycie HMD, który blokuje jakikolwiek widok środowiska fizycznego) lub wykorzystaniem dedykowanego pustego pokoju. Z drugiej strony AR definiuje się głównie przez konieczność zobaczenia otoczenia, aby nałożyć na nie wirtualną zawartość.

Historia

Z pragmatycznego punktu widzenia pochodzenie aspektów współczesnej rzeczywistości wirtualnej można prześledzić wstecz do pojawienia się wielkoformatowych obrazów panoramicznych w XIX wieku. W 1793 roku Robert Baker specjalnie zbudował budynek panoramiczny w Londynie, który pokazywał 360-stopniowe obrazy krajobrazów Edynburga i Londynu na otaczających ścianach, całkowicie zanurzając widza, który stał na centralnej platformie. W literaturze science fiction spojrzenia współczesnych HMD można znaleźć w opowiadaniu Pigmaliona Spectacles Stanleya Weinbauma z 1935 roku. Bohater prezentuje urządzenie, które może nagrać scenę w specjalnym płynie. Aby odtworzyć scenę w pełnym bogactwie sensorycznym, w tym dźwięku, zapachu, smaku i dotyku, użytkownik musi założyć maskę z goglami i ustnikiem. To urządzenie zanurzyłoby następnie oczy osoby badanej w cieczy rejestrującej, odtwarzając w ten sposób scenę z pełnymi szczegółami. W 1962 roku Morton Heilig opatentował urządzenie o nazwie "sensorium", które było w stanie odtwarzać szerokokątny film stereoskopowy z dźwiękiem stereo, zapewniać dotykowe sprzężenie zwrotne poprzez przechylanie ciała oraz generować wiatr i zapachy wyzwalane przez dodatkowe kanały nagrywania. Jednak ze względu na brak funduszy nigdy nie został wyprodukowany w większej liczbie. Chociaż wspomniane wcześniej przykłady są prekursorami dzisiejszej technologii i zasad VR, brakuje im ważnego aspektu interaktywności, który można by sklasyfikować jako pełne implementacje VR. Jednym z pierwszych systemów VR, który spełnia wszystkie wyżej wymienione aspekty, jest powszechnie uważany za "Miecz Damoklesa", który został opracowany przez Ivana Sutherlanda w Massachusetts Institute of Technology w 1968 roku. połączył komputer ze stereoskopowym wyświetlaczem, który sam był podłączony do mechanizmu powyżej, który mógł śledzić jego ruch. Dostosowując pokazany obraz za pomocą matematycznych zasad trójwymiarowej (3D) transformacji i projekcji w oparciu o pozycję i kierunek patrzenia na wyświetlaczu, Sutherland był w stanie wywołać u użytkownika wrażenie oglądania modeli szkieletowych 3D (np. sześcianu, pokój lub cząsteczka unosząca się w pokoju w pozycji statycznej). Biorąc pod uwagę doświadczenie Sutherlanda, podszedł do VR z naukowego punktu widzenia. Jednak duża część współczesnej VR została również zdefiniowana przez sztukę, w szczególności przez prace Myrona Kruegera. W swoich interaktywnych instalacjach METAPLAY (1970) i VIDEOPLACE (1975) zanurzył użytkowników w pokoju z dużą projekcją środowiska, które zmieniało się w odpowiedzi na działania użytkownika, koncepcję, którą nazwał "sztuczną rzeczywistością". W VIDEOPLACE obrazy były kontrolowane wyłącznie przez komputer, a także łączyły interakcje dwóch użytkowników, wprowadzając aspekty społeczne do doświadczenia. Około 1985 roku VR zyskała komercyjną popularność dzięki założeniu VPL Research przez Jarona Laniera. Firma opracowała sprzęt specyficzny dla VR, taki jak EyePhone, urządzenie HMD; DataGlove do wprowadzania danych za pomocą gestów; oraz Data-Sufit do wprowadzania ruchu całego ciała. VPL Research spopularyzował również termin wirtualna rzeczywistość w kontekście, w jakim jest on używany dzisiaj. Do końca lat 90. VR cieszyła się zainteresowaniem opinii publicznej, napędzana przez filmy, książki, czasopisma i relacje w mediach na ten temat. Jednak ze względu na nieakceptowalny standard techniczny technologii z wyświetlaczami o niskiej rozdzielczości, małą mocą obliczeniową, a przede wszystkim brakiem odpowiednich aplikacji, ruch VR osiągnął swój szczyt przed rokiem 2000 i zniknął z rynku konsumenckiego. W dziedzinie wojskowości, nauki i przemysłu technologia i oprogramowanie były nadal rozwijane, ale w wolniejszym tempie i mniej widoczne dla opinii publicznej. W 2012 roku założyciel Oculus VR, Palmer Luckey, ogłosił Oculus Rift, ekonomiczną wersję HMD, która nagle ożywiła rozwój technologii i aplikacji VR na rynku konsumenckim. Od tego czasu na rynku pojawiło się wiele powiązanych produktów (np. HTC Vive, Gear VR czy Playstation VR). W porównaniu z technologią z lat 90. jakość i komfort wyświetlania znacznie się poprawiły. Ponadto moc obliczeniowa osiągnęła poziom umożliwiający renderowanie interaktywnych środowisk z wysoką jakością i bogactwem szczegółów. Jednak najważniejsze dla sukcesu tej trzeciej generacji technologii VR jest wprowadzenie mechanizmów rozwoju i dystrybucji oprogramowania, które pozwalają na tworzenie aplikacji przez wszystkich, a nie tylko przez firmy komercyjne. Dzięki Internetowi łatwo jest aktualizować i rozwijać technologię VR w ścisłej komunikacji z rosnącą społecznością. Szczegóły dotyczące oprogramowania i technologii są otwarte i publicznie widoczne. Tworzy to dość wystandaryzowane interfejsy i konwencje programistyczne, które pozwalają na szybkie dostosowanie jednej aplikacji do więcej niż jednego systemu VR. W bardzo krótkim czasie główne narzędzia do tworzenia aplikacji 3D, takie jak Unity3D czy Unreal Engine, miały wbudowaną obsługę systemu VR. Jeśli chodzi o dystrybucję, internetowe rynki aplikacji umożliwiają użytkownikom wybór spośród dużego wyboru aplikacji, które czynią systemy VR atrakcyjnymi dla rynku konsumenckiego. Gry stanowią dużą część tych aplikacji, ale coraz częściej pojawiają się opowiadania, doświadczenia i kreatywne aplikacje, takie jak programy do malowania 3D i modelowania 3D. Ponadto łączność internetowa umożliwia rozwój doświadczeń społecznych, na przykład wirtualnych pokojów rozmów i przestrzeni, w których użytkownicy mogą rozmawiać, wchodzić w interakcje, naturalnie używać mowy ciała, współtworzyć wirtualne obiekty i współpracować przy projektach. Nic dziwnego, że -Facebook, największa wówczas platforma społecznościowa, przejął firmę Oculus w lipcu 2014 r. i rozpoczął tworzenie wersji VR swojej sieci społecznościowej.

Sprzęt komputerowy

Wizja 3D


W najprostszej konfiguracji możliwe jest zaprezentowanie użytkownikowi wizualizacji w postaci wideo 2D (np. w aplikacjach VR opartych na komputerach stacjonarnych lub dla zwiększenia immersji na dużych ścianach projekcyjnych). Jednak większość systemów VR wykorzystuje zasadę widzenia stereo do tworzenia trójwymiarowej percepcji wirtualnych treści. Aby osiągnąć ten cel, system musi skutecznie przedstawić oczom użytkownika dwa niezależne obrazy, uwzględniając wpływ przestrzeni między nimi na widok sceny (np. paralaksa, okluzja, nieco inne kąty widzenia). Na podstawie tych wskazówek i dodatkowych aspektów, takich jak perspektywa, mózg jest w stanie zrekonstruować trójwymiarowe informacje o scenie. Aby przedstawić niezależny obraz dla każdego oka, można zastosować kilka zasad. Jedną z powszechnych technik jest projekcja dwóch obrazów na wspólną powierzchnię przy użyciu filtrów polaryzacyjnych. Dlatego użytkownik musi nosić okulary z dopasowanymi polaryzatorami, aby każde oko postrzegało tylko ten właściwy z tych dwóch obrazów. Ponieważ ta forma okularów nie wymaga żadnego aktywnego składnika, są one dość niedrogie - złożoność polega na precyzji filtrów optycznych. Alternatywną, ale nieco bardziej złożoną zasadą jest szybkie naprzemienne wyświetlanie obrazów lewego i prawego oka na tym samym ekranie, przy czym aktywne okulary odpowiednio blokują widok drugiego oka. Obie zasady mają tę wadę, że skutecznie zmniejszają jasność obrazu o 50%, ale mają tę zaletę, że umożliwiają kilku użytkownikom równoległe oglądanie tej samej treści (chociaż problemem są różne punkty widzenia każdego użytkownika). Bardziej indywidualnym rozwiązaniem jest HMD, w którym mały ekran z optyką projekcyjną znajduje się przed każdym okiem. W zależności od typu wyświetlacza użytkownik może być całkowicie odizolowany od otoczenia lub - korzystając z przezroczystego wyświetlacza - nakładać treści na świat rzeczywisty (ten ostatni typowo określany jest obecnie jako AR). Zwykle HMD cierpią na efekt widzenia w tunelu ze względu na ograniczenia optyki i rozmiarów wyświetlacza. Od 2017 roku większość technologii HMD pozwala na pole widzenia około 110 °, podczas gdy ludzkie oko ma prawie 180 ° poziomego pola widzenia. Jednak niektórzy producenci HMD reklamują 210°. Ze względu na charakter obrazów i system projekcji, każde ze wspomnianych wcześniej rozwiązań wyświetlania wiąże się z kilkoma problemami. Jednym z nich jest fakt, że oko ludzkie automatycznie ustawia ostrość na obiekcie na podstawie postrzeganej odległości. Jednak przy stałej odległości oka od ekranu jest to problematyczne w VR i jedna z przyczyn dyskomfortu podczas dłuższej ekspozycji. Jednym z rozwiązań tego problemu jest wykorzystanie pól świetlnych, technologii, która zachowuje nie tylko kolor i jasność każdego obiektu sceny, ale także kierunek, z którego światło dociera do oka. Pozwala to użytkownikowi na elastyczny wybór punktu ostrości zamiast posiadania tylko stałego punktu.

Śledzenie 3D

Niezależnie od zastosowanej technologii prezentacji, ważną funkcją systemu VR jest śledzenie ruchów głowy. W zależności od ruchu użytkownika prezentowane obrazy muszą się zmieniać względem nowego położenia oczu oraz - w przypadku HMD - również względem kierunku, w którym patrzy użytkownik. Wczesne systemy VR z lat 90. miały stosunkowo duże opóźnienie między rzeczywistym ruchem urządzenia a wizualną zmianą prezentowanych obrazów. To opóźnienie "ruch-foton" jest jednym z głównych czynników dyskomfortu w VR ze względu na czasowe rozłączenie ruchu postrzeganego przez narząd przedsionkowy i zmianę obrazu, który ma być widziany przez oczy. Często nazywane "chorobą symulatora", to rozłączenie objawia się mdłościami i dezorientacją i może trwać kilka godzin po faktycznym doświadczeniu VR. Nowoczesne systemy próbują przeciwdziałać temu efektowi za pomocą wysokiej liczby klatek na sekundę (do 120 Hz) oraz optymalizacji sprzętu i oprogramowania (np. przewidywanie i wypaczanie obrazu 2D), aby utrzymać opóźnienie poniżej 20 ms, czyli przedział czasu akceptowany przez branżę jak poniżej próg percepcji człowieka. Wczesne systemy, takie jak "Miecz Damoklesa", wykorzystywały mechanikę do określania ruchu i rotacji głowy użytkownika, co skutkowało ciężkimi i skomplikowanymi konstrukcjami, które ograniczały swobodę ruchu. Później technologia magnetyczna pozwoliła na większą swobodę i większą przestrzeń do poruszania się, ale nadal wymagała czujnika na uwięzi w zestawie słuchawkowym. Istnieją rozwiązania śledzenia ultradźwiękowego, ale nie są one zbyt powszechne. Nowoczesne przemysłowe rozwiązania VR często wykorzystują wysokiej jakości optyczne systemy przechwytywania ruchu, w których kamery śledzą odblaskowe znaczniki na okularach lub goglach w celu śledzenia ich pozycji i orientacji. Niektóre systemy klasy konsumenckiej wykorzystują w tym celu jedną lub więcej kamer do wykrywania określonego wzoru diod LED na zestawie słuchawkowym. Inni używają zewnętrznych projektorów laserowych, które generują dynamiczne pole świetlne, na podstawie którego HMD i kontrolery ręczne mogą wykryć i zrekonstruować ich ruch i pozycję. Większość wcześniej odnotowanych rozwiązań śledzących ma pewne opóźnienie w pomiarze, co niekorzystnie odbija się na komforcie korzystania z systemu VR, szczególnie podczas korzystania z HMD. W takich przypadkach dodatkowe czujniki można łączyć, tworząc na przykład systemy hybrydowe, na przykład z czujnikami bezwładnościowymi, które szybko wykrywają przyspieszenie, ale wymagają od układu optycznego kompensacji ich nieodłącznego dryfu. Wszystkie te systemy wymagają zewnętrznych aktywnych komponentów wokół HMD i dlatego są nazywane rozwiązaniami śledzącymi "outside-in". Niektóre alternatywne systemy konsumenckie wykorzystują śledzenie "od wewnątrz", w którym cała technologia jest wbudowana, a rozmiar i kształt pomieszczenia oraz pozycja i orientacja użytkownika w nim są określane bez żadnej innej pomocy technicznej.

Dźwięk 3D

W systemach VR użytkownik porusza się i wchodzi w interakcje w przestrzeni 3D; dlatego każda reprezentacja audio musi to uwzględniać. Podczas projektowania scen 3D dla VR źródła dźwięku prawie zawsze będą miały położenie przestrzenne i właściwości akustyczne, takie jak zasięg i kierunkowość. Ponadto przestrzeń ma właściwości akustyczne, które wpływają na dźwięk w zależności od pozycji i orientacji użytkownika w scenie (np. pogłos). Nowoczesne systemy mogą wykorzystywać "suche" nagrania dźwięku bez pogłosu i innych efektów przestrzennych i odtwarzać je praktycznie w każdym środowisku akustycznym (np. katedra). Najprostszym sposobem przedstawienia użytkownikowi treści audio są słuchawki stereo połączone z symulacją tego, jak ludzkie uszy odbierałyby źródła dźwięku w scenie w zależności od ich położenia i orientacji. W najprostszej formie objawia się to drobnymi opóźnieniami między dźwiękiem docierającym do lewego i prawego ucha, których mózg używa do określenia kierunku i odległości źródła. W bardziej złożonych systemach uwzględniany jest również wpływ kształtu ucha, przewodu słuchowego i głowy, dzięki czemu informacje o źródle dźwięku, takie jak "za" i "powyżej", są przedstawiane z większą szczegółowością. Gdy telefony nie wchodzą w grę, stosuje się systemy dźwięku przestrzennego lub bardziej złożone systemy wielokanałowe. Głośniki otaczające fizyczny obszar systemu VR mogą odtwarzać dźwięki z różnych kierunków, aczkolwiek z pewnymi ograniczeniami co do rozmieszczenia źródeł dźwięku. Używając dużej liczbya głośników skonfigurowanych jako macierz i synteza pola falowego, te ograniczenia można również przezwyciężyć, aczkolwiek za cenę kompromisu w postaci bardziej złożonego sprzętu i nakładu obliczeniowego. Systemy akustyczne muszą również działać z ograniczeniami czasowymi, które są znacznie bardziej rygorystyczne niż system śledzenia. Podczas gdy opóźnienie w elementach optycznych musi być mniejsze niż 20 ms, w przypadku przetwarzania akustycznego musi być mniejsze niż 1 ms.

Kontrolery i dotykowe

Ręce są głównym narzędziem ludzi do manipulowania otoczeniem, co znajduje odzwierciedlenie w dużej różnorodności kontrolerów ręcznych i badaniach w dziedzinie wprowadzania ręcznego i opartego na gestach. Joysticki, myszy lub rękawiczki z funkcją śledzenia 3D mogą być używane do wskazywania obiektów 3D i wyzwalania interakcji lub zdarzeń. Rękawiczki i urządzenia do śledzenia dłoni umożliwiają również precyzyjne wprowadzanie danych za pomocą palców (tj. poprzez gesty, takie jak wskazywanie, szczypanie). Nowoczesne kontrolery zawierają złożone elementy sterujące, które można znaleźć w konsolach do gier, takie jak gładziki lub drążki, które wykorzystują zręczność poszczególnych palców. Haptyczne sprzężenie zwrotne z systemu VR do dłoni lub palców użytkownika można wdrożyć w prosty sposób, na przykład za pomocą silników wibracyjnych lub małych siłowników, które przykładają niewielką siłę impulsu do czubka palca lub innych części dłoni lub ciała. To wystarczy, aby przekazać informację zwrotną na temat wywołanych działań lub innych zdarzeń, ale nie nadaje się do przekazania kształtów lub bardziej złożonych sił w symulowanym środowisku. Bardziej złożone systemy dotykowego sprzężenia zwrotnego z silnikami i kołami pasowymi, elementami hydraulicznymi lub innymi formami siłowników są w stanie przyłożyć wystarczającą siłę, aby uniemożliwić użytkownikowi penetrację wirtualnego obiektu, tworząc w ten sposób iluzję rzeczywistego stałego (lub odkształcalnego) wirtualnego obiektu. Takie systemy są szeroko rozpowszechnione w symulatorach chirurgicznych, gdzie wysoki realizm rzeczywistego odczucia manipulowania tkanką miękką jest kluczowy dla realizmu i efektu treningu. Siłowe sprzężenie zwrotne można rozszerzyć, aby oddziaływać na całe ciało za pomocą systemów ruchu, które można przyspieszać we wszystkich kierunkach i przechylać wokół wszystkich osi (np. ramiona robotów lub roboty równoległe). Systemy te mogą symulować zachowanie dużych pojazdów w ruchu, takich jak samochody, statki lub samoloty. Jednak przy znacznej złożoności technicznej i mechanizmach kontrolnych wiąże się to z wysokimi kosztami, co powoduje, że nie nadaje się na rynek konsumencki. Rozszerzenie sprzężenia zwrotnego siły lub innych wrażeń dotykowych na ciało można osiągnąć za pomocą urządzeń, które odnoszą się do określonych dodatkowych obszarów (np. Klatka piersiowa poprzez noszenie kamizelki lub całe ciało poprzez noszenie pełnych kombinezonów wyposażonych w czujniki i siłowniki). Ponownie, zwiększona złożoność i koszty są kompromisami w zamian za zwiększenie wrażeń i zanurzenia. Problematyczne jest również sterowanie ruchem w VR, głównie ze względu na ograniczenia przestrzeni fizycznej (np. rozmiar pomieszczenia, długość kabli czy ograniczony zasięg czujników śledzących). Rozwiązania umożliwiające tworzenie większej przestrzeni do ruchu fizycznego obejmują mechaniczne bieżnie lub obuwie o niskim współczynniku tarcia, które utrzymują stopy w jednym miejscu, ale umożliwiają ruch nóg podczas chodzenia lub biegania. Podczas noszenia zestawu słuchawkowego z całkowitą wizualną izolacją od otoczenia możliwe jest również wypaczenie i zniekształcenie wizualnej reprezentacji ruchu i przestrzeni, a tym samym przekierowanie i zmiana orientacji użytkownika, aby mała fizyczna przestrzeń wydawała się znacznie większa.

Różnorodne

Idealny system VR angażowałby wszystkie pięć zmysłów użytkownika, tworząc efekt pełnego zanurzenia. Badania i technologie dotyczące wzroku, słuchu i dotyku są dość rozpowszechnione, podczas gdy węch i smak nie. Sensorama Mortona Heiliga zaimplementowała zapach poprzez kontrolowane otwieranie pojemników z materiałami zapachowymi. Zasada ta jest również stosowana w rozwiązaniach komercyjnych (np. w masce, która jest noszona jako dodatek do HMD i może wytwarzać zapachy z zestawu fiolek zawierających płyny węchowe). Smak można symulować poprzez elektryczną stymulację określonych obszarów języka; jest to jednak dość uciążliwa zasada. Ogólnie stymulacja elektryczna może być przyszłym rozwiązaniem dla wszystkich zmysłów, eliminującym potrzebę fizycznego wytwarzania określonego bodźca i zamiast tego generowania go poprzez bezpośrednie pobudzenie powiązanej części układu nerwowego.

Aplikacje VR

Mając dostęp do źródeł finansowania pozwalających na zakup drogiego początkowo sprzętu VR, nie dziwi fakt, że aplikacje militarne powstawały dość wcześnie w historii VR. Wizualnie sprzężony symulator systemów pokładowych został zaprojektowany na początku 1977 roku, wykorzystując HMD ze śledzeniem głowy i oczu, aby przedstawić pilotowi pełny widok z kokpitu symulowanego samolotu. Tę zasadę można łatwo rozszerzyć na inne formy pojazdów i pozycje (np. Piechota, spadochroniarz, kierowca czołgu lub strzelec). Korzystając z sieciowych systemów VR, jest to również możliwe aby szkolić zespoły i wdrażać wirtualne ćwiczenia na dużą skalę. Za pomocą wielkoformatowych ekranów projekcyjnych możliwe jest miksowanie rzeczywistych obiektów, takich jak sprzęt, rekwizyty czy manekiny medyczne, z wirtualnym symulowanym środowiskiem, np. ich pozycje, ruchy i broń treningową, które działają również jako kontrolery wejściowe. Takie szkolenie można również zastosować do szkolenia osób udzielających pierwszej pomocy lub do scenariuszy takich jak sytuacje awaryjne na dużą skalę lub katastrofy, gdzie cel szkolenia jest raczej kierowniczy niż proceduralny. W dziedzinie medycyny symulacja VR znalazła duży rynek w urządzeniach szkoleniowych do chirurgii (np. procedury endoskopowe), gdzie realizm wizualnej reprezentacji symulowanego pola operacyjnego jest równie ważny, jak dotykowe sprzężenie zwrotne za pomocą manipulatorów, które są używane jednocześnie jako urządzenia wejściowe i wyjściowe. W psychologii ważnym czynnikiem jest możliwość prezentowania treści przez VR w kontrolowanym środowisku z możliwością dostosowania ilości i intensywności doznań. Jednym z przykładów zastosowania jest terapia ekspozycyjna dla osób doświadczających stanów takich jak zespół stresu pourazowego lub fobie. Traumatyczne wydarzenia lub sytuacje wywołujące fobie można odtworzyć w bezpiecznym środowisku z pełną kontrolą czasu trwania i intensywności oraz pod stałą kontrolą terapeuty. Informacje ze śledzenia głowy i oczu oraz innych czujników pozwalają również na dodatkowe dane diagnostyczne. W medycynie scenariusze VR mogą być wykorzystywane do wspomagania leczenia lub procesów uzdrawiania. Podczas zmiany opatrunków na rany oparzeniowe można odwrócić uwagę pacjenta, prezentując zimowy pejzaż VR, w którym można rzucać śnieżkami w bałwany. Postrzegany czas trwania chemioterapii można skrócić dzięki doświadczeniom VR, które odwracają uwagę od bodźców wywołujących niepokój i pomagają w relaksacji. W rehabilitacji (np. po udarze), VR technologia może być wykorzystana do pomocy w ćwiczeniach. W nauce VR jest wykorzystywana głównie ze względu na możliwość renderowania i eksploracji struktur 3D (np. w wizualizacjach struktur subatomowych, sieci neuronowych, zbiorów danych geologicznych, zjawisk atmosferycznych czy modeli astronomicznych). Większość systemów VR w tym kontekście to systemy oparte na projekcjach 3D i systemach śledzenia kontrolerów i pozycji użytkownika, zwykle określane jako automatyczne środowisko wirtualne jaskini. Podobne konfiguracje są wykorzystywane nie tylko w inżynierii do planowania i budowy, ale także do trójwymiarowej wizualizacji zachowań dynamicznych (np. przepływu powietrza i cieczy, aerodynamiki, sił, symulacji mechanicznych). Na rynku konsumenckim VR ponownie zaczęła zyskiwać na atrakcyjności ze względu na spadek ceny, wzrost łatwości i komfortu oraz wszechstronność zastosowań. Duża część z nich to gry, ale programiści coraz częściej odkrywają alternatywne zastosowania systemów VR. Początkowo gry z perspektywy pierwszej osoby wydawały się oczywistym wyborem do przystosowania do VR, ale szybko okazało się, że różnice w interakcji, intensywności doświadczenia i konieczne zmiany w mechanice rozgrywki poważnie komplikują ten proces adaptacji. Aby VR stała się trwałym medium głównego nurtu, należy zbadać nowe "języki" opowiadania historii i różne podejścia do projektowania doświadczeń użytkownika. Jednym z przykładów pojawiających się gatunków VR są doświadczenia, które stawiają użytkownika w sytuacji innej osoby, aby wywołać poczucie empatii. Sztuka od zawsze opierała się na nowych technologiach, a w przypadku VR znacząco ukształtowała jej historię. Artystyczne aplikacje VR zawsze przesuwały granice tworzenia i prezentacji treści, a wraz z rosnącą różnorodnością kreatywnych aplikacji, takich jak narzędzia do malowania i animacji 3D, istnieje duży potencjał na przyszłość. Wreszcie branża reklamowa wykorzystuje VR do prezentowania produktów w nowy i atrakcyjny sposób (np. wirtualna jazda próbna, aby uzyskać wrażenie nowego samochodu lub wstępna wizualizacja wyglądu nowych mebli w salonie). Ponownie, możliwość dystrybucji aplikacji VR przez Internet pozwala na przeprowadzanie dość skomplikowanych prezentacji produktów z domu.



Powrót

Wirtualne drużyny



Zespoły wirtualne to grupy współzależnych współpracowników rozproszonych geograficznie i zależnych od technologii informatycznych w celu osiągnięcia wspólnych celów zespołowych. Ze względu na to, że są zrzeszeni z wyraźnym celem - opracowaniem produktu lub rozwiązaniem problemu - często są klasyfikowane jako zespoły projektowe. Podczas gdy wyzwania stojące przed zespołami wirtualnymi są dobrze udokumentowane, ich popularność w przemyśle sugeruje, że przynoszą one korzyści organizacjom. Na przykład w 2012 roku Project Management Institute poinformował, że liczba projektów prowadzonych przez zespoły wirtualne wynosiła 80%; od tego czasu liczba ta prawdopodobnie wzrosła. Ankiety branżowe ujawniają ponadto, że dwa główne powody, dla których organizacje przyjmują zespoły wirtualne, to (1) zwiększona produktywność oraz (2) większa wydajność i oszczędności. Ten wpis omawia doświadczenie zespołu wirtualnego przez pryzmat teorii paradoksu. W celach ilustracyjnych przedstawiono trzy czynniki, które jednocześnie stanowią wyzwania i szanse dla zespołów wirtualnych: (1) skład zespołu, (2) technologia i (3) rozproszenie geograficzne. Wirtualne zespoły, które rozpoznają siłę tych paradoksów i zamieniają wyzwania w możliwości, osiągają sukces.

Paradoksy wirtualnego teamingu

Skład drużyny


Ze względu na sposób, w jaki zbudowane są zespoły wirtualne, dysponują one dużym kapitałem wiedzy, ale brakuje im kapitału społecznego. Tu tkwi paradoks: aby przekształcić wiedzę w produktywną pracę zespołu, wirtualni członkowie zespołu muszą efektywnie dzielić się wiedzą; jednak w zespołach wirtualnych brakuje powiązań społecznych, które służą jako kanały dzielenia się wiedzą.

Kapitał Wiedzy. Firmy zatrudniają ekspertów z wielu lokalizacji, aby dołączali do wirtualnych zespołów przy projektach, których nie mogliby pomyślnie zrealizować wyłącznie lokalni talenty. Z badań wynika, że ze względu na dużą koncentrację ekspertów, zespoły wirtualne dysponują większym kapitałem wiedzy niż zespoły kolokowane. Wirtualne zespoły mają również większe zewnętrzne sieci wiedzy, ponieważ są połączone z dodatkowymi obszarami lokalnej wiedzy specjalistycznej za pośrednictwem każdego członka zespołu. Krótko mówiąc, zespoły wirtualne wiedzą więcej i mogą łatwiej uzyskać brakującą wiedzę niż ich tradycyjne odpowiedniki.
Kapitał społeczny. Wirtualni członkowie zespołu zwykle nie mają wcześniej istniejących powiązań społecznych ze swoimi kolegami z zespołu, ponieważ są pobierani z różnych jednostek organizacyjnych na potrzeby jednego projektu. Na przykład ankieta branżowa przeprowadzona w 2011 roku wśród ponad 30 000 wirtualnych pracowników wykazała, że 46% nigdy nie spotkało swoich wirtualnych kolegów z zespołu, a kolejne 30% spotkało ich tylko raz. Innym czynnikiem komplikującym jest to, że ponieważ zespoły wirtualne składają się z ekspertów, a profile osobowości ekspertów są zwykle silnie zorientowane na zadania, zespoły wirtualne mają skłonność do wykonywania zadań zamiast budowania relacji. Krótko mówiąc, zespołom wirtualnym brakuje kapitału społecznego, a członkowie zespołu są na ogół mniej zmotywowani do budowania kapitału społecznego niż zespoły kolokowane.
Rozwiązanie paradoksu składu zespołu. Aby rozwiązać paradoks składu zespołu, członkowie zespołu muszą najpierw zdać sobie sprawę, że wirtualne zespoły są budowane z myślą o kapitale wiedzy, a nie o kapitale społecznym. W związku z tym, aby przekształcić swój kapitał wiedzy w produktywną pracę zespołu, zespoły wirtualne muszą nadać priorytet budowaniu kapitału społecznego. Badania pokazują, że powiązania społeczne tworzą wspólny kontekst, który pozwala członkom zespołu interpretować informacje w podobny sposób. Prowadzi to do mniejszej liczby nieporozumień i pomaga w efektywnym dzieleniu się wiedzą. Ponadto w procesie budowania powiązań społecznych powstaje mentalna mapa wiedzy zespołu (znana jako zespołowa pamięć transaktywna), która wyszczególnia, kto w zespole posiada jaką wiedzę oraz kto jest powiązany z jakimi zewnętrznymi źródłami wiedzy. Ten wspólny katalog wewnętrznych i zewnętrznych zasobów wiedzy zespołu dodatkowo ułatwia efektywny transfer wiedzy. Z tych powodów wirtualne zespoły, które budują więzi społeczne, są w stanie zamienić wyzwanie paradoksu składu zespołu w szansę.

Technologia

Technologia umożliwia zespołom wirtualnym generowanie ogromnych ilości informacji związanych z projektami i uzyskiwanie do nich dostępu. Jednak bogaty kontekst informacyjny powoduje, że zespoły wirtualne doświadczają przeciążenia informacjami, paraliżując ich zdolność do korzystania z bogactwa informacji, które posiadają. To drugi paradoks, z którym borykają się wirtualne zespoły. Bogactwo informacji. Podczas gdy w przeszłości firmy często nie inwestowały w dostarczanie przełomowej technologii komunikacyjnej swoim zespołom wirtualnym, wydatki na technologię dla zespołów wirtualnych znacznie wzrosły. Zespoły wirtualne mają teraz do dyspozycji szeroką gamę narzędzi, w tym bazy danych do zarządzania wiedzą, narzędzia do udostępniania pulpitu, narzędzia do wizualizacji danych i tak dalej. Narzędzia te umożliwiają udostępnianie, przechowywanie i manipulowanie bogactwem informacji związanych z projektem. Dzięki temu zespoły wirtualne cieszą się bogatym środowiskiem informacyjnym. Przeciążenie informacyjne. Bogactwo informacji dostępnych członkom zespołu wirtualnego często powoduje przeciążenie informacyjne. Badania wykazały, że członkowie zespołów wirtualnych spędzają średnio 13 godzin tygodniowo na samym wyszukiwaniu odpowiednich informacji projektowych, w wyniku czego doświadczają zamieszania i postrzegania niejednoznaczności zadań. Powodem tej nieefektywnej wymiany informacji jest to, że wirtualne zespoły polegają prawie wyłącznie na "odchudzonych", a nie "bogatych" narzędziach komunikacyjnych. Tradycyjne narzędzia komunikacji (np. e-mail i repozytoria wiedzy) oraz nowoczesne, wyrafinowane narzędzia (np. aplikacje do wizualizacji danych) są kanałami "szczupłymi", ponieważ przekazują wyłącznie informacje techniczne, a nie niewerbalne i parawerbalne. Jednak sygnały niewerbalne i parawerbalne nadają znaczenie komunikacji technicznej, dostarczając członkom wirtualnego zespołu pomocnych wskazówek dotyczących tego, jakie informacje są naprawdę istotne, jakie informacje należy udostępniać w trybie priorytetowym, a które mniej pilne i tak dalej. Inną godną uwagi wadą "odchudzonych" kanałów jest to, że wymagają one wymiany znacznie większej ilości informacji na pomysł w porównaniu z "bogatymi" kanałami, co skutkuje długą, powolną i frustrującą wymianą komunikacji. Rozwiązanie paradoksu technologicznego. Aby rozwiązać paradoks technologiczny, zespoły wirtualne muszą najpierw zdać sobie sprawę, że technologia, na której polegają, tworzy nierówną wymianę informacji: informacje techniczne, związane z zadaniami, znacznie przewyższają informacje niewerbalne i parawerbalne. W związku z tym, aby w pełni wykorzystać bogactwo technologii informacyjnej związanej z projektami, zespoły wirtualne muszą skorygować tę nierównowagę, zwiększając ilość udostępnianych informacji społecznościowych. Informacje społeczne przekazują wiedzę ukrytą, która jest kluczem do prawidłowego zrozumienia i interpretacji formalnie udostępnionej, jawnej wiedzy. Z tego powodu wirtualne zespoły, które zwiększają wymianę informacji społecznych, są w stanie zamienić wyzwanie paradoksu technologicznego w szansę.

Dyspersja geograficzna

Rozproszenie geograficzne uwalnia zespoły wirtualne od ograniczeń przestrzeni i czasu, umożliwiając prawdziwie globalny cykl pracy 24 godziny na dobę, 7 dni w tygodniu. Jednocześnie przekraczanie granic i stref czasowych wprowadza wyzwania międzykulturowe, które ograniczają zdolność wirtualnych zespołów do korzystania z ich swobody przestrzennej i czasowej. To trzeci paradoks, z którym borykają się zespoły wirtualne.

Wolność przestrzenna i czasowa.

Zakładając, że członkowie zespołu są rozproszeni po całym świecie, zespoły wirtualne mogą "podążać za słońcem" i osiągnąć 24-godzinny cykl pracy, gdy członkowie zespołu przekazują projekt kolegom z zespołu, gdy ich strefa czasowa zostanie uruchomiona. Nawet zespoły skupione w jednym kraju lub kontynencie osiągają cykl pracy dłuższy niż 8 godzin. Ta zwiększona produktywność jest głównym powodem, dla którego firmy osiągają oszczędności dzięki zespołom wirtualnym; na przykład Cisco odnotowało 601 milionów dolarów oszczędności, a Johnson i Johnson zaoszczędzili 200 milionów dolarów, kiedy zaczęli korzystać z wirtualnych zespołów. Dodatkową korzyścią z wdrożenia cyklu "podążania za słońcem" jest to, że wirtualne zespoły są zmuszone do skupienia się na projektowaniu i przebiegu swojego projektu, ponieważ prawidłowe sekwencjonowanie działań związanych z projektem ma kluczowe znaczenie, gdy współzależni członkowie zespołu są rozproszeni geograficznie.

Wyzwania międzykulturowe.

Przekroczenie granic i stref czasowych często wiąże się z wyzwaniami logistycznymi i międzykulturowymi. Podczas gdy problemy logistyczne można stosunkowo łatwo rozwiązać, badania pokazują, że wielokulturowość jest głównym winowajcą nieefektywnej koordynacji działań związanych z projektami w zespołach wirtualnych. Po pierwsze, niektórzy członkowie zespołu mogą nie być biegli w języku roboczym wybranym przez zespół, co prowadzi do trudności w komunikacji. Po drugie, zróżnicowani kulturowo członkowie zespołu mają różne założenia dotyczące pracy i norm czasowych. Dlatego członkowie zespołu często przypisują zachowanie kulturowo zróżnicowanych członków zespołu przyczynom wewnętrznym (np. "moja koleżanka z zespołu z Indii nie odpowiedziała wystarczająco szybko na mojego e-maila, ponieważ jest leniwa i nieodpowiedzialna"), a nie normom kulturowym (np. "moja koleżanka z drużyny z Indii ceni rozwagę nad szybkością"). Biorąc pod uwagę, że atrybucje wewnętrzne są kluczowym czynnikiem wywołującym konflikty w relacjach, większa różnorodność kulturowa w zespołach wirtualnych często wywołuje konflikty, które zakłócają zdolność zespołu do koordynowania działań. Problem ten dodatkowo komplikuje fakt, że większość wirtualnych zespołów składa się z podgrup kolokowanych jednostek. Na przykład firma może umieścić kilku współpracowników z biura w Delhi i ich biuro w Los Angeles w tym samym zespole wirtualnym. W rezultacie postawa my kontra oni często rozwija się w tym samym zespole, dodatkowo zaostrzając negatywną dynamikę zespołu.

Rozwiązanie paradoksu rozproszenia geograficznego. Aby rozwiązać paradoks rozproszenia geograficznego, zespoły wirtualne muszą najpierw zdać sobie sprawę, że rozproszenie geograficzne uwalnia zespoły od tradycyjnych ograniczeń przestrzennych i czasowych, ale tworzy społeczne i kulturowe podziały w zespołach. Aby skutecznie koordynować efektywny i wydajny przepływ pracy, zespoły wirtualne muszą stworzyć wspólną rzeczywistość. Według badań, zespoły, które identyfikują procesy, które działają dla nich, a następnie celowo i wielokrotnie wykorzystują te procesy w wielu epizodach wydajności, ustalają pozytywny rytm zespołowy. To z kolei sprzyja powstawaniu wspólnej rzeczywistości. Kiedy pojawi się wspólny pogląd na normy dotyczące punktualności, terminowości, tempa pracy i innych oczekiwań co do wydajności, zespoły mogą skutecznie koordynować swoje działania projektowe. Z tego powodu wirtualne zespoły, które celowo tworzą wspólną, pozytywną rzeczywistość społeczną, są w stanie zamienić wyzwanie paradoksu rozproszenia geograficznego w szansę.

Od wyzwania do szansy

Redukcja niepewności i perspektywa społeczno-deterministyczna dostarczają teoretycznych wyjaśnień dotyczących tego, w jaki sposób wirtualne zespoły są w stanie wykorzystać wyzwania stawiane przez wirtualną pracę i przekształcić je w możliwości. Aby rozwiązać paradoksy składu zespołu, technologii i rozproszenia geograficznego, zespoły wirtualne budują powiązania społeczne, zwiększają wymianę informacji społecznościowych i tworzą wspólną rzeczywistość społeczną. Siła tych działań w osiąganiu pozytywnych wyników zespołowych została ustalona w wielu wcześniejszych badaniach nad tradycyjnymi zespołami. Jednak zgodnie z perspektywą redukcji niepewności tradycyjne czynniki efektywności stają się ważniejszymi predyktorami wyników w środowiskach charakteryzujących się niepewnością. Badania, które przetestowały hipotezę redukcji niepewności w zespołach wirtualnych, konsekwentnie potwierdzają pogląd, że tradycyjne czynniki sukcesu zespołu zyskują na znaczeniu na wyższych poziomach wirtualności. Na przykład badania wykazały, że między innymi przywództwo, wzmocnienie pozycji zespołu, zaufanie i znajomość interpersonalna są ważniejszymi predyktorami efektywności zespołu w zespołach wirtualnych. W praktyce oznacza to, że aby pomóc wirtualnym zespołom poradzić sobie z paradoksami, z którymi się borykają, organizacje muszą zapewnić, że wszystkie tradycyjne czynniki napędzające efektywność zespołu są na swoim miejscu. Zespoły wirtualne muszą jednak znaleźć różne sposoby uzyskiwania dostępu i wykorzystywania tradycyjnych czynników wpływających na efektywność zespołu. Na przykład członkowie zespołu wirtualnego nie mogą budować więzi społecznych poprzez bezpośrednie interakcje; w związku z tym niektóre wirtualne zespoły dostosowują się, planując nieformalne możliwości komunikacji, takie jak wirtualna godzina kawy, aby ułatwić proces budowania relacji. Ponadto narzędzia do wizualizacji danych nie mają na celu przekazywania informacji społecznościowych; jednak niektóre wirtualne zespoły wykorzystują takie narzędzia do celów społecznościowych, pisząc algorytmy, które zbierają i wizualizują dane osobowe członków zespołu z mediów społecznościowych. To, że członkowie zespołu wirtualnego mogą aktywnie kształtować swoją rzeczywistość społeczną i że mogą kreatywnie dostosowywać istniejącą technologię do swoich unikalnych potrzeb, jest zgodne z wyłaniającą się społeczno-deterministyczną perspektywą wirtualnego zespołu. Ta perspektywa utrzymuje, że zespoły wirtualne są wysoce adaptacyjne, a przezwyciężanie wyzwań związanych z wirtualnością nie jest kwestią "czy", ale kwestią "kiedy". W praktyce więc, aby w pełni wykorzystać potencjał wirtualnych zespołów, organizacje muszą dać im wystarczająco dużo czasu na przejście przez ten proces adaptacji. Menedżerowie, poproszeni o ocenę, który typ zespołu - tradycyjny czy wirtualny - ma większe szanse na lepsze wyniki (np. opracowywanie produktów, które odniosły sukces komercyjny, szybsze wprowadzanie produktów na rynek), częściej popierają zespoły bezpośrednie. Podobnie pracownicy zgłaszają silną preferencję pracy w tradycyjnych, kolokowanych zespołach. Jednak przegląd 57 studiów przypadku zespołów wirtualnych w przemyśle wykazał, że zdecydowana większość z nich pozytywnie wpływa na efektywność organizacyjną. Ciągłe wykorzystywanie wirtualnych zespołów przez organizacje biznesowe dodatkowo sugeruje, że stanowią one wartość dodaną. Być może zatem najważniejszym paradoksem, z którym wirtualne zespoły muszą się uporać, jest paradoks percepcyjny: postrzeganie szklanki "wirtualności" jako do połowy pełnej, a nie do połowy pustej, może być pierwszym krokiem potrzebnym wirtualnym zespołom do przekształcenia ich prawdziwych wyzwań w możliwości.



Powrót

Wirusy



Z mnóstwa artefaktów, które zapełniają Internet, być może żaden nie spowodował większej frustracji i niepewności niż wirusy komputerowe. Rozumie się, że jest to złośliwy kod przeznaczony do tego aby nakłaniać sprzęt komputerowy do działania w sposób niezamierzony przez ich twórców i użytkowników, konsekwencje takich działań wahały się od względnie łagodnej manipulacji tekstem na ekranie do manipulacji lub niszczenia informacji przechowywanych w samych urządzeniach. Co więcej, postrzegane konsekwencje kilku linijek kodu zrodziły branżę zajmującą się jego badaniem i powstrzymywaniem. Jednak pomimo wspólnych wysiłków mających na celu powstrzymanie tego zagrożenia, nadal pozostaje ono zakorzenione w strukturze cyberprzestrzeni. W odpowiedzi na jego uporczywość badanie wirusów komputerowych nadal wzbudza zainteresowanie zarówno informatyków, jak i specjalistów od bezpieczeństwa informacji. Doprowadziło to do powstania wielu zasobów, które zapewniają techniczne zrozumienie wirusów komputerowych. Jednak niewiele powiedziano na temat ich różnych reprezentacji i implikacji społecznych. Począwszy od odniesień do czynników biologicznych, od których wywodzi się jego nazwa, przedstawianie wirusów komputerowych ewoluowało od niechcianych patogenów do zagrożeń środowiskowych i wreszcie jako nieprzewidywalnych i niepoznawalnych czynników, które utrzymują się w cyberprzestrzeni. Niniejszy wpis skupia się na tych analogiach. W szczególności przedstawia różne ramy oparte na analogii, które zostały zastosowane do zrozumienia wirusów i ich możliwych konsekwencji. Ten wpis zaczyna się od krótkiego przeglądu tego, co charakteryzuje wirusa komputerowego. Dyskusja jest kontynuowana poprzez przedstawienie wykorzystania ram opartych na analogii w celu uproszczenia złożonych pojęć. Następnie przedstawiono dwie istotne analogie. Należy podkreślić, że niniejszy wpis nie ma na celu poszerzenia toczącego się dyskursu wokół tych różnych analogii, ale raczej ma na celu podniesienie większej świadomość ich istnienia.

Złośliwe oprogramowanie: przegląd

Nic dziwnego, że złośliwe zakłócenia operacji obliczeniowych i bazowej infrastruktury cybernetycznej są natychmiast przypisywane istnieniu wirusa. To jednak ignoruje fakt, że wirus jest tylko podzbiorem złośliwego oprogramowania lub złośliwego oprogramowania. Inne, takie jak robaki i konie trojańskie, są w podobny sposób zdolne do wyrządzania szkód, jeśli zostaną skierowane przeciwko niezabezpieczonym systemom. Chociaż nie ma oficjalnej definicji tego, czym jest wirus komputerowy, ten wpis traktuje go jako ukrytą, samoreplikującą się sekcję oprogramowania komputerowego, zwykle złośliwą logikę, która rozprzestrzenia się poprzez infekowanie innego programu. Te cechy są ogólnie wspólne dla złośliwego oprogramowania, ale różnią się od siebie odpowiednimi technikami rozprzestrzeniania. Robaki, w przeciwieństwie do wirusów, mogą rozmnażać się niezależnie. Te ostatnie wymagają pewnego stopnia interwencji człowieka w celu wykonania złośliwego kodu. Robaki rozprzestrzeniają się jednak niezależnie w sieciach za pośrednictwem istniejących luk w zabezpieczeniach. W związku z tym, w czasach wzmożonych wzajemnych połączeń, środowisko jest gotowe do tego wzrost tych zagrożeń. Co więcej, większość zgłaszanych przez media przypadków złośliwego oprogramowania ma więcej wspólnego z robakami niż z wirusami. Wreszcie, konie trojańskie są podobne do wirusów pod względem ich ograniczonych mechanizmów rozprzestrzeniania się, ale różnią się pod względem ich podstawowej funkcji. Podczas gdy wirusy są tworzone w celu powodowania zakłóceń, konie trojańskie oferują złośliwym podmiotom dostęp do systemów, które w przeciwnym razie byłyby ograniczone, tworząc, że tak powiem, tylne drzwi do bezpiecznego środowiska. W tym sensie jego funkcję najlepiej rozumieć w odniesieniu do jego imiennika. Chociaż istnieją inne formy złośliwego oprogramowania, te trzy są reprezentatywne dla samej kategorii. , ostatnie wydarzenia ujawniły nową klasę szkodliwego oprogramowania, które wzbudziło zainteresowanie nie tylko ekspertów technicznych, ale także polityków i mediów. Są one znane jako zaawansowane trwałe zagrożenia (APT). W przeciwieństwie do poprzednich form, APT wykazują cechy każdego z wcześniej odnotowanych typów. Są złośliwe, rozprzestrzeniają się niezależnie i umożliwiają nieautoryzowanym podmiotom dostęp do zabezpieczonych systemów. Pomimo debaty wśród specjalistów ds. bezpieczeństwa informacji, czy ataki APT są rzeczywiście nowością, panuje zgoda co do tego, że sygnalizują one zmianę intencji złośliwych użytkowników. W przeciwieństwie do wcześniejszych form złośliwego oprogramowania, które zostały opracowane w celu udowodnienia umiejętności technicznych lub pomocy w wykonaniu przestępstwa, APT wydają się być kierowane pewnymi interesami politycznymi. Jak widać na przykładzie Stuxneta z 2010 r., charakteryzują się one zaawansowanymi możliwościami, dobrze zdefiniowanym celem i dużą wytrwałością. APT są wyjątkowe pod względem wykorzystania luk dnia zerowego. Warto zauważyć, że luki dnia zerowego to słabości systemu, które nie zostały jeszcze zidentyfikowane przez producenta lub szerszą społeczność zajmującą się bezpieczeństwem. Korzystanie z nich oznacza nie tylko znaczne umiejętności technologiczne w zakresie identyfikacji, opracowywania i testowania, ale także sugeruje znaczną bazę zasobów do zbudowania niezbędnego środowiska rozwojowego. Co więcej, w przeciwieństwie do innych złośliwych programów, ataki APT wpływają na mniejszą liczbę systemów. Zarówno wirusy, jak i robaki są zwykle bezkrytyczne wyrządzając szkody, atakując systemy oparte wyłącznie na swojej wrażliwości. W przeciwieństwie do tego, zaobserwowano, że APT stosują wąskie kryteria selekcji. Wreszcie, APT zostały opracowane tak, aby pozostawały w systemach docelowych przez znacznie dłuższe okresy czasu. Ich zaawansowane możliwości pozwalają im przebywać przez miesiące, jeśli nie lata, zanim zostaną wykryte - jeśli w ogóle zostaną wykryte. W związku z tym ataki APT sugerują, że cele związane z ich używaniem znacznie różnią się od poprzednich form złośliwego oprogramowania. Można zatem argumentować, że rozwój złośliwego oprogramowania od wirusów do robaków i wreszcie APT stanowi ewolucję w sensie technologicznym. Jednak chociaż możliwości uległy zmianie, główny cel złośliwego oprogramowania nie zmienił się: kompromis w zakresie bezpieczeństwa, który umożliwia osiągnięcie celów. Wyraźnie zmieniło się jednak postrzeganie tych zagrożeń. W szczególności analogie przyjęte w celu wyjaśnienia i rozwiązania tych zagrożeń ewoluowały wraz ze wzrostem ich złożoności wraz ze wzrostem ich potencjalnego uszkodzenia.

Analogie i ramy

Ramowanie za pomocą analogii ma kluczowe znaczenie dla przedstawiania i rozumienia złożonych problemów. W kontekście cyberprzestrzeni, w której działają wirusy, jest to istotne, ponieważ jej złożoność stworzyła techniczną przepaść między decydentami, ekspertami technicznymi i ogółem społeczeństwa, z których wszyscy są do pewnego stopnia zaangażowani w tę domenę wirtualną. Mówiąc najprościej, analogie opierają się na podobieństwach, aby zapewnić środki do przedstawiania i omawiania nieznanego w znajomy sposób. W kontekście dyskursu politycznego umożliwia to aktorom odniesienie się do nowych wydarzeń za pomocą doświadczenia, z którym mają one pewne podobieństwa. Przykładem tego jest odraza do użycia broni chemicznej lub biologicznej, która czerpie swoją siłę wyjaśniającą z naszej ludzkiej niechęci do używania trucizn jako narzędzi bojowych. Fundamentalne w kwestii analogii i ram są aktorzy, którzy służą określeniu, czym ma być rama. Chociaż każdy może służyć temu celowi, jest to tradycyjnie kojarzone z osobami na wpływowych stanowiskach (np. politycy, eksperci, media). Rola i możliwości aktora zajmującego się ramą są kluczowe, ponieważ wpływają one na przedstawienie przez nich samej kwestii i ostateczny rozwój ramy. David Snow i Robert Benford zauważają, że ramy mogą mieć charakter diagnostyczny lub prognostyczny. Ramy diagnostyczne próbują zidentyfikować przyczynę problemu, podczas gdy ramki prognostyczne służą do zaproponowania rozwiązania. W procesie oceny analogii, które służą do rozwiązania problemu wirusów, te przedstawione można określić jako diagnostyczne lub prognostyczne. Oprócz intencji kadru, aktorzy kadrowania służą również do identyfikacji przedmiotu odniesienia na co wpływa problem i czy kadrowanie staje się wyraziste. Jeśli chodzi o szerszą kwestię zabezpieczania cyberprzestrzeni, rola aktora ramowego i definiowanych przez niego obiektów referencyjnych doprowadziła do powstania wielu reprezentacji zagrożeń (tj. analogii), które wykorzystano do rozwiązania tego problemu. Mnogość reprezentacji zagrożeń i różnice w obiektach referencyjnych ostatecznie wpływają na ogólny zakres. Oprócz swoich celów i obiektów referencyjnych, ramy mogą mieć rozwiniętą lub ograniczoną charakterystykę. Pierwsza z nich ma charakter inkluzywny i może poszerzyć zakres zagadnienia. Ten ostatni natomiast ma charakter restrykcyjny i zawęża zakres rozpatrywanej problematyki. Jak zostanie to zilustrowane później analogia biologiczna jest uważana za restrykcyjną, ponieważ koncentruje się na implikacjach technologicznych, jakie może mieć wirus. Odwrotnie, analogia do katastrofy nadaje wirusom potencjał wpływu na całe społeczeństwo. Ponadto charakterystyka ramy określa nie tylko zakres problemu, ale także możliwe rozwiązania. Poprzednia dyskusja faworyzuje stosowanie analogii w celu lepszego zrozumienia i przedstawienia złożonych zagadnień za pomocą kadrowania. Nie są one jednak pozbawione własnych ograniczeń. Najbardziej widoczna wśród nich jest potrzeba uświadomienia sobie, że analogizowanie między problemami i tematami jest tylko o tyle przydatne, o ile są one podobne. Na przykład wyzwanie polegające na odstraszaniu złośliwych podmiotów w cyberprzestrzeni zostało rozwiązane w niektórych kręgach poprzez porównanie z wysiłkami na rzecz odstraszania nuklearnego podczas zimnej wojny. Podczas gdy cel może być rzeczywiście podobny, zapobieganie niepożądanym działaniom - podstawowe cechy między zastosowaniem broni jądrowej i cyberbroni znacznie się różnią. Co więcej, stosowanie ram opartych na analogii zamyka rozumowanie w granicach doświadczenia i grozi odrzuceniem obecnych i przyszłych realiów. Opracowanie norm ograniczających użycie niektórych rodzajów broni w domenie fizycznej nie jest pomocnym przewodnikiem w próbie wymuszenia określonych zachowań w cyberprzestrzeni. W szczególności warunki, które doprowadziły do ustanowienia norm regulujących prowadzenie wojny w domenie fizycznej, nie odpowiadają w równym stopniu warunkom w cyberprzestrzeni. W konsekwencji nadzieja, że normy w cyberprzestrzeni powstaną w ten sam sposób, może być chybiona. Na koniec należy przyznać, że analogie mogą służyć jedynie do podkreślenia pojedynczego aspektu zagadnienia, próbując pomóc w zrozumieniu. Poprzednia dyskusja podnosi wartość analogi w odniesieniu do naszego rozumienia złożonych kwestii, które weszły do dyskursu społecznego i politycznego. Chociaż korzyści płynące z ram opartych na analogii w zrozumieniu tych zagadnień są oczywiste, nie należy lekceważyć ich ograniczeń. W związku z tym pozostałe sekcje dotyczą różnych analogii stosowanych w leczeniu wirusów. Należy jednak uświadomić czytelnikowi, że kolejne wywody odnoszą się nie tylko do kwestii wirusów, ale są również wykorzystywane w ogólnych dyskursach dotyczących bezpieczeństwa cyberprzestrzeni.

Analogia biologiczna

Spośród dostępnych analogii używanych do wrabiania wirusów, odniesienia do ich biologicznego odpowiednika są prawdopodobnie najbardziej odpowiednie. Podczas gdy pojęcie wirusa komputerowego wyłoniło się z eksperymentów Freda Cohena z udziałem samoreplikujących się programów w latach 80., jego uwagi dotyczące potencjalnego zagrożenia przemawiają za przydatnością tej analogii: Jako analogię rozważmy chorobę biologiczną, która jest w 100% zakaźna, rozprzestrzenia się za każdym razem, gdy zwierzęta się komunikują, zabija wszystkie zarażone zwierzęta natychmiast w danym momencie momencie i nie ma wykrywalnych skutków ubocznych aż do tego momentu. Odzwierciedla to podstawowy strach ludzkości przed chorobami zakaźnymi i jego rolę w całej historii. Ale poza tym zbiorowym poczuciem strachu wirusy biologiczne i komputerowe mają wspólne cechy, które wzmacniają tę analogię. Oba polegają na jakiejś formie kodu, który określa ich strukturę i działania. W domenie biologicznej materiał genetyczny określa formę i funkcję wirusów. Podobnie wirusy komputerowe działają poprzez instrukcje reprezentowane przez kody źródłowe opracowane przez autora. Oba zależą od podatności na infekcje i replikację. Wirusy biologiczne wymagają żywicieli o pewnych cechach (np. osłabionym układzie odpornościowym), które zwiększają ich podatność na infekcje. Podobnie, zagrożone infekcją są urządzenia, które nie zostały zaktualizowane lub zmodyfikowane w celu naprawienia wcześniej istniejącej usterki. Wreszcie, oba nakazują działania, które wykrywają, badają i łagodzą te zagrożenia. Niezależnie od tego, czy są to instytucje rządowe, takie jak Centra Kontroli i Zapobiegania Chorobom, czy firmy antywirusowe (np. Kaspersky), zarówno wirusy biologiczne, jak i komputerowe mogą być powstrzymywane z różnym poziomem skuteczności. Wraz ze wzrostem komputerów osobistych w latach 80. i na początku XXI wieku, analogia służy jako skuteczny sposób odniesienia tych pomysłów do osób niebędących ekspertami. W ten sposób wypełnia lukę między osobami posiadającymi kluczową wiedzę techniczną a większą populacją laików. Ten początkowy związek między wirusami komputerowymi a ich biologicznymi odpowiednikami ewoluował jednak, aby dostosować się również do analogii publicznego systemu opieki zdrowotnej. Opierając się na wspólnych cechach, rozwój ten dowodzi, że rozwiązania stosowane w chorobach zakaźnych mogą odnosić się do ich cyfrowych odpowiedników. W konsekwencji to oparte na analogii kadrowanie jest bardziej prognostyczne w porównaniu z jego wcześniejszą formą i dowodzi, że powstrzymanie zagrożenia osiąga się za pomocą pięciu strategii: (1) odkażanie środowiska, (2) kontrolowanie infekcji społeczności, (3) edukacja aktorów, (4) organizowanie usługi wykrywania i zapobiegania oraz (5) tworzenie społecznej machiny zdrowia cyberprzestrzeni. Oczyszczanie środowiska wymaga, aby podmioty w cyberprzestrzeni (np. osoby fizyczne, społeczności, dostawcy) stosowały standardowe kroki w celu zabezpieczenia środowiska, takie jak regularne aktualizowanie systemów i zapewnianie bezpieczeństwa produktów. Kontrolowanie infekcji społecznościowych, w odniesieniu do pierwszego punktu, sugeruje, że powinny istnieć odpowiednie mechanizmy wykrywania, izolowania i leczenia epidemii wirusów To jednak może być kosztowne i można tego uniknąć poprzez odpowiednią edukację aktorów, aby unikali "niebezpiecznych" zachowań w sieci, które mogą prowadzić do infekcji. Jednak pomimo wysiłków zmierzających do odkażenia i kontroli środowiska, mogą wystąpić ogniska i wymaga zorganizowanego systemu wykrywania i zapobiegania. Wreszcie, strategie te muszą być osadzone i stanowić drugą naturę aktorów zaangażowanych. Wymaga to wprowadzenia mechanizmu umożliwiającego wykonywanie i utrwalanie tych praktyk. Chociaż analogia, która zrównuje wirusy komputerowe z ich cyfrowymi odpowiednikami, jest łatwa do zrozumienia, nie jest ona pozbawiona ograniczeń. Biologiczna analogia sugeruje, że istnieje jakaś forma ekosystemu cybernetycznego, który jest zagrożony obecnością wirusów. Zgodnie z argumentacją, należy je stłumić, aby zapewnić "zdrowie" środowiska. Założenie to jest problematyczne dla trzech asonów. Po pierwsze, oznacza to, że zaangażowane podmioty podzielają wspólne postrzeganie środowiska cybernetycznego. Ostatecznie sukcesy ww. strategie opierają się na tym założeniu. Tak jednak może nie być. Rosnąca liczba autorów zidentyfikowała różnice w postrzeganiu. Na przykład Forrest Hare zauważa, że różnice w spójności społeczno-politycznej i potędze militarnej skutkują czterema różnymi sposobami traktowania tego środowiska. Podobnie różnice definicyjne w odniesieniu do cyberprzestrzeni sugerują odmienne priorytety. Podczas gdy Stany Zjednoczone i inni członkowie Organizacji Traktatu Północnoatlantyckiego zdają się cenić dostępność środowiska do wspierania interesów gospodarczych i wojskowych, inni, jak Chiny i Rosja, troszczą się o jego potencjał ideologiczny. Stanowią one zagrożenie dla proponowanych strategii, ponieważ zależą one od jednolitej wyceny środowiska. Po drugie, wcześniej postawiona teza wymaga stłumienia pewnych składników środowiska (tj. Wirusów) w celu utrzymania ogólnego stanu zdrowia. Jednak wykluczenie określonego składnika niekoniecznie prowadzi do zdrowszego wyniku ich analogicznego odpowiednika. Na przykład zniknięcie drapieżników wierzchołkowych, choć korzystne dla ofiar, z czasem może być szkodliwe dla środowiska. W odniesieniu do środowiska cybernetycznego pogląd ten ignoruje podwójną naturę złośliwego oprogramowania. Chociaż wyrządzają one szkody środowisku komputerowemu, ich wewnętrzne działanie pomaga specjalistom ds. Bezpieczeństwa informacji w opracowywaniu lepszych środków obronnych. W podobny sposób, w jaki atenuowane wirusy biologiczne są wykorzystywane do opracowywania szczepionek, badanie i stosowanie pewnych technik wykorzystywanych przez złośliwe oprogramowanie poprawia zdolności obronne. Wreszcie użyteczność tej analogii zakłada zgodność między tymi dwoma pojęciami. Chociaż wirusy biologiczne i system zdrowia publicznego są pedagogicznie przystosowane do wyjaśnienia złożonej natury wirusów komputerowych i możliwych środków zaradczych, nie oznacza to, że rozwiązania dla tych pierwszych można z powodzeniem zastosować do późniejszych. Pomimo wysiłków podejmowanych w ostatnich dziesięcioleciach, ilość złośliwego oprogramowania wciąż rośnie. Tylko w latach 2012-2016 łączna liczba szkodliwych programów wzrosła sześciokrotnie. Znaczenie biologicznej analogii w dostarczaniu łatwego do zrozumienia wyjaśnienia wirusów i strategii łagodzenia przedstawionych w tej sekcji jest nieocenione. Chociaż z powodzeniem wykorzystuje nasz podstawowy strach przed chorobami zakaźnymi, aby zapewnić kontekstowe zrozumienie jego funkcji, te dwa mogą nie być całkowicie porównywalne. Brak jednolitej oceny cyberprzestrzeni, wypaczone rozumienie funkcji wirusów i ogólny brak ograniczenia rozwoju złośliwego oprogramowania wskazują na słabości tego podejścia do analogicznego kadrowania.

Analogia scenariuszy katastrof

W przeciwieństwie do poprzednich ram opartych na analogii, łączących wirusy z ich biologicznymi odpowiednikami, relacje oparte na potencjale katastrofy wynikającej z zależności technologicznej nie są oparte na równoważnym fizycznym odpowiedniku. Są one raczej związane z podobnymi scenariuszami, takimi jak katastrofy przemysłowe. Zostały one wykorzystane do zilustrowania konsekwencji zakłócenia krytycznego i współzależnego systemu. Argument opiera się na założeniu, że błędy w projekcie sprawiają, że system jest podatny na ataki lub niezdolny do radzenia sobie z pojawieniem się nieoczekiwanych zdarzeń. W odniesieniu do współczesnego społeczeństwa, w miarę jak technologia staje się coraz bardziej zakorzeniona w codziennych czynnościach, przestaje być tylko narzędziem. Zamiast tego jego elementy materialne przeplatają się z komponentami ludzkimi, co w konsekwencji nadaje mu znaczącą wartość społeczną. Spośród ramek wykorzystywanych do przedstawiania podatności społeczeństwa na wirusy i ogólnie złośliwe działania ta stała się formą dominującą. Argument ten ilustrują dwa kluczowe wydarzenia z najnowszej historii. Począwszy od rozproszonych ataków typu "odmowa usługi" w Estonii w 2007 r., które po raz pierwszy zasygnalizowały podatność społeczeństwa na szeroko zakrojone ataki cybernetyczne, pojawiły się inne analogie odzwierciedlające tę logikę, odzwierciedlające te obawy. Zaczęły nabierać kształtu wyobrażenia o "Cyber Pearl Harbor" zdolnym do wyłączenia infrastruktury krytycznej i narażenia całego państwa na atak. Argument ten został wzmocniony przez pojawienie się Stuxneta w 2010 roku. Uznawany za pierwszy "uzbrojony" szkodliwy program, Stuxnet wydaje się być tworzony w celu zakłócenia irańskiego programu nuklearnego. Unikalny w tym przypadku był kontekst i zestaw funkcji, które sygnalizowały zmianę w domenie. Jak zauważyła Myriam Dunn-Cavelty w badaniu z 2013 r., "Stuksyfikacja" problemu doprowadziła do pojawienia się dwóch wzmacniających się trendów. Po pierwsze, podczas gdy wirusy i złośliwe oprogramowanie są nadal wykorzystywane w znanych (tj. przestępczych) przedsiębiorstwach, pojawienie się Stuxneta wprowadza pewien stopień profesjonalizacji. Jego złożoność pod względem projektu i wykonania sugeruje zasoby poza zasięgiem ogólnie organizacji przestępczych. Po drugie, pojawili się pewni aktorzy państwowi, którzy wykorzystują tę domenę w celach strategicznych. Jeśli chodzi o zasoby wymagane do rozwoju takich operacji, wydaje się, że podmioty takie jak Rosja i Chiny wykorzystują zależność swoich rywali od cyberprzestrzeni do realizacji swoich strategicznych interesów. Sugerują one, że w odpowiednich warunkach powyższe obawy mogą się urzeczywistnić. Jednakże, chociaż obecność słabych punktów jest rzeczywiście kluczowa dla utrzymania tej analogii, stanowi ona jedynie część sekwencji zdarzeń, które mogą doprowadzić do przewidywanej katastrofy. Cyberprzestrzeń jest z natury złożoną domeną, która działa na kilku poziomach i obejmuje wiele podmiotów. Złożoność i nowatorstwo tych technologii wprowadza do systemu pewien stopień niepoznawalności i nieprzewidywalności, który może doprowadzić do katastrofy. Sytuacje te powstają w wyniku celowej lub przypadkowej aktywacji luk w systemie. Chociaż można podjąć wysiłki w celu ich złagodzenia, cyberprzestrzeń nie zapewnia absolutnego bezpieczeństwa, biorąc pod uwagę jej złożony charakter i ludzką omylność. W związku z tym istnieje pewne poczucie nieuchronności scenariuszy katastrof. Oznacza to, że te zagrożenia są nieodłącznie związane z systemem i leżą tuż pod powierzchnią, czekając na wykorzystanie przez osoby lub artefakty, takie jak wirusy i złośliwe oprogramowanie. W porównaniu z poprzednią analogią nabiera to charakteru diagnostycznego, ponieważ identyfikuje możliwe przyczyny, ale nie sugeruje odpowiedniego rozwiązania. Chociaż poprzednie argumenty są logiczne, dowody empiryczne zapewniają ograniczone wsparcie. Pomimo potencjalnych szkód ze strony zaawansowanego złośliwego oprogramowania, pomimo rosnących możliwości, nic poważnego się nie wydarzyło. Od czasu pojawienia się Stuxneta znacznie bardziej zaawansowane zagrożenia miały wpływ na krytyczne systemy. Jednak żadnemu z nich nie udało się zainicjować przewidywanego scenariusza katastrofy. Co więcej, autorzy spekulują, że faktyczny wpływ narzędzi takich jak wirusy są nieistotne i posuwają się nawet do argumentu, że cele po prostu zdecydowałyby się odłączyć od domeny, gdyby zagrożenie było zbyt duże. To, co ciekawe, wskazuje na drugie ograniczenie. Podobnie jak w przypadku analogii inspirowanych biologią, założenie, że aktorzy jednakowo cenią tę domenę, jest bezpodstawne. Chociaż cyberprzestrzeń szybko stała się integralną częścią ery nowożytnej, nie oznacza to równego wykorzystania, a co za tym idzie równej zależności. W konsekwencji osłabia to argument, że samo korzystanie z domeny czyni społeczeństwo wrażliwym. Podobnie jak w przypadku poprzedniego kadrowania opartego na analogii, katastrofa wynikająca z zależności technologicznej próbuje uprościć złożoną kwestię, przedstawiając obraz, który jest łatwy do zrozumienia. Jednak dowody empiryczne podważają kluczowe założenia przyjęte w tym argumencie. W konsekwencji, podobnie jak w przypadku poprzedniej analogii, potencjał wyjaśniający sformułowania problemu jako zbliżającej się katastrofy uwzględnia jedynie podzbiór problemu.

Przyszłe kierunki badań

Jak podkreślano w całym tym wpisie, wirusy komputerowe i złośliwe oprogramowanie ogólnie pozostają jednymi z najbardziej rozpoznawalnych aspektów Internetu i cyberprzestrzeni. Jednak dogłębna wiedza na temat ich prawdziwej natury i implikacji jest ograniczona do garstki osób posiadających specjalistyczną wiedzę techniczną. Wraz z rozwojem technologii komputerowych zastosowano kadrowanie oparte na analogii, aby wyjaśnić, w jaki sposób te artefakty przyczyniają się do problemu bezpieczeństwa. Spośród tych analogii te zależności stały się dwiema najbardziej dominującymi. Te pierwsze wykorzystują historyczną niechęć do chorób i kroki podjęte w celu stworzenia zdrowszego środowiska jako plan rozwiązania ich cyfrowego odpowiednika. Z drugiej strony, ta ostatnia podsyca obawy przed rosnącą zależnością społeczeństwa od technologii w celu zwiększenia wyrazistości zagrożeń, przed którymi stoi. Ponadto podkreśla możliwość katastrofy wynikającej z takiej zależności. Chociaż stosowanie analogii pomogło zwiększyć zarówno świadomość, jak i zrozumienie tych kwestii, ich moc wyjaśniająca pozostaje ograniczona. Ta pierwsza cierpi z powodu założenia, że zabiegi stosowane w świecie przyrody można łatwo zastosować w świecie wirtualnym. Ten ostatni natomiast kładzie nadmierny nacisk na zależność od technologii i zakłada jej jednolitość w różnych społeczeństwach. Chociaż te ograniczenia kwestionują wartość ramowania opartego na analogii jako środka do lepszego zrozumienia i wyeksponowania problemów, są one najlepszym dostępnym rozwiązaniem w komunikacji z populacjami nieobeznanymi z niuansami konkretnej technologii.



Powrót

Web 2.0



W 2001 r. pęknięcie bańki internetowej skłoniło niektórych analityków do twierdzenia, że sieć World Wide Web jest przereklamowana. Kilka lat później, podczas burzy mózgów w celu zorganizowania konferencji jesienią 2004 roku, wydawca technologii Tim O′Reilly i pionier sieci Dale Dougherty zauważyli, że organizacje i firmy, które przetrwały krach, są ważniejsze niż kiedykolwiek i że mają podobne modele biznesowe, wzorce projektowe i programistyczne. Termin Web 2.0 został przyjęty, aby opisać wyłaniającą się fizjonomię sieci i nazwać nadchodzącą konferencję. Termin Web 2.0 był krytykowany jako modne hasło marketingowe i promujący ideę rewolucji technologicznej, która się nie wydarzyła. Jednak analiza użycia tego terminu przeprowadzona przez O′Reilly′ego i Dougherty′ego opierała się na rynku i gospodarce, co oznacza raczej "dobór naturalny" wśród istniejących modeli niż rewolucję tabula rasa. Aby wyjaśnić swoje przemyślenia, w 2005 roku O′Reilly opublikował przełomowy artykuł "Czym jest Web 2.0?" W tym wpisie omówiono cechy charakterystyczne Web 2.0, tak jak je opisał O′Reilly, i omówiono, jak wiele z tych cech zmieniło sposób tworzenia treści internetowych i oprogramowania. Następnie omówiono, czy Sieć Semantyczna, czasami nazywana "Web 3.0", może być uważana za następcę Web 2.0.

Od transmisji do uczestnictwa

Treści generowane przez użytkowników


Wspólną cechę można znaleźć w większości serwisów internetowych, które powstały lub zostały wzmocnione po upadku dot-comów: Facebook, Twitter, YouTube, Amazon, eBay, Wikipedia, Internet Movie Database (IMDb), a nawet internetowe platformy randkowe i blogowe hostować wartościowe treści tworzone przez użytkowników. Nawet wyszukiwarka Google, klasyfikując witryny według topologii hiperłączy, zbiera i przetwarza linki tworzone przez internautów. W ten sposób wszystkie te najlepsze strony internetowe różnią się od poprzednich, które były zwykłymi tłumaczeniami komunikacji korporacyjnej i nadawania w środkach masowego przekazu. Zamiast tworzyć treści, właściciele koncentrują się na zapewnieniu "architektury uczestnictwa", aby patroni mogli tworzyć treści, a tym samym wartość dla nich.

Ekonomia długiego ogona

Konsekwencją uczestnictwa jest poszerzenie zakresu opisywanych obiektów i zainteresowanych mecenasów. Mówi się, że przy takim zwrocie firmy są w stanie przejść od gospodarki masowej produkcji (skupiającej się na 20% produktów zaspokajających 80% klientów) do gospodarki długiego ogona (w odniesieniu do kształtu prawa energetycznego dystrybucja), oferując również pozostałe 80% produktów, które można określić mianem produktów niszowych. Chociaż łatwo sobie wyobrazić, jak teoria ta odnosi się do handlu elektronicznego, a nawet do kultury, O′Reilly wykazał, że odnosi się ona również do reklamy internetowej. Pod koniec lat 90. firma DoubleClick, wyświetlając ukierunkowane reklamy w głównych witrynach internetowych, znalazła się w pierwszej dziesiątce witryn internetowych na świecie. Jednak, choć innowacyjny technologicznie, DoubleClick był ograniczony przez swój model biznesowy: z dumą cytował "ponad 2000 udanych wdrożeń" w czasie, gdy Google AdSense obsługiwał setki tysięcy reklamodawców na praktycznie każdej stronie internetowej. Przeszkoda spowodowana modelem biznesowym Double-Click była zawarta w procesie użytkowania i architekturze technologicznej: najpierw trzeba było podpisać formalne umowy zarówno z reklamodawcami, jak i wydawcami, podczas gdy Google AdSense miał uproszczony proces kierowania reklam do niszowych reklamodawców i wydawców.

Nowość Web 2.0 i ciągłość z wczesną siecią

Dzięki ukierunkowaniu na partycypację, witryny Web 2.0 można łatwo zidentyfikować, ponieważ prawie każda strona na nich może być częściowo modyfikowana przez użytkowników (zwykle za pomocą przycisku "Edytuj", "Komentarz" lub "Lubię to"), co skutkuje czymś, co niektórzy nazywają sieć "odczyt-zapis". Jest to jednak mylący sposób definiowania Web 2.0, ponieważ sieć od samego początku była projektowana z myślą o możliwości aktualizacji: HTTP, jego protokół, zawiera oczywiste metody zwane "POST", "PUT" i "DELETE", , a wcześniejsze wersje zawierały również wyspecjalizowane metody zarządzania linkami i wersjami. Metody te (z wyjątkiem POST) prawie nigdy nie zostały zaimplementowane (do czasu spopularyzowania REST). Powodem tego może być to, że bez jasnej wizji, kto może co aktualizować, pierwszym właścicielom witryn łatwiej było polegać na jednym webmasterze, który miał bezpośrednie lub Transfer Protocol dostęp do stron przechowywanych jako pliki systemowe. Wraz z przyjęciem systemów zarządzania treścią webmasterzy stopniowo znikali. Strony mogą być modyfikowane przez zarejestrowanych użytkowników poprzez a formularz internetowy. Strony te, choć zdolne do odczytu i zapisu, nadal nie były partycypacyjne. Rzeczywiście istnieje różnica między współpracą a uczestnictwem. Platformą współpracy jest system zarządzania treścią, w którym każda rejestracja konta musi zostać zatwierdzona przez menedżera, w którym użytkownicy otrzymują "rolę", a role mają różne prawa dostępu do zasobów. Z kolei platforma partycypacyjna charakteryzuje się zazwyczaj samodzielną rejestracją (z prostym sprawdzeniem, czy użytkownik jest właścicielem danego adresu e-mail), płaską hierarchią ról (przynajmniej w momencie rejestracji, dodatkowe "uprawnienia" zdobywane przez wkład w społeczność) i często prawa zależne od kontekstu (np. prawo do edytowania lub usuwania własnych treści). Funkcje uczestnictwa w witrynach Web 2.0 umożliwiają każdemu użytkownikowi w Internecie edytowanie dowolnej strony (lub przynajmniej komentowanie jej, ocenianie lub tworzenie własnej strony i linkowanie do niej). W ten sposób Web 2.0 może być jedną z najlepszych realizacji na dużą skalę tego, czym miała być sieć: "hipertekstem", zgodnie z definicją Theodora Holma Nelsona, wynalazcy tej koncepcji, w 1965 roku.

Zaufanie i motywacja

Treści generowane przez użytkowników wraz z modelem niemal płaskich ról mogą budzić obawy co do jakości i legalności. Dwa kontrastujące przykłady to artykuły z Wikipedii i wiadomości w sieciach społecznościowych (np. Facebook i Twitter). W pierwszych latach Wikipedię traktowano z podejrzliwością: jak wiki, którą może edytować każdy na ziemi, może być taka, jaka jest, dokładne jak "prawdziwe" encyklopedie pisane przez ekspertów? Wysoce dyskusyjne badanie opublikowane w Nature w 2005 roku wykazało, że liczba nieścisłości w Wikipedii i tradycyjnych encyklopediach była tego samego rzędu wielkości. Co więcej, na Wikipedii te nieścisłości zostały naprawione wkrótce po publikacji. Rzeczywiście, nawet krytycy z zewnątrz są w pewnym sensie częścią procesu partycypacyjnego. Można powiedzieć, że mantra "Przy wystarczającej liczbie gałek ocznych wszystkie błędy są płytkie", wymyślona po raz pierwszy na potrzeby tworzenia oprogramowania open source, pasuje również do tworzenia treści, czy to poprzez komentowanie, edytowanie, głosowanie czy zgłaszanie nadużyć. Mantra open source wyjaśnia jednak również, dlaczego uczestnictwo nie zawsze jest gwarancją zaufania: treść musi zostać skonfrontowana z wystarczającą liczbą konkurencyjnych punktów widzenia. Ogromne ilości fałszywych wiadomości rozpowszechnianych w sieciach społecznościowych podczas wyborów prezydenckich w USA w 2016 r. ujawniły, że pozytywne koło uczestnictwa może zamienić się w błędne koło, gdy społeczność jest tak jednorodna, jak tylko może być grupa działaczy politycznych. Inna paralela z oprogramowaniem open source wiąże się z zachętami do partycypacji: podczas gdy altruistyczny cel wytwarzania wspólnych dóbr jest często nagłaśniany, połączenie "samolubnych" interesów w zbiorowy produkt uboczny jest również bardzo dobrze zbadanym zjawiskiem.

Własność intelektualna

W przypadku treści tworzonych przez użytkowników pojawia się również kwestia praw własności intelektualnej użytkowników. Domyślna informacja o prawach autorskich "wszelkie prawa zastrzeżone" jest trudna do przestrzegania na platformach odtwarzających i mieszających treści od tysięcy, milionów lub miliardów "twórców". Pierwszą drogę otworzyła organizacja Creative Commons. Przeniosła otwarte licencje z kodu źródłowego na treść, wspierając zarówno uznanie autorstwa twórców, jak i swobodną reprodukcję i remiksowanie. Prawdopodobnie nie jest przypadkiem, że Creative Commons narodziło się na początku lat 2000, podobnie jak Web 2.0, i że Wikipedia korzysta z jej licencji. Odwrotny sposób ilustrują partycypacyjne strony internetowe, takie jak IMDb, eBay i CiteSeer, które powstały w latach 90., przed Web 2.0. Z nieco innymi sformułowaniami, ich warunki świadczenia usług przyznają prawa własności intelektualnej do treści wydawcom tych stron. Na przykład warunki korzystania z IMDb stanowią, że użytkownicy, którzy publikują treści, udzielają IMDb "niewyłącznego, nieodpłatnego, wieczystego, nieodwołalnego i w pełni podlegającego podlicencjonowaniu prawa do używania, powielania, modyfikowania, adaptacji, publikowania, tłumaczenia, tworzenia dzieł pochodnych z rozpowszechniać i wyświetlać takie treści na całym świecie w dowolnych mediach" (IMDb, b.d.). Wraz ze wzrostem świadomości użytkowników na temat ich praw (lub ich braku) w sieci, najpopularniejsze platformy Web 2.0 (np. Facebook, YouTube, Twitter, Academia.edu) usunęły słowo "permanent" ze swoich warunków świadczenia usług. W przypadku tych platform licencja dotycząca własności intelektualnej, którą posiadają w odniesieniu do publikowanych na nich treści, wygasa, gdy użytkownicy usuną te treści lub usuną swoje konto, z wyjątkiem niektórych przypadków treści udostępnianych innym osobom, które nie usunęły ich ze swoich własnych stron. Alternatywny sposób można znaleźć na platformach internetowych skierowanych do "twórców" (np. Flickr przed sprzedażą do Yahoo, GitHub przed 2017 r., ResearchGate). Polega ona na tym, że w ogóle nie wymaga się przeniesienia ani cesji praw autorskich i pozwala twórcy wybrać licencję na swoje treści. Innymi słowy, właściciele tych platform, na których znajdują się treści generowane przez użytkowników, nie są uważani za wydawców. Taka interpretacja jest możliwa zgodnie z postanowieniami "bezpiecznej przystani" Ustawy o ograniczeniu odpowiedzialności za naruszenia praw autorskich w Internecie, będącej częścią ustawy Digital Millennium Copyright Act, oraz równoważnymi dyrektywami, takimi jak dyrektywa Unii Europejskiej w sprawie handlu elektronicznego. Przepisy te chronią dostawców usług internetowych przed odpowiedzialnością za naruszenie praw autorskich, pod warunkiem że usuną oni treści naruszające prawo, gdy zostaną o tym powiadomieni.

Ekonomia współdzielenia czy nieregulowana praca?

Inny społeczny (i prawdopodobnie prawny) aspekt Web 2.0 wynika z faktu, że kilka platform partycypacyjnych można postrzegać jako rynki między konsumentami: Platformy takie jak eBay (nie tylko dla nowych i używanych towarów, ale także dla usług), AirBnB (dla krótkoterminowego zakwaterowania) i Uber (dla transportu i dostawy samochodów) służą jako pośrednicy między indywidualnymi sprzedawcami i kupującymi. Chociaż niektórzy opowiadają się za częścią nowej ekonomii współdzielenia, ten rodzaj biznesu budzi wiele obaw. Zarzucając nieuczciwą konkurencję (ze względu na licencje, podatki i inne wydatki, których osoby fizyczne nie płacą), tradycyjni dostawcy tych towarów lub usług regularnie protestują przeciwko indywidualnym dostawcom i właścicielom rynku. W wielu krajach, w zależności od legalności tych rynków, rządy albo próbują zmusić indywidualnych dostawców do przestrzegania niektórych przepisów i podatków profesjonalnych dostawców, albo do podjęcia kroków prawnych przeciwko brokerom. Oprócz niezgłoszonego zatrudnienia korzystanie z rynków między konsumentami może również sprzyjać wynagrodzeniu poniżej płacy minimalnej. Na platformach mikropracy, takich jak Amazon Mechanical Turk, gdzie pracownicy zarabiają kilka centów za każde "zadanie związane z ludzką inteligencją", szacunkowe zarobki wahają się od około 1,20 do 5 dolarów za godzinę. Nawet jeśli większość pracowników to obywatele USA, jako niezależni kontrahenci nie są objęci federalnymi przepisami dotyczącymi płacy minimalnej

Od aplikacji desktopowych do aplikacji internetowych

Powstanie aplikacji internetowych


Web 2.0 wpłynął nie tylko na sposób tworzenia treści w sieci, ale także na sposób projektowania, wdrażania i zarządzania oprogramowaniem. W miarę jak strony internetowe stawały się coraz bardziej edytowalne, ich różnica w stosunku do aplikacji komputerowych zanikała. Mówiąc ściślej, aplikacje internetowe nie były niczym nowym. Już w 1993 roku testowano protokół HTTP, wdrażając "pocztę internetową", rodzaj oprogramowania umożliwiającego przeglądanie i wysyłanie wiadomości e-mail za pośrednictwem strony HTML w przeglądarce internetowej, a nie za pośrednictwem terminala lub klienta stacjonarnego . Pozostając przy tym przykładzie, w 1996 roku wprowadzono dwóch masowo przyjętych dostawców poczty internetowej: Hotmail (pierwotnie nazwany HoTMaiL, który został później przejęty przez Microsoft) i RocketMail (później przejęty przez Yahoo). Niemniej jednak coś się zmieniło w 2004 roku wraz z wydaniem Gmaila przez Google. Wydawało się, że zniknęło opóźnienie między działaniami użytkownika a reakcją interfejsu, które było nieodłącznym elementem aplikacji internetowych. Powodem tego było to, że działania użytkownika nie powodowały już wczytywania nowej strony, ale zamiast tego asynchroniczne wczytywanie danych strukturalnych (w rozszerzalnym języku znaczników lub innym formacie), a po pobraniu danych ukierunkowana aktualizacja interfejsu HTML, którego dotyczy problem część. To "nowe podejście do aplikacji internetowych" zostało nazwane "Ajax" przez Jesse Jamesa Garretta, eksperta w dziedzinie projektowania stron internetowych i doświadczenia użytkownika, w poście na blogu z 2005 roku. Części technologiczne Ajaksa - zdolność do wyzwalania asynchronicznego żądania HTTP (za pomocą XMLHttpRequest i JavaScript), możliwość programowej modyfikacji części strony internetowej (za pomocą DOM i JavaScript) oraz separacja treści dokumentu i prezentacji dokumentu (za pomocą HTML i CSS [ Kaskadowe arkusze stylów]) - nie były tak naprawdę nowe. Jednak technologie te nie mogły być wykorzystywane tak systematycznie aż do zakończenia tak zwanych wojen przeglądarek i stopniowej naprawy niekompatybilności przeglądarek.

Zmiany w inżynierii oprogramowania

Przez bardzo długi czas inżynierowie oprogramowania traktowali tworzenie stron internetowych z pogardą. Na początku XXI wieku inwestycje firmy Sun w tworzenie stron internetowych pomogły poprawić jej reputację. Dzięki Javie Enterprise Edition technologie sieciowe były nie tylko stopniowo wdrażane w rdzeniu architektury informatycznej firm, ale były również kojarzone z surowymi, ale ciężkimi środowiskami programistycznymi i produkcyjnymi. Web 2.0 zmienił to wszystko, a prawdziwe aktywa firm programistycznych stały się danymi i użytkownikami, a nie oprogramowaniem. Po pierwsze, jakość oprogramowania przeszła od zgodności ze specyfikacjami do zadowolenia klienta. Aby zadowolić klienta, zgodnie z zaleceniami tzw. metod zwinnych, dostarczanie oprogramowania zmieniło się z rzadkich i solidnych wydań na uproszczone aktualizacje. (Flickr był znany z udostępniania poprawek błędów i nowych funkcji co pół godziny, gdy tylko zostały ukończone). Dzięki aplikacjom internetowym centralizacja oprogramowania nie tylko ułatwiła aktualizacje, ale także umożliwiła śledzenie zachowania użytkowników w czasie rzeczywistym, aby sprawdzić, czy funkcja jest używana, czy nie, oraz określić, w jakich szczególnych przypadkach proces się nie powiedzie. Kultowi aktorzy Web 2.0, nosząc logo beta na swoich aplikacjach przez lata, pokazali masom, że zdali sobie sprawę z tego nowego procesu wydawania, że oprogramowanie z natury podlega niekończącemu się cyklowi zarówno ulepszeń, jak i braku osiągnięć. Po drugie, nadanie wartości danym i połączonym użytkownikom, a nie kodowi, może wyjaśnić ten ruch od poglądów inżynierów oprogramowania do poglądów administratorów systemów na temat tworzenia oprogramowania. Według O′Reilly może to wyjaśniać przejście w korporacyjnym tworzeniu stron internetowych z języków kompilowanych (np. Java) na języki skryptowe (np. Java Script, PHP lub Ruby). Ta zmiana "wartości" może również wyjaśniać, dlaczego rozwój Web 2.0 charakteryzuje się szerokim wykorzystaniem i wkładem w oprogramowanie open source (przykłady obejmują zarządzanie pakietami Node.js i ekosystem Ruby). Interpretowanie tego ruchu jako altruistyczne byłoby prawdopodobnie naiwne, ponieważ przewaga konkurencyjna firm nie tkwi już tylko w kodzie źródłowym, ale także w "usłudze". Oprogramowanie bez danych i społeczności użytkowników jest nic nie warte. Ten wyłaniający się pomysł, że kod źródłowy jest jednorazowy, może również wyjaśniać rosnące zastosowanie "refaktoryzacji kodu", zwinnego procesu regularnego przepisywania kodu, który już działa, zamiast dążenia do uzyskania na początku najbardziej ogólnego i wydajnego kodu. Po trzecie, Ajax, z czytelnymi skryptami po stronie klienta i identyfikowalnymi wywołaniami usług internetowych, jest z założenia "hakowalny", niekoniecznie w negatywnym tego słowa znaczeniu (ponieważ otwartość nie jest sprzeczna z bezpieczeństwem), ale w sensie otwartości na sprytnych sposobów pokonywania ograniczeń w celu uzyskania nieoczekiwanych rezultatów. Dostarczanie części udanej aplikacji internetowej jako "białych skrzynek" (systemów, których elementy wewnętrzne nie są ukryte) sprzyjało remiksowalności i tworzeniu usług o wartości dodanej w postaci "mashupów".

Dystrybucja czy centralizacja?

Wśród przewidywanych przez O′Reilly cech Web 2.0 dystrybucja była jedną z nielicznych, które nie zostały potwierdzone w kolejnych latach. W 2005 roku O′Reilly przeanalizował sukces prostych i usługi sieciowe wielokrotnego użytku jako prekursor bardziej rozproszonej sieci, sieci współpracujących usług danych, zarówno dostarczających, jak i korzystających z usług z innymi. Mogłoby tak być, gdyby najczęściej konsumowane usługi nie były świadczone przez bardzo niewielką liczbę firm (np. Google Amazon, Facebook, Twitter), które same nie są zależne od usług stron trzecich. Nadmierny optymizm prognozy można wytłumaczyć politycznym charakterem debaty wśród informatyków na temat scentralizowanego i zdecentralizowanego przetwarzania. Zamiast być jedynie wyborem projektu technicznego, modelowanie relacji między komputerami jest uważane za ustalanie relacji władzy między właścicielami komputerów. Innymi słowy, w takim ujęciu architektura wdrażania oprogramowania określa zasady polityczne i ekonomiczne wśród ludzi (od reżimu autorytarnego do anarchii, od gospodarki planowej do wolnego rynku). Dlatego może się wydawać paradoksem, że Web 2.0 doprowadził zarówno do płaskiego modelu uczestnictwa użytkowników, jak i do nierównego modelu współpracy między organizacjami. Ikonicznym przykładem uzależnienia konsumentów usług od usługodawców jest post na oficjalnym blogu Google Code z czerwca 2011 r., zatytułowany "Wiosenne porządki niektórych naszych interfejsów API", w którym ogłoszono, że po uruchomieniu nowych usług wiele starych te, takie jak SideWiki i Wave API (interfejs programowania aplikacji), byłyby przestarzałe lub wycofywane, a te już przestarzałe, takie jak ImageSearch, PatentSearch i Translate API, zostałyby zamknięte. W ciągu kilku następnych dni opublikowano setki komentarzy. Większość z nich dotyczyła Translate API, faktu, że kilka aplikacji i usług jest od niego całkowicie zależnych, braku dobrych alternatyw, czasu i wysiłku zainwestowanego w te API, niebezpieczeństwa konsumowania bezpłatnych usług bez zwracania uwagi na brak gwarancji w ich warunki świadczenia usług. Tę ilustrację bardzo niezrównoważonego rynku na korzyść usługodawców można złagodzić: Kilku komentatorów próbowało negocjować zachowanie usługę jako płatną, inni argumentowali, że wyłączenie spowodowałoby utratę zaufania do dostawcy, a jeszcze inni w ramach prowokacji wymieniali alternatywy Microsoftu. Tydzień później, w odpowiedzi na komentarze, autor wpisu zadeklarował, że Google zaktualizuje swój plan o płatną wersję Translate API. Na bardziej ogólnym poziomie tendencje Web 2.0 w kierunku oligopolu można podsumować różnicą w używaniu terminu API. W 2005 roku, kiedy O′Reilly mówił o interfejsach API, miał na myśli API oprogramowania, specyfikacje niezbędne do ponownego wykorzystania podprogramów innych firm (zwłaszcza z systemu operacyjnego). Według jego artykułu, kontrola nad API była czymś z przeszłości, z epoki komputerów osobistych, w której cała władza należała do twórców systemów operacyjnych. Jeśli chodzi o niego, wynikająca z tego blokada (niemożność przejścia do innego dostawcy) zniknęłaby wraz z usługami oprogramowania, ponieważ zastosowanie otwartych standardów uczyniłoby je wymiennymi. Do 2011 r. API odnosiło się do usługi API, specyfikacji niezbędnych do ponownego wykorzystania usług stron trzecich. Brak standardowego API usługi, a co za tym idzie brak alternatywnych wdrożeń, powoduje takie samo ryzyko uzależnienia od dostawcy, jak API oprogramowania "dawnego czasu". Podobnie jak w erze komputerów osobistych, jednym z kluczy do kontroli rynku jest nadal baza użytkowników, co ilustruje nieudana próba Google′a, by rzucić wyzwanie Facebookowi za pomocą sieci Google Plus. Jednak, jak przewidział O′Reilly, kluczem do kontroli rynku jest również kontrola danych, bez których nie może istnieć żadna usługa.

Czy sieć semantyczną należy nazwać Web 3.0?

Zgodnie ze wzorcem nazewnictwa Web 2.0, niektórzy zaproponowali, aby Sieć Semantyczna (inicjatywa konsorcjum World Wide Web) mogła być nazwana Web 3.0. Chociaż nikt nie może przewidzieć przyszłości sieci, termin Web 3.0 sugerowałby, że Web 2.0 i Semantic Web mają ten sam charakter, co jest mylące. Web 2.0 nie polega na konsorcjum definiującym standardowe protokoły i formaty w celu ulepszenia istniejącej infrastruktury. Zamiast tego Web 2.0 wyłonił się z niezależnych aktorów społeczno-ekonomicznych. Zmiana wzorców korzystania z sieci i sposobu konstruowania oprogramowania - zmiana, która przez lata była niezauważalna - nagle stała się dominująca. Kolejną radykalną różnicą między Siecią Semantyczną a Siecią 2.0 jest sposób, w jaki każda z nich zarządza inteligencją. Podczas gdy pierwszy ma na celu "treści, które mają znaczenie dla komputerów", drugi ma na celu "wykorzystanie zbiorowej inteligencji" użytkowników, jak ujęli to ich zwolennicy. Mówiąc dokładniej, w perspektywie sieci semantycznej znaczenie dokumentów powinno być opisywane za pomocą pojęć zaczerpniętych z ontologii określających formalne powiązania między tymi pojęciami. Natomiast w perspektywie Web 2.0 znaczenie dokumentów jest ujawniane przez czytelników poprzez komentarze i tagi (darmowe słowa kluczowe). To przeformułowanie znaczenia jest nie tylko kontekstowe w stosunku do dokumentu, ale także subiektywne dla czytelników (z interesującymi podobieństwami i różnicami w ponownym użyciu znaczników z jednego dokumentu do innych), a także intersubiektywne (z znaczącymi konsensusami i niezgodnościami między czytelnikami). Oprócz tego, że mają różną naturę, oba podejścia mają tak radykalnie różne filozofie i cele, że należy je traktować raczej jako równoległe i konkurujące ze sobą dynamiki, a nie jako następcę drugiego.



Powrót

Web GIS



Web GIS (systemy informacji geograficznej) odnosi się do wykorzystania WWW (World Wide Web) i HTTP (protokół przesyłania hipertekstu) jako platformy komunikacyjnej i protokołu do wymiany i udostępniania danych geoprzestrzennych, przeprowadzania analiz GIS oraz wyświetlania interaktywnych i dynamicznych map. Podobnie jak w wielu rozwijających się dziedzinach badawczych, nie ma ogólnej zgody co do rzeczywistych terminów opisujących aplikacje sieciowe GIS. Użyto kilku podobnych terminów, w tym Internet GIS, cyberinfrastruktura geoprzestrzenna, cyberGIS, GIS online i GIS oparty na sieci. Te różne terminy mają różne znaczenia z określonych perspektyw. Ale wszystkie one oznaczają dostęp i badanie danych GIS, informacji i wiedzy za pośrednictwem Internetu, który jest platformą sieciową wykorzystującą protokół kontroli transmisji/protokół internetowy (TCP/IP). Wąska definicja internetowego GIS może odnosić się do używania przeglądarek internetowych jako podstawowych kontenerów do wykonywania zadań GIS lub wyświetlania dynamicznych map. Jednak niektóre popularne sieciowe aplikacje GIS, takie jak Google Earth, ArcGIS Pro lub aplikacje mobilne (np. Google Map) opracowali własne przeglądarki, zamiast polegać na domyślnych przeglądarkach internetowych. Szersza definicja web GIS mogłaby obejmować dowolne aplikacje wykorzystujące protokół TCP/IP do wykonywania zadań GIS. W tym wpisie przeanalizowano strukturę internetowego GIS, jego wczesny rozwój i jego kluczowe komponenty.

Struktura Web GIS

Internet łączy setki tysięcy publicznych i prywatnych sieci telekomunikacyjnych i tworzy platformę "internetową" dla różnych aplikacji, w tym poczty elektronicznej, FTP (File Transfer Protocol), WWW, media społecznościowe (np. Twitter, F cebook), komunikatory (np. WhatsApp, LINE, WeChat) oraz wideokonferencje (np. SKYPE, ZOOM, WebEX). Ramy internetowe obejmują sieci LAN (sieci lokalne), WAN (sieci rozległe) lub MAN (sieci metropolitalne), sieci ISP (dostawcy usług internetowych), sieci komunikacji bezprzewodowej (np. AT&T, Verizon) oraz intranet. Intranety to podzbiór Internetu, który wykorzystuje ten sam protokół internetowy (TCP/IP) w chronionym i zamkniętym środowisku z zaporą ogniową (monitorowanie i kontrolowanie ruchu sieciowego w oparciu o reguły bezpieczeństwa) lub wirtualną siecią prywatną. Web GIS jest jedną z popularnych aplikacji internetowych, a celem web GIS jest zapewnienie dynamicznych i interaktywnych funkcji mapowania i analizy GIS dla różnych użytkowników Internetu. Nowe technologie internetowe i popularyzacja smartfonów zmieniły kształt rozwoju sieciowego GIS. Wiele internetowych aplikacji GIS, takich jak funkcje Google Map Navigation, Waze, Aplikacje Yelp i Uber były wykorzystywane nie tylko przez specjalistów i badaczy GIS, ale także przez ogół społeczeństwa i klientów biznesowych. Wiele aplikacji mobilnych i usług opartych na lokalizacji wykorzystuje sieciowy GIS do dostarczania informacji przestrzennych i funkcja nawigacyjna. Firmy prywatne, takie jak ESRI, Mapbox i CartoDB, lub agencje rządowe, takie jak National Weather Services, U.S. Geological Survey i Census Bureau, stworzyły różne internetowe usługi mapowe i interfejsy programowania aplikacji (API) map internetowych, aby umożliwić dynamiczne oraz inteligentne funkcje sieciowe GIS dla różnych aplikacji internetowych i mobilnych. Ponieważ wszystkie nowe technologie web GIS są zbudowane na rewizji lub ulepszeniu poprzednich technologii web GIS, ważne jest, aby zrozumieć ewolucję różnych narzędzi i aplikacji web GIS, które zostaną przedstawione w kilku następnych sekcjach.

Wczesny rozwój Web GIS i standardów branżowych

Wczesny rozwój internetowych aplikacji GIS można prześledzić wstecz do połowy lat 90. Przeglądarki map Xerox PARC, projekt Alexandria Digital Library (ADL) i GRASSLinks to trzy wczesne prototypy internetowego GIS opracowane w latach 1994 i 1995. Przeglądarka Xerox PARC Map Viewer została opracowana w Centrum Badawczym Xerox Corporation w Palo Alto. Umożliwiło użytkownikom powiększanie i pomniejszanie map przy użyciu techniki renderowania map opartej na obrazach z hiperłączami do działań. GRASSLinks został opracowany w 1995 roku w celu zapewnienia podstawowych funkcji i operacji GIS (np. buforowanie, reklasyfikacja, łączenie funkcji) w przeglądarce internetowej. Firma GRASSLinks stworzyła internetowe oprogramowanie pośredniczące do łączenia oprogramowania GRASS GIS opartego na siatce (opracowanego przez Korpus Inżynierów Armii Stanów Zjednoczonych) z serwerami sieciowymi (serwerami HTTP). GRASSLinks wprowadził nowy internetowy model GIS do udostępniania i przetwarzania danych, w którym każdy instytut może aktualizować własne dane GIS i uzyskiwać dostęp do baz danych GIS innych instytutów przez Internet w razie potrzeby. Projekt ADL (rozpoczęty w 1994 r.) wprowadził platformę biblioteki cyfrowej do tworzenia archiwów i indeksowania heterogenicznych informacji przestrzennych w Internecie. Firma ADL przyjęła standardowe ramy metadanych Federalnego Komitetu ds. Danych Geograficznych do integracji i indeksowania GIS i zbiorów danych zdalnie wykrywanych online oraz udostępnia funkcje wyszukiwania słów kluczowych i wyszukiwania przestrzennego szerokiej grupie rozproszonych użytkowników. Jednym z kluczowych wkładów projektu ADL jest integracja wielu usług GIServices dla bibliotek cyfrowych, w tym katalogowanie, przeszukiwanie gazeterów i indeksowanie metadanych. Dwie ważne organizacje zostały założone w 1994 r. w celu rozwijania i promowania znormalizowanych internetowych protokołów GIS, formatów geodanych i medanych oraz ram technicznych: (1) Open Geospatial Consortium (OGC) i (2) Komitet Techniczny Międzynarodowej Organizacji Normalizacyjnej (ISO) 211 (TC211). Członkowie OGC są mieszani z partnerami branżowymi GIS (np. ESRI, DigitalGlobes, Google), instytutami akademickimi i agencjami rządowymi. Członkowie ISO/TC211 wywodzą się głównie z oficjalnych krajowych i międzynarodowych agencji rządowych zajmujących się normalizacją oraz organizacji Narodów Zjednoczonych. Jakaś sieć , secyfikacje GIS opracowane przez OGC i ISO/TC211 dla formatów danych przestrzennych, wymiany danych i komunikacji danych są dobrze przyjęte przez branżę GIS; przykłady obejmują standard ISO 19115 Geographic Information Metadata, ISO 19119 Geographic Standard usług informacyjnych i OGC Web Map Service (WMS).

Kluczowe komponenty Web GIS

Architektura systemu sieciowego GIS zwykle opiera się na trójwarstwowej architekturze klient/serwer: (1) klienci, (2) oprogramowanie pośredniczące i (3) serwery/silniki GIS. Ta trójwarstwowa architektura oprogramowania sieciowego GIS może zapewniać konfigurowalne funkcje dla różnych aplikacji mapujących/GIS oraz skalowalnych implementacji w celu dynamicznego spełniania żądań różnej liczby użytkowników. Pierwszy poziom to przeglądarki internetowe lub aplikacje mobilne po stronie klienta. Użytkownicy sieciowego GIS wchodzą w interakcję z klientami (lokalnymi komputerami lub smartfonami), aby uzyskać dostęp do usług mapowania lub funkcji analizy GIS, takich jak nawigacja, geokodowanie i zapytania przestrzenne. Drugi poziom to oprogramowanie pośrednie, które zwykle obejmuje serwer sieciowy (dla aplikacji sieciowych) lub usługę sieciową z interfejsami API (lub łącznikami) do łączenia komunikacji między aplikacjami po stronie klienta a serwerami/silnikami GIS. Trzeci poziom to serwery/silniki GIS obejmuje serwery map, serwery analiz GIS i serwery przestrzennych baz danych. Poniższe sekcje zawierają bardziej szczegółowe opisy każdego składnika.

Klienci (komponenty front-end)

Klienci Web GIS to programy (aplikacje internetowe lub aplikacje mobilne) umożliwiające użytkownikom żądanie funkcji mapowania lub przeprowadzanie funkcji analizy GIS. Podczas gdy tradycyjny GIS dla komputerów stacjonarnych wykorzystuje znormalizowany graficzny interfejs użytkownika do obsługi swoich zadań GIS, sieciowy GIS zwykle opiera się na technologiach dynamicznego wyświetlania w sieci lub interfejsach użytkownika aplikacji mobilnej front-end, aby zapewnić użytkownikom najlepsze wrażenia. Niektóre popularne narzędzia oprogramowania używane do tworzenia dynamicznych internetowych klientów GIS to JavaScript, HTML5, CSS3, AJAX i moduły JavaScript (np. jQuery, D3, Leaflet, Bootstrap). Ogólne zasady projektowania internetowych komponentów GIS po stronie klienta obejmują (1) przyjęcie struktury projektowej zorientowanej na użytkownika w celu poprawy doświadczeń użytkownika, (2) zapewnienie responsywnego projektu interfejsu użytkownika zarówno dla klientów internetowych (duże ekrany), jak i klientów mobilnych (małe ekranów), (3) stworzenie solidnego i niezawodnego kanału połączenia (łącza API lub łącza gniazd sieciowych lub łącza RESTful) pomiędzy oprogramowaniem front-end a bazami danych back-end, (4) iteracyjne testowanie użytkowników i tworzenie prototypów w celu naprawienia błędów i poprawa użyteczności klientów web GIS oraz (5) unikanie używania jakichkolwiek wtyczek opartych na przeglądarkach dla klientów, ponieważ wiele programów wtyczek wygaśnie lub stanie się niekompatybilne z nowymi wersjami przeglądarek internetowych lub systemów operacyjnych urządzeń mobilnych.

Serwery sieciowe i usługi sieciowe (komponenty zaplecza)

Drugim komponentem Web GIS jest oprogramowanie pośrednie, które zwykle obejmuje serwer WWW (dla aplikacji internetowych) lub usługę internetową z interfejsami API. Serwery WWW to serwery HTTP, które mogą zapewniać dynamiczne odpowiedzi w oparciu o żądania po stronie klienta za pośrednictwem komunikatów HTTP (np. GET, POST, PUT, DELETE). Istnieje kilka sposobów na serwer sieciowy w celu odpowiedzi na żądania klienta: (1) poprzez przesłanie nowego dokumentu HTML z dynamicznie tworzonymi obrazami map do przeglądarki po stronie klienta, (2) poprzez przesłanie częściowej treści dokumentu HTML za pomocą asynchronicznej techniki JavaScript i XML (AJAX) lub (3) poprzez przekazywanie żądań do innych programów i wywoływanie innych programów za pośrednictwem interfejsów API lub gniazd sieciowych, które mogą przetwarzać zapytania. Gdy klient żąda usług sieciowych, rola usług sieciowych staje się oprogramowaniem pośredniczącym, które łączy klientów z serwerami/silnikami GIS. Oprogramowanie pośredniczące działa jak tłumacz przekazujący komunikaty od klientów do serwerów (silników GIS). Główne funkcje oprogramowania pośredniczącego obejmują nawiązywanie, utrzymywanie i kończenie połączenia między klientami a serwerami GIS; zarządzanie jednoczesnymi żądaniami od użytkowników i równoważenie obciążeń między serwerami GIS; oraz zarządzanie stanem, transakcjami i bezpieczeństwem internetowych aplikacji GIS. Niektóre popularne sieciowe interfejsy API GIS to OpenStreetMap API, Google Maps API, Microsoft Bing Maps API, ESRI ArcGIS API, OpenLayers API, Mapbox API, CartoDB API oraz HERE JavaScript & REST API.

Serwery/silniki GIS (komponenty zaplecza)

Serwer lub silnik GIS jest głównym komponentem zaplecza (po stronie serwera), który realizuje zapytania przestrzenne, przeprowadza analizy przestrzenne oraz generuje i dostarcza klientom dynamiczne mapy na podstawie żądań użytkowników. Serwery GIS mogą obsługiwać duże geoprzestrzenne bazy danych dla określonych projektów i zapewniać różne usługi GIS, takie jak nawigacja, wyświetlanie map, analiza punktów aktywnych, nakładanie map, filtrowane zapytania, strumieniowanie danych, geokodowanie i geokodowanie wsteczne. Niektóre serwery GIS są tworzone przez prywatne firmy (np. Google, ESRI, Microsoft), a niektóre są rozwijane przez społeczność open source. Niektóre popularne komercyjne serwery GIS to ESRI Arc-GIS Server, Mapbox Atlas Server, CartoDB Location Data Services i Google Maps. Serwery Open Source GIS obejmują Geoserver i Mapserver.

Lekkie aplikacje Web GIS (struktura dwuwarstwowa)

Istnieje nowy typ sieciowego środowiska GIS, wykorzystujący jedynie architekturę dwuwarstwową (klientów i serwerów sieciowych) w celu zapewnienia szybkiego i lekkiego mapowania oraz funkcji zapytań przestrzennych. Leaflet to jeden z popularnych lekkich frameworków programistycznych GIS, który jest biblioteką JavaScript typu open source do mapowania sieci i prostych operacji GIS. Dane GIS w ulotce były przechowywane w GeoJSON, formacie osadzonym w programach JavaScript ulotek. Przeglądarki internetowe po stronie klienta mogą bezpośrednio pobrać cały program Leaflet (jako dokument internetowy z JavaScript) wraz z danymi GeoJSON. Dzięki temu dynamiczne wyświetlanie map i zapytania o dane przestrzenne w aplikacjach Leaflet są bardzo szybkie i interaktywne, ponieważ dane GIS były przechowywane w lokalnych przeglądarkach internetowych bez potrzeby komunikacji klient/serwer. Wiele lekkich internetowych aplikacji GIS może wykorzystywać tę uproszczoną, dwuwarstwową architekturę tworzenia szybkich i interaktywnych usług mapowania. Geo-JSON stał się obecnie jednym z najpopularniejszych formatów wymiany danych geoprzestrzennych dla internetowego GIS i jest to tekstowy format danych wykorzystujący JSON (JavaScript Object Notation). Zaletą GeoJSON jest to, że zestawy danych są zarówno do odczytu maszynowego, jak i łatwe do odczytania przez ludzi i edytuj. Web GIS staje się obecnie coraz bardziej popularny w wielu aplikacjach GIS i usługach lokalizacyjnych. W przyszłości GIS dla komputerów stacjonarnych będzie miał ograniczone zastosowanie przez niewielką liczbę specjalistów GIS i projektów zorientowanych na bezpieczeństwo. Wiele aplikacji GIS i użytkowników będzie wykorzystywać web GIS jako główną platformę programistyczną. Jednak w sieciowym GIS wciąż istnieją pewne wyzwania i przeszkody. Po pierwsze, nadal brakuje interoperacyjnych standardów sieciowego GIS. Chociaż rozwój usług map internetowych i usług funkcji sieciowych przez OGC jest popularny w kilku silnikach sieciowych GIS o otwartym kodzie źródłowym, większość komercyjnych serwerów sieciowych GIS opracowała własne, zastrzeżone protokoły i interfejsy API. Istotne jest, aby społeczność GIS współpracowała w celu stworzenia prostego i łatwego do przyjęcia standardu komunikacji sieciowej GIS dla różnych aplikacji GIS i usług opartych na lokalizacji. Kolejnym wyzwaniem związanym z internetowym GIS jest przyjęcie inteligentnych zasad kartograficznych. Istnieje wiele "złych" map internetowych tworzonych przez programistów, którzy nie mają przeszkolenia w zakresie zasad kartograficznych ani umiejętności tworzenia map. Zaprojektowanie i stworzenie skutecznej mapy internetowej dla użytkowników wymaga wielu umiejętności kartograficznych i koncepcji wizualizacji. Jednym z możliwych rozwiązań jest kształcenie programistów web GIS z większą wiedzą kartograficzną i zasadami geowizualizacji. Innym rozwiązaniem jest zaadaptowanie sztucznej inteligencji do internetowych silników GIS i automatyczne dostarczanie efektywnego projektowania map. Dzięki przyszłemu rozwojowi łatwego do przyjęcia standardowego protokołu internetowego GIS i inteligentnych silników wyświetlania kartograficznego, internetowy GIS może zapewnić lepsze usługi i lepsze aplikacje dla swoich użytkowników.



Powrót

Webinary



Webinar to popularny format online, w którym osoby prywatne i firmy mogą przekazywać i otrzymywać informacje. Termin webinar wyewoluował z połączenia słów web i seminarium. Webinaria umożliwiają ludziom dzielenie się informacjami przez Internet w interaktywnym formacie. W przeciwieństwie do filmów instruktażowych, które są kolejnym sposobem dostarczania informacji online, webinary są synchroniczne i obejmują różne interaktywne funkcje, takie jak ankiety lub okno czatu. Te funkcje pozwalają prezenterowi angażować widzów podczas prezentacji, a także umożliwiają widzom wirtualny udział. Profesjonaliści często wykorzystują seminaria internetowe jako metodę uczenia się nowych umiejętności lub dzielenia się informacjami o usługach lub produktach. W tym wpisie omówiono wymagania techniczne dotyczące webinarów, ich status uczestnictwa oraz wyzwania związane z organizacją skutecznych seminariów internetowych.

Wymagania techniczne

Wymagania techniczne dotyczące organizacji webinaru wymagają od organizatora uzgodnienia usług z firmą specjalizującą się w technologii online. Ta firma tworzy zaplecze techniczne webinaru, udostępniając widzom hiperłącze, do którego logują się, aby wziąć udział w webinarze. Te firmy goszczące wysyłają również przypomnienia uczestnikom i generują statystyki dotyczące sesji dla prezentera. Wraz ze wzrostem popularności webinarów wzrosła również liczba firm świadczących usługi webinarowe. Opcje cenowe kontraktowania usług gospodarza seminarium internetowego różnią się w zależności od liczby uczestników, rodzaju wsparcia technicznego, jakiego oczekuje prezenter, sposobu dostarczania dźwięku, czy to przez telefon, czy przez Internet, oraz innych dostępnych funkcji. Darmowe usługi hostingowe świadczone przez duże firmy internetowe stają się coraz popularniejsze , tańsze alternatywy dla organizatorów. Jednak opcje webinarów mogą być ograniczone w przypadku tych usług w porównaniu z tymi, które pobierają opłatę.

Online i uczestnictwo

Popularną zaletą webinaru jako formatu nauki jest prezentacja na żywo. Prezenter udostępnia pokaz slajdów lub inny format prezentacji na wskazany temat. Webinaria nie są również ograniczone tylko do jednego prezentera. W zależności od technicznych możliwości webinaru, podczas sesji kilka osób może prowadzić prezentacje. Prezenter lub prezenterzy omawiają temat, klikając ekrany wyświetlane na komputerach uczestników. Niektóre seminaria internetowe pozwalają uczestnikom zobaczyć prezentera za pośrednictwem funkcji wideo. Podczas webinaru uczestnicy mogą korzystać z okna czatu, aby zadawać pytania lub komentować. Agencja hostująca lub firma oferująca webinar tradycyjnie ma osobę monitorującą czat, która zadaje pytania prowadzącemu. Prezenterzy mogą dołączać hiperłącza do dalszych informacji, mogą sondować publiczność i natychmiast dostarczać wyniki i mogą udostępnić ekran swojego komputera osobistego, aby w razie potrzeby przeprowadzić demonstrację na żywo. W niektórych przypadkach prezenter może "dzielić mikrofon" z uczestnikiem, pozwalając tej osobie mówić podczas webinaru. Te funkcje utrzymują zaangażowanie publiczności i dają im możliwość interakcji z prezenterem i informacjami. Zazwyczaj uczestnicy nie są anonimowi podczas sesji. Uczestnicy muszą zarejestrować się na webinar, a podczas uzyskiwania dostępu do sesji muszą podać swoje imię i nazwisko. Dzięki temu podczas webinaru uczestnicy mogą zobaczyć swoje nazwiska. W wielu przypadkach uczestnicy są proszeni o przedstawienie się i podanie swojej lokalizacji za pomocą funkcji czatu przed rozpoczęciem webinaru. Przedstawienie się przyczynia się do tworzenia społeczności stworzonej podczas webinarium. Do uczestników można zwracać się po imieniu, a poszczególne osoby mogą nawiązywać kontakty, a następnie kontaktować się ze sobą. Webinaria dają również możliwość nawiązywania kontaktów. Ponieważ wszyscy uczestnicy są zainteresowani tematem, mogą kontaktować się z innymi i odkrywać sposoby współpracy przy podobnych projektach lub wzbogacać dyskusję poza samym webinarem. Ponadto, prezenterzy z zadowoleniem przyjmują możliwość nawiązania kontaktu z uczestnikami. Podają dane kontaktowe w pewnym momencie webinaru, aby uczestnicy mogli skontaktować się i poprosić o wyjaśnienia lub poszukać dalszej dyskusji na dany temat. Interaktywne funkcje online seminariów internetowych są atrakcyjne dla osób, które chcą poszerzyć swoją wiedzę w formacie synchronicznym, w którym istnieje możliwość osobistej interakcji. Webinaria można jednak nagrywać, co pozwala uczestnikom na przeglądanie treści. Nagranie eliminuje interaktywność webinaru, ponieważ widzowie nie mogą już rozmawiać ani aktywnie uczestniczyć w sesji. Niemniej jednak ci, którzy nie mogli zobaczyć sesji na żywo lub ci, którzy chcą ponownie przeanalizować zawartość, mogą to zrobić we własnym czasie.

Wyzwania webinarowe

Prowadzenie skutecznych webinariów wiąże się z wyzwaniami. Problemy z łącznością i ograniczenia przepustowości mogą negatywnie wpłynąć na wrażenia uczestnika podczas webinaru. Przypadki opóźnienia między prezentacją dźwiękową a wizualną nie są rzadkością, zwłaszcza jeśli frekwencja na webinarze jest wysoka. Duża liczba widzów może dodatkowo ograniczać indywidualny udział, uniemożliwiając interakcję między publicznością a prezenterem oraz między uczestnikami. W takich sytuacjach wyzwaniem dla prezentera jest zachęcenie do uczestnictwa i zarządzanie nim tak, aby webinarium nie stało się jednokierunkowym transferem informacji, a nie wymianą informacji. W takich sytuacjach kontynuowanie rozmowy po zakończeniu webinaru ma kluczowe znaczenie. Webinaria to technologia używana do udostępniania i uczenia się informacji w formacie na żywo. Pozwalają one prezenterom na angażowanie publiczności w innowacyjny sposób, a uczestnikom na zaangażowanie w dyskusję. Webinaria mogą być tanią opcją dla osób, które chcą nauczyć się nowych umiejętności i poszerzyć swoją sieć kontaktów z innymi profesjonalistami o podobnych zainteresowaniach. Jednak popularność webinaru może wpłynąć na doświadczenie w nauce uczestników. W miarę rozszerzania się możliwości nauki online opcja webinaru jako opcji nauki będzie się nadal rozwijać.



Powrót

Webometria



Webometria dostarcza metod wspierających badania sieciowe w naukach społecznych i humanistycznych. Obejmuje badanie treści internetowych, głównie przy użyciu metod ilościowych, które nie są specyficzne dla danej dyscypliny. Badania webometryczne zazwyczaj wprowadzają nową metodę, stosują istniejącą metodę lub oceniają ważność metody lub źródła danych. W tym wpisie omówiono trzy główne typy analiz w tradycyjnej webometrii, wykorzystanie webometrii do badania sieci społecznościowych oraz oprogramowanie używane do webometrii.

Webometryka tradycyjna

Trzy główne tradycyjne style badań webometrycznych to (1) analizy sieci, (2) analizy wpływu i (3) analizy wyszukiwarek. Analiza sieci Web, czasami nazywana również analizą sieci hiperłączy, tworzy sieci stron internetowych z hiperłączy lub innych połączeń między nimi. Celem diagramu sieciowego jest zilustrowanie relacji między stronami internetowymi. Może to być przydatne w przypadku zestawów stron internetowych o określonej tematyce, takich jak ruch Slow Food, w celu wsparcia dochodzenia w sprawie tego, w jaki sposób organizacje odnoszą się do siebie nawzajem w Internecie. Sieci internetowe mogą również ujawnić najważniejsze witryny lub grupy powiązanych witryn. Analiza webometryczna może być wspierana przez metryki analizy sieci społecznościowych, aby pomóc zidentyfikować ważne strony internetowe lub jakościową analizę wyników. Analiza sieci internetowej może być wykorzystana jako niewielka część większego dochodzenia w organizacjach lub jako główny przedmiot projektu. Analizy wpływu na sieć porównują znaczenie zbiorów stron internetowych lub dokumentów, zliczając, jak często były one wymieniane w sieci. Ważniejsze, przydatne lub dobrze znane strony internetowe lub dokumenty będą wymieniane częściej, dlatego liczenie wzmianek online jest logicznym sposobem uszeregowania stron internetowych lub dokumentów. Zakłada to, że nie ma zbyt dużo spamu i nie ma zbyt wielu negatywnych wzmianek. Analizy wpływu sieci mogą być wykorzystywane do porównywania rodzajów organizacji lub dokumentów, aby zobaczyć, które mają największy wpływ, lub do identyfikacji poszczególnych dokumentów lub organizacji o dużym wpływie. Ocena wpływu sieci jest również wykorzystywana przez organizacje, aby pomóc im ocenić wpływ ich publikacji w Internecie. Wszystkie projekty webometryczne obejmują zbieranie danych z sieci. Dane te są zwykle gromadzone za pośrednictwem robota sieciowego lub innego bezpłatnego oprogramowania przeznaczonego do jednego rodzaju informacji. Ważnym etapem projektu webometrycznego jest zatem wybór odpowiedniego oprogramowania i zaprojektowanie strategii gromadzenia niezbędnych danych. Analizy sieci internetowej i analizy wpływu sieci mogą wykorzystywać różne rodzaje połączeń między dokumentami. Chociaż logicznym wyborem jest hiperłącze, hiperłącza są trudne do automatycznego gromadzenia danych do wielu celów. Chociaż roboty indeksujące mogą gromadzić informacje o hiperłączach między zestawami witryn internetowych, przeszukiwanie całej sieci lub dużych zestawów witryn internetowych na potrzeby projektów badawczych jest niepraktyczne. Na szczęście istnieją inne rodzaje powiązań, które łatwiej zebrać na dużą skalę. Należą do nich wzmianki tytułowe (jedna witryna internetowa zawiera nazwę innej witryny internetowej lub dokumentu) oraz cytaty z adresu URL (Uniform Resource Locator) (jedna witryna internetowa zawiera adres URL lub część adresu URL innej witryny internetowej lub dokumentu). Surowe dane do badań webometrycznych często pochodzą z zapytań komercyjnych wyszukiwarek lub robota sieciowego. Ze względu na znaczenie komercyjnych wyszukiwarek dla badań webometrycznych, dziedzina webometrii ocenia również dokładność i kompleksowość wyników wyszukiwarek. Stanowi to część podstawowej wiedzy w tej dziedzinie i pomaga zapewnić, że metody webometryczne są tak skuteczne, jak to tylko możliwe, a ich ograniczenia są znane. Uwaga: Ten diagram webometrii przedstawia sieć środowiska internetowego utworzoną dla holenderskiej grupy badawczej CWTS (Centre for Science and Technology Studies) przy użyciu wyszukiwania Bing i indeksowania sieci. Kręgi to strony internetowe, do których najczęściej prowadzą odnośniki ze stron internetowych wspominających o CWTS. Linie są rysowane między stronami internetowymi, gdy oba są połączone przez stronę internetową, która również łączy się z CWTS.

Sieć społecznościowa

Webometria dla sieci społecznościowych obejmuje pobieranie i ilościową analizę tekstów z serwisów społecznościowych, takich jak Twitter, Sina Weibo lub YouTube, w celu osiągnięcia celu badawczego w dziedzinie nauk społecznych lub humanistycznych. Bezpłatne pobieranie danych na dużą skalę jest możliwe w przypadku niektórych serwisów społecznościowych ze względu na udostępnianie przez nie bezpłatnego interfejsu programowania aplikacji API) dla danych oraz włączenie interfejsów API do bezpłatnego oprogramowania webometrycznego. Pobrane posty można analizować tradycyjną metodą analizy treści (tj. poproszenie jednego lub kilku programistów o odczytanie losowej próbki i sklasyfikowanie jej w kategorie informacyjne) i jest to skuteczny sposób na uzyskanie wglądu w naturę tekstów. Ograniczenia analizy treści polegają na tym, że jest ona powolna i może identyfikować tylko zjawiska, które można łatwo zidentyfikować z poszczególnych postów. W rezultacie do danych z sieci społecznościowych często stosuje się inne metody, w tym analizy częstotliwości sieci i słów. Analiza sieci traktuje użytkowników sieci społecznościowych jako węzły i wykreśla ich na diagramie sieci z liniami między węzłami, gdy istnieje między nimi połączenie. Te powiązania między użytkownikami mogą pochodzić z powiązań przyjaźni w witrynie, z wiadomości wymienianych między nimi lub z bardziej pośrednich metod. Sieci użytkowników można analizować za pomocą metod analizy sieci społecznościowych i mogą one ujawniać ogólne wzorce interakcji, a także grupy wchodzących w interakcje użytkowników i poszczególnych ważnych użytkowników. Podejścia do częstotliwości słów identyfikują ważne słowa na podstawie częstotliwości ich używania przez poszczególnych użytkowników lub grupy użytkowników, w określonych kontekstach lub w określonym okresie czasu. Te słowa mogą mieć wysoką względną częstość występowania w danym momencie, jeśli były wcześniej wymieniane rzadziej (analiza szeregów czasowych) lub mogą występować częściej w jednym temacie niż w innym lub w przypadku jednej płci niż innej, dając wgląd w tematy na dużą skalę omówione. Analiza częstotliwości słów jest zazwyczaj techniką eksploracyjną, której można użyć do uzyskania wglądu w dany temat, chociaż można jej również użyć do przetestowania już sformułowanej hipotezy. Analiza nastrojów to kolejna metoda, którą można zastosować na dużą skalę do danych z sieci społecznościowych, ponieważ programy komputerowe mogą wykrywać nastroje w sieci społecznościowej z rozsądnym stopniem dokładności. W połączeniu z analizą szeregów czasowych może identyfikować trendy nastrojów w czasie dla danego tematu. W połączeniu z analizą częstotliwości słów może identyfikować tematy, które wywołują szczególnie silne pozytywne lub negatywne nastroje. Jeśli dostępne są informacje na temat płci użytkowników sieci społecznościowych lub można je wywnioskować z ich nazw użytkowników, możliwe jest również wykrycie różnic między płciami w interesujących tematach za pomocą analiz częstotliwości słów.

Oprogramowanie

Wiele darmowych programów komputerowych jest dedykowanych do wspomagania badań webometrycznych. Webometric Analyst wykorzystuje zapytania przesyłane automatycznie do komercyjnej wyszukiwarki Bing do konstruowania raportów wpływu lub diagramów sieciowych na podstawie zebranych informacji. W przeciwieństwie do tego SocSciBot przeszukuje zbiór stron internetowych, aby stworzyć diagramy sieciowe hiperłączy między nimi. Mozdeh, Chorus i oprogramowanie ESRC COSMOS Open Data Analytics zbierają dane z Twittera i wspierają szereg ich analiz. Webometric Analyst i Mozdeh obsługują również analizę komentarzy w YouTube.



Powrót

Witryna i strona internetowa



Strona internetowa to dokument hipertekstowy, który jest podłączony do Internetu i dostępny przez przeglądarkę internetową (np. Google Chrome, Microsoft Edge), która pobiera go z serwera. Witryna zazwyczaj zawiera kilka połączonych ze sobą stron internetowych; bardzo duże strony internetowe mogą mieć tysiące f stron. Strony internetowe i serwisy internetowe to najniższy poziom w hierarchii warstw składających się na Internet i dlatego są wymiarem najbardziej widocznym dla użytkowników: Strony internetowe to sposób, w jaki zdecydowana większość internautów wchodzi w interakcję z siecią. Dla większości ludzi strony internetowe to cały Internet. Strony internetowe są zatem miejscem konfrontacji psychologii użytkownika ze strukturą i treścią Internetu. Dla wielu organizacji (np. firm, uniwersytetów, organizacji non-profit) są one najbardziej widoczną twarzą opinii publicznej. W tym wpisie najpierw opisano cel witryn i stron internetowych, a następnie omówiono ich konstrukcję, sposób uzyskiwania do nich dostępu, ich typy domen najwyższego poziomu oraz sposób rozpoznawania i grupowania ich przez wyszukiwarki. Witryny i strony internetowe są nieodzowne dla blogerów, mediów społecznościowych, organizacji non-profit i większości firm, a często są używane również do celów osobistych (np. do wyrażania artystycznej ekspresji, tworzenia sieci społecznościowych lub marketingu kariery). Podczas gdy wczesne strony internetowe miały charakter czysto tekstowy, coraz częściej stawały się one bardziej graficzne, co znacznie poprawiało ich atrakcyjność wizualną. Rzeczywiście, przestrzeń ekranu internetowego stała się złożonym tematem badań, w tym tym, jak przypomina i różni się od rzeczywistych obiektów, które reprezentuje. Witryny i strony internetowe są zwykle pisane w języku HTML (hipertekstowy język znaczników) lub podobnym języku znaczników (np. języku skryptowym, takim jak Java). Większość stron internetowych zawiera grafikę; niektóre zawierają również materiały wideo i audio. Często zawierają reklamy, czasami nazywane banerami, przynętami na kliknięcia lub wyskakujące okienka. Pobieranie stron internetowych zawierających bardzo dużo materiałów graficznych może zająć więcej czasu, w zależności od szybkości połączenia użytkownika (zwłaszcza jeśli obejmuje łącze szerokopasmowe). Większość dzisiejszych przeglądarek korzysta z paska przewijania z boku ekranu, który umożliwia użytkownikom szybkie poruszanie się w dół (a czasem w bok) strony internetowej. Wreszcie, wszystkie strony internetowe, z wyjątkiem tych najprostszych, są podzielone na odrębne części w zależności od intencji twórcy witryny i charakteru zawartości. Strony internetowe są często rozróżniane między odmianą statyczną, która przedstawia materiał dokładnie tak, jak zamierzał twórca, oraz dynamicznymi stronami internetowymi, które wykorzystują technologię Web 2.0, aby umożliwić użytkownikom modyfikowanie treści i wyrażanie opinii. Interaktywne strony internetowe to znacznie więcej niż tylko dostarczanie informacji; umożliwiają wymianę, która stanowi podstawę działań, takich jak bankowość internetowa i handel elektroniczny. Dostęp do stron internetowych można uzyskać z dowolnego urządzenia podłączonego do Internetu, w tym smartfonów (chociaż często strony internetowe ładują się wolno na urządzeniach mobilnych). Adres internetowy strony to jej unikalny jednolity lokalizator zasobów lub adres URL. Kiedy klient żąda strony internetowej, serwer identyfikuje adres protokołu internetowego (IP) osoby żądającej; może również wykorzystywać pliki cookies, które pozwalają witrynom rozpoznawać użytkowników i śledzić ich preferencje. Każda przeglądarka przechowuje historię stron internetowych odwiedzanych przez użytkownika i jeśli użytkownik nie usunie historii, historię strony można łatwo wyświetlić (i lokalnie zapisywać w pamięci podręcznej). Domyślną stroną internetową wybraną przez użytkownika po uruchomieniu przeglądarki jest strona główna. Kiedy użytkownicy przeglądają witryny innych osób, często wyświetlana jest tylko pierwsza strona. Liczba kliknięć potrzebnych do uzyskania dostępu do strony określa jej odległość od strony głównej i pozycję w hierarchii serwisu. Witryny internetowe są relacyjne: strony internetowe często zawierają hiperłącza, które łączą je z innymi stronami internetowymi, często połączonymi przez stronę indeksu. Jak zauważa Emilia Djonov (2007): "Hiperłącza można zdefiniować jako wewnętrzne, gdy łączą ze sobą strony internetowe należące do tego samego serwisu oraz jako serwisowo-zewnętrzne, gdy wykraczają poza strukturę serwisu" (s. 146). Poruszanie się po Internecie ("surfowanie po sieci") polega zatem na przeskakiwaniu ze strony internetowej na stronę internetową lub strony internetowej na stronę internetową w witrynie. Obecność hiperłączy wskazuje, że dla użytkowników tak samo ważna jak sama zawartość strony jest możliwość łączenia się witryn z innymi witrynami. Pierwsza strona internetowa (podsumowanie projektu World Wide Web) powstała 6 sierpnia 1991, Tim Berners-Lee, często nazywany "ojcem World Wide Web" w sieci CERN w Europie. Wraz ze wzrostem popularności Internetu liczba stron internetowych rosła wykładniczo. Szacunki dotyczące liczby światowych stron internetowych różnią się, częściowo w zależności od tego, czy jedna obejmuje głęboką sieć, która zawiera witryny, które nie są indeksowane przez wyszukiwarki. Pod koniec 2017 roku oszacowano, że ponad 1 miliard witryn internetowych i około 4,5 miliarda stron internetowych jest częścią sieci World Wide Web. Jednak wiele stron internetowych, być może nawet 75%, nie jest aktywnych. Jedną z charakterystycznych cech witryn internetowych jest ich płynność: wiele stron internetowych jest efemerycznych i krótkotrwałych, a te, które wyświetlają aktualne informacje, muszą być często aktualizowane. Tylko nieliczne witryny przyciągają dużą liczbę widzów. Siedem najczęściej oglądanych stron internetowych na świecie w 2016 r. to kolejno Google, YouTube, Facebook, Baidu, Yahoo, Amazon i Wikipedia (według danych takich firm jak Alexa, Google i Netcraft). Około 5 milionów stron internetowych, czyli mniej niż 0,1% całości na świecie, generuje 50% światowego ruchu internetowego. Oczywiście popularność różnych stron internetowych jest bardzo zróżnicowana w poszczególnych krajach (a nawet w ich obrębie). Analityka internetowa lub webometria to badanie ruchu internetowego i jego zmian, w tym najczęściej odwiedzanych stron internetowych (oraz wpływu reklam internetowych). W początkach Internetu, kiedy brakowało umiejętności potrzebnych do tworzenia stron internetowych, zadanie to często spadało na kilka osób posiadających niezbędną wiedzę, z których część była profesjonalistami. Z biegiem czasu jednak oprogramowanie do tworzenia stron internetowych (np. SiteBuilder), z których część jest bezpłatna, stało się łatwo dostępne, a znacznie więcej osób, którym brakowało umiejętności technicznych, mogło z łatwością samodzielnie tworzyć strony internetowe. Kilka usług hostingowych, takich jak Geocities, oferuje bezpłatną przestrzeń internetową dla osobistych stron internetowych, podobnie jak serwisy społecznościowe, takie jak LiveJournal. Niektórzy dostawcy usług internetowych (np. Yahoo) oferują usługi hostingu stron internetowych, a wiele osób polega na Facebooku lub Myspace. Wiele uniwersytetów oferuje również przestrzeń internetową wykładowcom, pracownikom i studentom. Często zawierają zakazy dotyczące nieodpowiedniej grafiki lub mowy nienawiści. Istnieje również wiele firm zajmujących się tworzeniem stron internetowych, takich jak WebEnertia, podobnie jak te, które hostują strony internetowe na serwerach (niektóre z nich są bezpłatne). Wiele stron internetowych jest tworzonych przy użyciu gotowych szablonów. Tak twierdzą David Gibson, Kunal Punera i Andrew Tomkins (2005). Prawie wszystkie strony internetowe zawierają w mniejszym lub większym stopniu materiały szablonowe. Typowe przykłady obejmują boczne paski nawigacyjne zawierające łącza wzdłuż lewej lub prawej strony; logo firmy, które pojawiają się w jednolitym miejscu na wszystkich stronach; standardowe kolory lub style tła; nagłówki lub rozwijane menu u góry z linkami do produktów, lokalizacji i informacji kontaktowych; reklamy banerowe; oraz stopki zawierające linki do stron głównych lub informacje o prawach autorskich. Strony internetowe są zatem połączeniem ustandaryzowanych szablonów i unikalnego materiału ich twórcy. Strony internetowe różnią się znacznie rozmiarem, zawartością i wyrafinowaniem. Niektóre są łatwe do zrozumienia, podczas gdy inne są nieprzeniknioną zbieraniną informacji. Dobre strony internetowe są zaprojektowane z myślą o ich odbiorcach i są przyjazne dla użytkownika. Większość czytelników ma krótki czas skupienia uwagi i rzadko poświęca danej stronie więcej niż kilka sekund. Skuteczność projektu strony internetowej lub jej brak znacząco wpływa na jej atrakcyjność oraz zrozumienie i zapamiętanie informacji przez użytkownika. Projektowanie i układ stron internetowych lub projektowanie stron internetowych, w tym kolory, typografia, grafika, kontrast i gęstość krawędzi, jest zatem samo w sobie ważną dziedziną techniczną i estetyczną. Prawidłowo wykonane strony internetowe są łatwe do odczytania, zrozumienia i nawigacji. Jednym z powszechnych podejść jest model hierarchii elementów, na których użytkownicy zwykle koncentrują się w pierwszej kolejności, opracowany przez Pete′a Faradaya, w tym ruch, rozmiar, obraz, kolor, styl tekstu i położenie. David Robins i Jason Holmes doszli do wniosku, że estetyka strony internetowej głęboko wpływa na jej wiarygodność. Liczne badania z zakresu informatyki dotyczyły wzorców korzystania ze strony internetowej, w tym śledzenia ruchów gałek ocznych podczas poruszania się użytkownika po stronie. Jednak postrzeganie, zrozumienie i łatwość korzystania ze stron internetowych będą się znacznie różnić wśród użytkowników w zależności od ich pochodzenia (np. wieku, poziomu wykształcenia, języka ojczystego). Różni użytkownicy o różnych stylach poznawczych stosują różne strategie i podejścia do skanowania wizualnego w celu czytania stron internetowych (np. od góry do dołu, od lewej do prawej). Strony internetowe należą do różnych typów domen najwyższego poziomu, takich jak .com, .edu, .org, .mil, .net, .biz i .gov, a tym samym służą szerokiemu wachlarzowi celów osobistych, komercyjnych i społecznościowych . Dobrze wykonane witryny komercyjne zachęcają kupujących, przyciągają stałych klientów, ułatwiają zakupy i mają wersje przystosowane do smartfonów. Komercyjne strony internetowe dla różnych sektorów gospodarki są nawet oceniane i nagradzane przez organizacje, takie jak Web Marketing Association, które przyznaje coroczne nagrody WebAwards. Wiele komercyjnych witryn internetowych wymaga subskrypcji, w tym wiele witryn poświęconych czasopismom, gazetom, grom wideo lub danym (np. dla giełdy). Sposoby, za pomocą których strony internetowe są rozpoznawane i grupowane przez wyszukiwarki, zostały szczegółowo zbadane. Adres URL jest najłatwiejszym podejściem, ale strony internetowe można również pogrupować na podstawie ich tekstu (np. słów kluczowych) lub struktury hiperłączy. W zależności od wyszukiwarki istnieje kilka sposobów promowania widoczności witryny. Jak zauważają Marco Gori i Ian Witten (2006): "Ciągła walka na rozum toczy się między operatorami wyszukiwarek a tymi, którzy starają się sztucznie poprawić widoczność strony internetowej"



Powrót

Weibo



Weibo (po chińsku dosłownie "mikroblog") lub Sina Weibo (jego poprzednia nazwa) to serwis społecznościowy do mikroblogowania uruchomiony przez chińską firmę technologiczną Sina Corporation w 2009 roku. Jest to największa sieć mikroblogów w Chinach, a także wśród zagranicznych chińskich użytkowników. Weibo posiada portal internetowy dla użytkowników komputerów stacjonarnych oraz dedykowaną aplikację na urządzenia mobilne. W grudniu 2016 r. Weibo miało 313 milionów aktywnych użytkowników miesięcznie, mniej więcej tyle samo co Twitter, i średnio 139 milionów aktywnych użytkowników dziennie, z których 90% jest połączonych przez urządzenia mobilne. Wersja internetowa Weibo jest jedną z najczęściej odwiedzanych stron internetowych w Chinach, zajmując 9. miejsce w kraju i 24. na świecie według rankingu Alexa w marcu 2017 r. Sina Corporation zmieniła oficjalną nazwę na Weibo, kiedy uruchomiła nazwę domeny weibo .com w 2011 r. Chociaż w Chinach nadal istnieje kilku innych dostawców usług mikroblogowych, takich jak Tencent Weibo i Sohu Weibo, pojedynczy termin Weibo zwykle odnosi się do Sina Weibo ze względu na liczbę użytkowników i wpływ na Internet w Chinach. Ten wpis dotyczy historii, cech i funkcji Weibo oraz wpływu społecznego.

Historia

Pierwsza wersja testowa Weibo została uruchomiona w sierpniu 2009 roku; wkrótce giganty sieci społecznościowych Facebook i Twitter zostały zablokowane w Chinach po zamieszkach w Xinjiangu w lipcu 2009 roku. Weibo szybko przejęło rynek i stało się popularne wśród chińskich użytkowników. W sierpniu 2010 roku zespół programistów Weibo został przekształcony w Weibo Corporation, jako spółkę zależną Sina Corporation. Do marca 2011 roku Weibo miało ponad 100 milionów zarejestrowanych użytkowników. Od kwietnia 2011 r. Weibo zajmuje dwie domeny oparte po prostu na swojej nazwie, Weibo.com i Weibo.cn. W 2013 roku Weibo stało się pierwszą chińską aplikacją społecznościową, która umożliwia użytkownikom z zagranicy logowanie się bezpośrednio za pomocą ich kont na Facebooku. W kwietniu 2014 r. Weibo przeprowadziło pierwszą ofertę publiczną na NASDAQ i stało się pierwszą chińską firmą z branży mediów społecznościowych notowaną na nowojorskiej giełdzie papierów wartościowych. Weibo jest teraz obsługiwane przez niezależną spółkę zależną Sina Corporation, Weibo Corporation.

Cechy i funkcje

Ogólnie traktowany jako odpowiednik Twittera w Chinach, Weibo zapewnia podobne usługi mikroblogowania, takie jak SMS-y (usługi krótkich wiadomości), posty, obrazy, łącza wideo i udostępnianie lokalizacji. Podąża również za Twitterem, aby umożliwić użytkownikom wspominanie i interakcję z innymi za pomocą znaku @ i oznaczania treści różnymi tagami. Weibo zawiera również wtyczkę do obsługi wiadomości błyskawicznych, która umożliwia użytkownikom czatowanie online. Weibo ma złożony system weryfikacji i klasyfikacji dla swoich użytkowników. Wszyscy użytkownicy muszą podać swoje dane identyfikacyjne, aby utworzyć normalne konto. Użytkownicy mogą również ubiegać się o uaktualnienie do zweryfikowanych kont, jeśli są zakwalifikowani zgodnie z określonymi kryteriami. Zweryfikowane konta otrzymują symbol V za nazwą użytkownika podczas wyświetlania postów. Proces weryfikacji konta osobistego wymaga przedłożenia świadectwa pracy, zaświadczenia o zatrudnieniu lub dowodu wybitnych osiągnięć w celu potwierdzenia prawdziwej tożsamości posiadacza konta. Konta organizacji są zobowiązane do przedłożenia zapieczętowanej kopii licencji w celu weryfikacji w tym procesie. Te zweryfikowane konta są zazwyczaj posiadane przez osoby publiczne, celebrytów, agencje rządowe i przedsiębiorstwa, które mają więcej obserwujących i przyciągają więcej uwagi opinii publicznej niż zwykli użytkownicy Weibo i są nasycone większą władzą społeczną niż zwykłe konto. Ponieważ Weibo umożliwia użytkownikom szybkie przeglądanie, komentowanie i ponowne publikowanie wiadomości i informacji, szybko stało się potężnym narzędziem reklamowym i promocyjnym. Wiele firm i korporacji prowadzi swoje oficjalne konta w celach biznesowych i wydaje kupony użytkownikom Weibo. Agencje rządowe wykorzystują również Weibo jako platformę do publikowania komunikatów prasowych w celu natychmiastowego ogłaszania opinii publicznej i udzielania odpowiedzi dotyczących spraw społecznych i politycznych. Godnym uwagi przykładem jest relacja na żywo z mikrobloga z procesu Bo Xilai, prowadzona przez oficjalne konto Weibo Jinan Intermediate People′s Court w 2013 roku. Gwiazdy, gwiazdy filmowe, piosenkarze i inne znane osoby z różnych dziedzin są zapraszane do otwierania zweryfikowanych kont w celu używaj Weibo jako platformy samopromocyjnej. Weibo spełnia wymagania cenzury chińskiego rządu. Posty zawierające słowa kluczowe z czarnej listy i zabronione adresy URL nie mogą być publikowane. Niektóre tematy dotyczące współczesnych kwestii politycznych lub drażliwych są poddawane ręcznej kontroli i są zazwyczaj usuwane w ciągu 24 godzin w procesie kategoryzacji i sortowania cenzury.

Siła społecznościowa Weibo

Podobnie jak inne media społecznościowe, Weibo również odgrywa kluczową rolę w transformacji chińskiego społeczeństwa, ponieważ reorganizuje władzę społeczną w chińskiej cyberprzestrzeni, przenosi opinie społeczne z przestrzeni wirtualnej do świata rzeczywistego i zmienia siłę społeczną gromadzoną przez wirtualne powiązania online. Jego funkcję i wpływ na chińskie społeczeństwo można podsumować na cztery sposoby. Po pierwsze, Weibo tworzy sieć pomagającą w restrukturyzacji kapitału społecznego w Chinach, ponieważ powiązania między kontami Weibo mogą być wykorzystywane jako potężne źródło nawiązywania kontaktów. Na przykład duża grupa zwolenników celebrytów demonstruje swoją siłę. Od czasu wprowadzenia Weibo odbyło się już kilka wydarzeń charytatywnych zorganizowanych za pośrednictwem kont celebrytów i wspieranych przez ich obserwujących. Po drugie, Weibo pomaga chińskim internautom zbudować nowy kanał, aby ich głos został usłyszany przez innych, zwłaszcza przez rząd. Ten kanał stworzony przez Weibo daje każdemu użytkownikowi prawo do publicznego publikowania własnych doświadczeń i opinii (choć poddawanych cenzurze) oraz podżega do nowych przemyśleń podczas procesu repostowania i komentowania. Po trzecie, Weibo jest uważane za kanał umożliwiający ludziom monitorowanie rządu. Funkcja samodzielnego raportowania na Weibo umożliwia użytkownikom zamieszczanie wskazówek i komentarzy dotyczących niektórych zachowań rządu i natychmiastowe rozprzestrzenianie się w Internecie, co może zmusić rząd do podjęcia działań w danej sprawie. Niektóre agencje rządowe otworzyły oficjalne konta antykorupcyjne na Weibo, aby umożliwić społeczeństwu składanie petycji i roszczeń dotyczących przestępstw przekupstwa. Po czwarte, Weibo demonstruje pewne cechy "sfery publicznej" Jürgena Habermasa, o ile pozwala użytkownikom dyskutować na tematy polityczne i społeczne. Ponieważ każdy może zarejestrować konto, Weibo jest stosunkowo równą platformą dla obywateli Chin, gdy uzyskają dostęp do Internetu. Wraz z rozwojem i rosnącą penetracją Internetu do biednych obszarów i wiejskich Chin, Weibo jest klasycznym przykładem internetowego modelu sfery publicznej w chińskim społeczeństwie ze względu na jego inkluzywność, dostępność i równość. Wielu badaczy GIS uważa również Weibo za ważne źródło informacji geoprzestrzennych na temat zachowań osobistych. W czerwcu 2011 roku dostarczono samolot Embraer E-190 obsługiwany przez chińską regionalną linię lotniczą Tianjin Airlines z logo Weibo. Samolot nazwano Sina Weibo. Był to pierwszy przypadek wykorzystania komercyjnego samolotu do promocji witryny w mediach społecznościowych w Chinach.



Powrót

WELL, The



The Whole Earth′ Lectronic Link, lepiej znany pod akronimem The WELL, został założony w 1985 roku i jest wczesnym przykładem społeczności internetowej. Szybko stał się popularną przestrzenią, w której zarejestrowani członkowie społeczności brali udział w ożywionych dyskusjach na najróżniejsze tematy. Chociaż The WELL może być postrzegane jako wyjątkowe, biorąc pod uwagę typ uczestników, a zwłaszcza organizację, nie byli oni ani pierwszą, ani jedyną społecznością internetową. Był to w zasadzie dial-up biuletynu systemowego (BBS), który pozwalał użytkownikom z komputerem osobistym i telefonem plus modem łączyć się z innymi użytkownikami i rozpoczynać asynchroniczną lub pisemną rozmowę w czasie rzeczywistym. Około połowy lat osiemdziesiątych komunikacja za pośrednictwem telekonferencji oparta na systemie BBS (CMC) stała się dość popularna, a The WELL wykorzystał to, ale przeniósł komputer osobisty na inny poziom dzięki sprytnemu planowi dwóch idealistycznych przedsiębiorców, który połączył poważną inwestycja w projekt z wizją budowy samowystarczalnej społeczności internetowej. Pod koniec lat 80. i na początku lat 90. The WELL było dobrze znanym intelektualnym i społecznym zgromadzeniem internetowym, które rozwijało się dzięki słowom. Fakt, że dziennikarzom z głównych gazet i magazynów zaoferowano bezpłatną prenumeratę, częściowo wyjaśnia jego sławę; relacjonowali o tym eksperymentalnym miejscu w cyberprzestrzeni, włączając w to czasami soczyste szczegóły. Ale nawet dekady później The WELL pozostaje interesującym przykładem społeczności internetowej, mimo że nigdy nie miała więcej niż 7000 płacących subskrybentów. Jego historyczne znaczenie opiera się przede wszystkim na zdolności do tworzenia długotrwałej wirtualnej społeczności, terminu, którego użył jeden z pierwszych członków, Howard Rheingold, który napisał książkę o swoich doświadczeniach w The WELL. W tym wpisie The WELL służy jako wczesny przykład społeczności internetowej lub wirtualnej. Ten wpis śledzi, w jaki sposób CMC stało się praktyką technokulturową, typową dla wczesnej kultury internetowej. Ponadto pokazuje, że pomimo swojej nowości, ideały i retoryka Studni były głęboko osadzone w powojennej historii kontrkulturowych eksperymentów budowania społeczności alternatywnych. Przede wszystkim The WELL pokazał potencjał, jaki może nieść Internet: środkiem do wykorzystania technologii komputerowych jako narzędzi osobistej komunikacji i łączności w czasie i przestrzeni. Oprócz eksperymentu w budowaniu społeczności, The WELL był komercyjną przygodą, badającą sposoby zarabiania na społecznościach internetowych, co z perspektywy czasu można postrzegać jako wczesny przykład tego, co badacz mediów, José van Dijck, opisał jako transformację z poczucia "połączenia" oparty na przestrzeni wspólnej i współpracy przekształconej w kulturę "łączności", która opiera się na utowarowieniu relacji.

Wirtualna społeczność

Pytanie, czy The WELL naprawdę można traktować jako społeczność, zostało postawione przez jednego z członków około 7 lat po jej powstaniu. Odpowiedź ujawniła poczucie przynależności i więzi z tą przestrzenią, ponieważ członkowie używali terminów takich jak mój dom, moja okolica i moje miasto, aby opisać przestrzeń online. Jeden z członków wniósł nawet do rozmowy teorie socjologiczne z początku XX wieku i odniósł się do niemieckiego socjologa Ferdinanda Tönniesa i jego koncepcji gemeinschaft (stosunki społeczne oparte na więziach rodzinnych) i gesellschaft (stosunki społeczne oparte na więziach bezosobowych). Aby opisać tę konkretną społeczność sieciową, pisarz i WELL-ing Howard Rheingold wprowadził termin społeczność wirtualna w 1987 roku, zanim stał się on tytułem jego odnoszącej sukcesy książki, która została opublikowana w 1993 roku. -yourself styl antropologiczny o wczesnych zastosowaniach technologii w tworzeniu relacji osobistych. Według Rheingolda pomocne było zastanowienie się nad koncepcją "wspólnoty wyobrażonej" Benedicta Andersona, za pomocą której historyk ten opisał, jak obywatele wykorzystują pewien akt wyobraźni, aby poczuć się związani ze sobą jako część jednego narodu, nawet jeśli nie ma bezpośredniego komunikacja twarzą w twarz. Ważną rolę w tej koncepcji odgrywa język i teksty pisane. Rheingold dostrzegł podobieństwo w sposobie, w jaki ludzie używali komunikacji wspomaganej komputerowo do interakcji, łączenia się i budowania sieciowej społeczności, która funkcjonuje jak prawdziwe skupiska społeczności. Wydawało się, że STUDNIA spełnia potencjał takiej społeczności. Od samego początku STUDNIA była pomyślana jako wspólnota. Dwóch idealistycznych przedsiębiorców - weteran kontrkultury Steward Brand i ekspert komputerowy Larry Brilliant - wpadło na pomysł przeprowadzenia społecznego i kulturowego eksperymentu z telekonferencjami. Chcieli zbadać możliwości CMC w sytuacji, gdy określona grupa ludzi dzieli się swoimi przemyśleniami i pomysłami. W tamtym czasie Brand był dobrze znany ze swoich publikacji w Katalogu Whole Earth. Ten magazynowy katalog pojawił się po raz pierwszy w 1968 roku i obiecywał czytelnikom "dostęp do narzędzi", za pomocą których mogą kształtować własne otoczenie. Z biegiem lat ukazały się nowe, zaktualizowane wydania. Stopniowo katalog zaczął reprezentować sieciowe forum, na którym użytkownicy dzielili się strategiami i recenzjami, a wszystko to w oparciu o wspólne ideały społeczności. WELL miał być cyfrową kontynuacją katalogu, ale potem nieco inny. W tym przypadku system telekonferencji pozwolił na znacznie bardziej interaktywny system użytkowników, którzy mogli założyć temat na niemal każdy temat. WELL miał stać się samoregulującym się systemem, zbudowanym na ideałach kontrkulturowej historii alternatywnych społeczności, ale połączonym z cybernetycznymi ideami samoregulujących się systemów biotechnicznych. Razem powinny one zapewnić narzędzia do rozwijania nowych wymiarów społecznych i kulturowych technologii komputerowej. Według Rheingolda byłby to doskonały przykład współewoluowania ludzi i maszyn. Mimo to potrzebował odpowiedniej infrastruktury technologicznej i społecznej, aby ewoluować we właściwy sposób. Kiedy Brand i Brilliant powstali, BBS stawał się coraz bardziej popularny jako rodzaj taniej sieci komputerowej. Według Kevina Driscolla BBS okazał się właściwą koncepcyjną i technologiczną podstawą do eksperymentowania z CMC i budowaniem społeczności. Jednak w odróżnieniu od wielu innych rodzimych społeczności, które opierały się na entuzjazmie hobbystów pracujących z tylko jednym komputerem podłączonym do jednej dedykowanej linii telefonicznej, The WELL był znacznie bardziej ambitnym projektem. Brand, założyciel organizacji non-profit POINT, oraz Brilliant, założyciel Networking Technologies International, zainwestowali reputację i pieniądze w poważne przedsięwzięcie komercyjne. Dzięki sfinansowaniu serwera i komputera VAX, oprogramowania systemu UNIX, około 800 Mb pojemności oraz wielu modemów i linii telefonicznych, projekt rozpoczął się na początku 1985 roku. Brand zatrudnił również dwóch pracowników, którzy mogliby zarządzać i moderować to przedsięwzięcie jako wspólnota. Wczesna historia. Spotkania BBS pokazały, że operator systemu (sysop) był ważnym łącznikiem między tym człowiekiem a połączeniem z maszyną: powinien być w stanie moderować oddaną społeczność uczestników według zestawu zasad. Ukształtowany przez wspólnotowe doświadczenia ruchu powrotu do ziemi, Brand zrozumiał to dość dobrze i zatrudnił jako pierwszego dyrektora weterana z The Farm, słynnej komuny intencjonalnej w Tennessee. Jego rola polegała zasadniczo na podtrzymywaniu dyskusji przy jednoczesnym unikaniu wszelkiego rodzaju ingerencji. Według Freda Turnera było to zgodne z początkami Katalogu całej Ziemi, aby uniknąć hierarchii, a zamiast tego pokładać wielkie zaufanie w samoregulacji i mocy narzędzi. Samorządność została dodatkowo wzmocniona przez podstawową zasadę The WELL: "Masz własne wody". Gdy członkini wpisała swoje słowa, należały one do niej i nikt nie mógł ich powielać ani usuwać bez pozwolenia. Cechą szczególną The WELL był zakaz anonimowości; można było pisać pod pseudonimem, ale trzeba było podać imię i nazwisko oraz adres e-mail. Poza tym nie było wielu zasad i nie było żadnych filtrów. STUDNIA miała być wolną przestrzenią dla każdego, kto chciałby podzielić się swoimi przemyśleniami na dowolny temat. Tylko gospodarze ze specjalnymi uprawnieniami do zarządzania mogli zainicjować konferencję, ale w ramach każdej konferencji użytkownicy mogli rozpocząć lub dodać temat lub rozpocząć nowy. A dzięki programowi konferencyjnemu Picospan tysiące dyskusji mogło toczyć się jednocześnie. W ramach tej otwartej i elastycznej struktury toczyły się ożywione dyskusje na temat rodzicielstwa, ogrodnictwa, seksualności, historii życia czy samochodów. Aby stać się częścią tej społeczności, użytkownicy musieli wykupić subskrypcję, płacąc miesięczną opłatę w wysokości ośmiu dolarów plus dodatkową opłatę w wysokości dwóch dolarów za godzinę dostępu online. Pierwszymi członkami była zróżnicowana grupa hakerów, programistów komputerowych, pisarzy, dziennikarzy i naukowców, a także kilka osób należących do sieci Whole Earth. Tak jak Steward miał nadzieję, ta grupa zawierała odpowiednią mieszankę intelektualistów i libertarian, którzy mogli kształtować interesującą, prowokacyjną i niekończącą się dyskusję. Aby wzmocnić pewne poczucie wspólnoty, Brand organizował również spotkania offline: ponieważ większość jego członków mieszkała w rejonie Zatoki San Francisco, organizowali przyjęcia i pikniki, na których ludzie mogli spotkać się twarzą w twarz. Stopniowo światy online i offline połączyły się: CMC zostało osadzone w życiu codziennym. Jak wspominał Rheingold w swojej osobistej relacji ze swoich dni w Studni, wydawało się, że to małe miasteczko, w którym spotyka się ludzi, lubi się ich, czasami ich unika, a nawet ich nienawidzi, ale zasadniczo jego członkowie zamieszkiwali jego życie, tak jak jego rodzina. Razem budowali społeczność, pomagali sobie radami i informacjami, recenzowali książki lub życie, ale też dużo się kłócili, w tym tocząc płomienne wojny. Po drodze mieszkańcy przekonali się, że słowa mogą ranić. Zgłoszono wiele incydentów, które czytano jak mydło, w tym małżeństwa między członkami, po których następowały rozwody; okazjonalne usuwanie nieprzyjemnych członków; a nawet członek popełniający samobójstwo. Akt ten został uznany za odpowiedź na zaciekłe i podłe rozmowy, po których nastąpiło wiele dyskusji. Jednak wszystkie te incydenty wywołały ogromne zainteresowanie i zwróciły większą uwagę na tę społeczność internetową.

Biznes

Mimo idealistycznego i eksperymentalnego charakteru The WELL było to przedsięwzięcie komercyjne. Zaczęło się od niewielkiej inwestycji, ale szybko stało się jasne, że to przedsięwzięcie biznesowe było poważnie niedokapitalizowane. Inwestycje potrzebne do utrzymania systemu operacyjnego poprzez regularne odnawianie sprzętu i adaptacje oprogramowania były zawsze trudne do zrealizowania. Pomoc płacących abonentów (liczba ta wzrosła od skromnych 700 w pierwszych latach do 7000 w 1993 r.) była potrzebna nie raz. Użytkownicy współpracowali, przepisując oprogramowanie, przekazując pieniądze na nowe maszyny lub zostając wolontariuszami. Największym atutem byli sami użytkownicy: ich wkład słowny był głównym produktem. Użytkownikami byli więc zarówno konsumenci, jak i producenci w tej społeczności. Pomogło The WELL urosnąć na początku lat 90. do małej organizacji zatrudniającej ponad 12 pracowników i osiągającej roczny dochód brutto w wysokości 2 milionów dolarów. W tym czasie było już podłączone do Internetu, co oznaczało koniec The WELL jako sieci lokalnej. Nie każdemu członkowi podobały się nowe rozwiązania; było wiele przypadków oporu przed kolejną nową aktualizacją programu. Wykazał silne przywiązanie do typowego środowiska WELL, nawet gdy aktualizacja przyniosła interfejs bardziej przyjazny dla użytkownika. Opór i niechęć podzielali także użytkownicy wobec przejmowania kontroli przez nowych inwestorów. W 1999 roku Salon Media Group kupił The WELL i hostował go przez lata, dopóki nie wystawił go na sprzedaż ponownie w 2012 roku. Aby uniknąć możliwości, że ta stara społeczność wpadnie w niepowołane ręce, członkowie zorganizowali się i wspólnie odkupili The WELL. Od tego czasu The WELL jest własnością prywatnej grupy inwestycyjnej The Well Group, Inc. i nadal jest dostępny na stronie http://www.thewell.



Powrót

Wide Area Networks



Sieć rozległa (WAN) składa się z kilku autonomicznych komputerów połączonych ze sobą na dużym obszarze geograficznym obejmującym miasta, stany, narody, a nawet kulę ziemską. Sieć WAN to sieć wykorzystująca telefony, anteny satelitarne, anteny i mikrofale na dużym obszarze geograficznym. Sieć WAN może łączyć różne mniejsze sieci, takie jak wiele sieci lokalnych, sieci metropolitalne i inne heterogeniczne sieci komputerowe za pomocą routerów i bram. Został zaprojektowany, aby zapewnić wydajną komunikację między witrynami i umożliwić współdzielenie zasobów komputera przez szeroką społeczność użytkowników. Instytucje akademickie, firmy i organy rządowe używają sieci WAN do komunikacji między studentami, pracownikami, klientami i dostawcami z rozproszonych lokalizacji. W przedsiębiorstwie sieć WAN może łączyć centralę firmy, jej oddziały, usługi w chmurze i inne obiekty. Jest to podobne do systemu bankowego, w którym kilka oddziałów w różnych lokalizacjach jest podłączonych do wspólnych danych. Zbudowano kilka sieci WAN, w tym sieci pakietowe, sieci korporacyjne, sieci wojskowe, sieci rezerwacji lotniczych, sieci bankowe i sieci maklerskie. Niektóre z tych sieci są rozległe, podczas gdy niektóre mają charakter globalny. Na przykład Systems Network Architecture, ogłoszona przez IBM w 1974 roku, to sieć transmisji danych wykorzystująca sprzęt kompatybilny z IBM. W tym wpisie omówiono Internet, inne sieci WAN, zastosowania sieci WAN oraz związane z nimi wyzwania i ograniczenia.

Internet

Internet jest połączeniem sieci, w tym ARPANET (sieć Agencji Zaawansowanych Projektów Badawczych), NSFNET (sieć National Science Foundation), sieci regionalnych, takich jak NYSERNet (sieć edukacji i badań stanu Nowy Jork), sieci lokalnych na wielu uniwersytetach i instytucje badawcze i szereg sieci wojskowych. Internet integruje różne rodzaje informacji, takie jak dane, tekst, wideo, dźwięk i grafika.

Protokół kontroli transmisji/protokół internetowy

Wszystkie komputery podłączone do Internetu nie mówią tym samym językiem, ale jeśli mają być połączone w sieć, muszą mieć wspólny zestaw reguł zwanych protokołami. Jako wielowarstwowy zestaw protokołów, aplikacje internetowe zazwyczaj wykorzystują cztery warstwy: (1) warstwę aplikacji, (2) warstwę transportową, (3) warstwę internetową i (4) warstwę sieciową. Dwa najbardziej krytyczne protokoły to (1) protokół kontroli transmisji (TCP) i (2) protokół internetowy (IP). Zazwyczaj Internet korzysta z protokołu TCP/IP w połączeniu z innymi urządzeniami, takimi jak routery, przełączniki, modem i zapory ogniowe. TCP/IP to uzgodniony standard komunikacji komputerowej przez Internet. Protokoły są zaimplementowane w oprogramowaniu działającym w każdym węźle. IP można uznać za wspólny wątek, który spaja cały Internet. Odpowiada za przenoszenie datagramów z jednego hosta na drugi przy użyciu różnych technik (lub algorytmów "routowania"). W Internecie istnieją dwa protokoły transportowe: (1) TCP i (2) UDP (User Datagram Protocol). TCP to usługa oparta na połączeniu, która zapewnia usługi potrzebne wielu aplikacjom. TCP zapewnia również segmentację długich wiadomości i mechanizm kontroli przeciążenia. UDP zapewnia usługi bezpołączeniowe.

Adres IP

Aby protokół IP działał, każdy komputer musi mieć swój własny numer identyfikacyjny. Ta liczba nazywana jest adresem IP. Serwer systemu nazw domen to komputer, który może zmienić nazwę hosta na adres IP i odwrotnie. Większość dzisiejszego Internetu korzysta z protokołu internetowego w wersji 4 (IPv4), który jest już bardzo stary. Ze względu na fenomenalny rozwój Internetu, szybki wzrost liczby palmtopów oraz obfitość smartfonów i palmtopów (osobistych asystentów cyfrowych), popyt na adresy IP przewyższył ilościowo ograniczoną podaż zapewnianą przez IPv4. W odpowiedzi na tę wadę IPv4, Internet Engineering Task Force zatwierdziła protokół internetowy wersja 6 (IPv6) w 1997 r. IPv4 zostanie zastąpiony przez IPv6, który jest czasem nazywany protokołem internetowym nowej generacji (lub IPng). Protokół IPv6 dodaje wiele ulepszeń i rozwiązuje szereg problemów związanych z protokołem IPv4, takich jak ograniczona liczba dostępnych adresów IPv4.

Usługi

Niektóre protokoły na poziomie aplikacji w większości implementacji TCP/IP obejmują FTP (File Transfer Protocol), TELNET (protokół terminala sieciowego do zdalnego logowania) i SMTP (prosta usługa przesyłania poczty). Na przykład FTP umożliwia użytkownikowi przesyłanie plików do iz komputerów podłączonych do Internetu. Bezpieczeństwo jest obsługiwane przez wymaganie od użytkownika określenia nazwy użytkownika i hasła dla drugiego komputera. TELNET umożliwia użytkownikowi logowanie się i korzystanie z innych komputerów podłączonych do Internetu niezależnie od ich lokalizacji. SMTP (dla poczty komputerowej) umożliwia użytkownikowi wysyłanie wiadomości użytkownikom na innych komputerach. Niektóre inne popularne zastosowania Internetu obejmują pocztę elektroniczną (e-mail) i sieć World Wide Web (WWW). Poczta elektroniczna jest najbardziej rozpowszechnioną aplikacją Internetu. Pozwala ludziom pisać tam iz powrotem, nie martwiąc się o koszty. WWW obejmuje wszystkie usługi internetowe. Obecnym fundamentem funkcjonowania WWW jest język programowania HTML (ang. Hypertext Markup Language). Protokół przesyłania hipertekstu (HTTP) to protokół TCP/IP używany do uzyskiwania dostępu do dokumentów WWW lub HTML

Inne sieci WAN

Poza Internetem, inne sieci WAN obejmują X.25, Frame Relay, wirtualne sieci prywatne (VPN), cyfrowe linie abonenckie (DSL) i synchroniczną sieć optyczną (SONET).

X.25. Jest to komunikacyjny protokół przełączania pakietów przeznaczony do wymiany danych w sieci WAN. X.25 został zaprojektowany w celu zapewnienia bezbłędnego dostarczania przy użyciu łączy o wysokim wskaźniku błędów. Został opracowany, gdy dominującymi technologiami były transmisja analogowa i media miedziane. X.25 istnieje od połowy lat 70. XX wieku i jest uważany za dobrze debugowany i stabilny. Jest to popularny standard sieci komutacji pakietów, zatwierdzony w 1976 roku przez Sektor Normalizacji Telekomunikacji Międzynarodowego Związku Telekomunikacyjnego dla komunikacji WAN. Typowe zastosowania X.25 obejmują sieci bankomatów i sieci weryfikacji kart kredytowych. X.25 zapewnia wysokiej jakości sieć cyfrową przy niskich kosztach. W większości części świata za X.25 płaci się miesięczną opłatę za połączenie plus opłaty pakietowe. Głównym ograniczeniem jest nieodłączne opóźnienie spowodowane przez mechanizm przechowywania i przekazywania.
Frame relay. Frame relay to interfejs używany w sieciach rozległych. Pojawił się jako niezależny protokół w 1989 roku. Frame relay to popularny sposób łączenia sieci LAN w wielu lokalizacjach. Oferuje większą wbudowaną niezawodność niż łącza dzierżawione. Frame relay wykorzystuje łącza światłowodowe o niższej stopie błędów, co pozwala na wyeliminowanie wielu usług świadczonych przez X.25. To, w połączeniu z łączami cyfrowymi, umożliwia działanie Frame Relay z szybkościami 20 razy większymi niż X.25. Główną zaletą wyboru Frame Relay jest to, że koszty nie są uzależnione od lokalizacji, tak jak w przypadku łączy dzierżawionych. Obsługuje wyższą przepustowość przy mniejszym obciążeniu i opóźnieniu niż X.25. Głównym ograniczeniem jest brak kontroli przepływu w przekaźniku ramek. Sieć po prostu odrzuca ramki, których nie może dostarczyć.
Wirtualne sieci prywatne. Obawy osób prywatnych, agencji rządowych i korporacji dotyczące bezpieczeństwa doprowadziły do szybkiego wzrostu wykorzystania VPN. Sieci dostarczane przez operatorów, które zachowują się jak sieci prywatne, są zwykle określane jako VPN. W VPN użytkownicy tunelują przez sieć publiczną w sposób, który na to pozwala uczestnikom tunelu korzystanie z bezpiecznego połączenia, tak jak w przypadku typowej sieci prywatnej. Istnieją różne rodzaje VPN. Każdy typ zależy od konkretnej funkcji, jaką pełni, a także różnych metod jego konstruowania. VPN stał się alternatywą dla łączy dzierżawionych do budowy sieci prywatnej.
Cyfrowa linia abonencka. Istnieje duże zainteresowanie zastosowaniem zaawansowanych nowych technik umożliwiających wykorzystanie istniejącego okablowania miedzianego w celu uzyskania dostępu do usług cyfrowych o wysokiej przepustowości. DSL może przenosić duże ilości informacji przez istniejące okablowanie miedziane ze skrętką, które już zapewnia usługi telefoniczne do domów abonentów. Odmiany DSL obejmują asymetryczne DSL, które może przenosić do 8 Mb/s w dół z centrali firmy telefonicznej do klienta i do 1,5 Mb/s z powrotem w górę. Jest to typ DSL używany w większości domów. Bardzo szybkie łącze DSL (VDSL) może przenosić do 60 Mb/s (megabitów na sekundę) na jednej linii telefonicznej. VDSL zakłada pewne wykorzystanie światłowodu do skrócenia długości linii telefonicznych, co jest zgodne z ewentualną migracją do światłowodu przez firmy telefoniczne.
Synchroniczna sieć optyczna. Pierwsza generacja transmisji światłowodowej była zastrzeżona i nie były dostępne żadne standardy. Aby sprostać zapotrzebowaniu na standardy, SONET został opracowany w Ameryce Północnej przez American National Standards Institute. Międzynarodowy Związek Telekomunikacyjny opracował później odpowiedni standard o nazwie Synchronous Digital Hierarchy (SDH).

SONET nie jest siecią komunikacyjną jak LAN czy WAN, ale bazową fizyczną siecią transportową. SONET to seria standardów American National Standards Institute dotyczących światłowodowej transmisji danych zdefiniowanych dla hierarchii szybkości (od 51,84 Mb/s do 2,488 Gb/s [gigabitów na sekundę]) i formatów. Technologia światłowodowa jest podstawą zarówno SONET, jak i SDH. SONET/SDH stał się de facto standardem przesyłania głosu i danych przez sieć optyczną. Światłowody wywarły znaczący wpływ na komunikację szerokopasmową. Kabel światłowodowy był używany do budowy superautostrad informacyjnych, które obejmują większość miast, krajów i świata. Korzystanie z SONET pomaga w osiągnięciu interoperacyjności sprzętu różnych dostawców w systemach światłowodowych. Ponieważ na SONET nie mogą pozwolić sobie wszyscy, nie jest on łatwo i wszędzie dostępny.

Aplikacje

Istnieje kilka nowych zastosowań sieci WAN lub Internetu, które mogą potencjalnie zmienić sposób, w jaki ludzie wykonują swoje rutynowe codzienne czynności. Aplikacje te stwarzają nowe wymagania dotyczące zasobów sieciowych. Typowe obejmują protokół Voice over Internet Protocol (VoIP), Internet rzeczy (IoT), handel elektroniczny, media społecznościowe, administrację cyfrową i przetwarzanie w chmurze.
Voice over IP . Ta technologia umożliwia transmisję sygnałów głosowych w czasie rzeczywistym w postaci danych pakietowych przez sieci IP wykorzystujące protokół TCP, protokół transportu w czasie rzeczywistym, UDP i pakiet IP. Typowa sieć VoIP składa się z przełączanej infrastruktury LAN z łączami WAN między jej głównymi kampusami. Sieć zazwyczaj wymaga co najmniej dwóch bramek VoIP. Bramy VoIP zapewniają pomost między lokalną siecią PSTN (publiczną komutowaną siecią telefoniczną) a siecią IP zarówno po stronie inicjującej, jak i kończącej połączenie. Aby obsługiwać standardową sygnalizację telefoniczną, bramki muszą wykorzystywać wspólny protokół, taki jak H.323 lub MGCP, lub protokół zastrzeżony.
Internet przedmiotów. Nastąpił gwałtowny wzrost liczby "rzeczy" lub urządzeń podłączonych do Internetu. IoT lub "Internet obiektów" to kolejny krok w ewolucji Internetu, ponieważ uwzględnia wszystkie podłączone do niego urządzenia. Pozwala wszelkiego rodzaju elementom (np. czujnikom, siłownikom, osobistym urządzeniom elektronicznym, laptopom, tabletom, aparatom cyfrowym, smartfonom, systemom alarmowym, sprzętowi AGD, maszynom przemysłowym) na autonomiczną interakcję ze sobą. Większość urządzeń, z których korzystamy obecnie, obsługuje technologię komunikacyjną. Takie urządzenia obejmują telefony komórkowe, czujniki, inteligentne sieci i laptopy. Urządzenia mogą wchodzić w interakcje między sobą za pośrednictwem Internetu, tworząc IoT. Celem IoT jest integracja i automatyzacja wszystkiego, od urządzeń gospodarstwa domowego po hale fabryczne. Eksperci przewidują, że do 2020 roku IoT będzie się składać z około 50 miliardów obiektów.
e-Commerce. Aby zachować konkurencyjność, coraz więcej firm korzysta z Internetu, aby świadczyć usługi online i zwiększać swój udział w rynku. Przeprowadzają transakcje biznesowe ze swoimi klientami i dostawcami przez Internet. Termin elektroniczny handel (lub e-commerce) odnosi się do procesu przeprowadzania transakcji biznesowych przez Internet. Na przykład pieniądze mogą być przesyłane między bankami drogą elektroniczną. Większość zakupów internetowych dokonywane jest za pomocą kart kredytowych, kart inteligentnych, gotówki elektronicznej oraz za pośrednictwem strony trzeciej, takiej jak PayPal. Typowe zastosowania związane z handlem elektronicznym obejmują zakupy online, bankowość internetową, systemy płatności, bilety elektroniczne i telekonferencje.
Media społecznościowe. Sieci społecznościowe stały się popularnym sposobem nawiązywania kontaktów i komunikowania się o wydarzeniach społecznych. Ułatwiają interakcję z rodziną i przyjaciółmi, którzy mają wspólne interesy osobiste lub polityczne. Pozwalają na samorealizację, autoprezentację i ujawnienie się jednostek. Stały się częścią naszej rutyny i są powszechnie akceptowane. Chociaż istnieje wiele serwisów społecznościowych, w tym Twitter, Myspace i LinkedIn, Facebook jest najpopularniejszy.
Cyfrowy rząd. Internet jest podstawą współczesnego życia politycznego. Dokonuje znaczących zmian na wszystkich poziomach władzy - federalnym, stanowym i lokalnym. Cyfrowy rząd odnosi się do korzystania z technologii informacyjnych, takie jak Internet i komputery mobilne, w celu wspierania operacji rządowych i świadczenia usług rządowych. Cyfrowy rząd, znany również jako sieciowy rząd lub e-administracja, to globalne zjawisko polegające na tym, że urzędnicy publiczni wykorzystują technologie informacyjno-komunikacyjne (ICT), aby lepiej służyć swoim wyborcom. Zastosowania ICT w usługach rządowych można podzielić na trzy szerokie kategorie: (1) zapewnianie dostępu do informacji, (2) usługi transakcyjne oraz (3) udział obywateli. ICT obejmuje Internet (i powiązane technologie - np. pocztę elektroniczną, WWW i sieci społecznościowe) oraz technologie komunikacyjne, takie jak komputery mobilne, telefony komórkowe i globalne systemy pozycjonowania. Cyfrowy rząd jest ważną domeną dla rządów każdego kraju. Ma na celu umożliwienie ludziom dostępu do informacji i usług rządowych w dowolnym miejscu, czasie i na dowolnym urządzeniu. Umożliwia także rządom informowanie, angażowanie, łączenie i mobilizację obywateli za pośrednictwem Internetu.
Chmura obliczeniowa. Internet radykalnie zmienił świat komputerów - od koncepcji przetwarzania równoległego do przetwarzania rozproszonego, przetwarzania sieciowego, a teraz do przetwarzania w chmurze. Przetwarzanie w chmurze zapewnia udostępnianie zasobów komputerowych i danych użytkownikom za pośrednictwem Internetu. Pomaga firmom poprawić ich możliwości IT bez inwestowania dużych kwot w centra danych. Jest to sposób łączenia i udostępniania zasobów sprzętowych i programowych na masową skalę. Ma na celu uczynienie z komputerów narzędzi takich jak woda, gaz, elektryczność i usługi telefoniczne. Użytkownicy i firmy mogą uzyskać dostęp do aplikacji z dowolnego miejsca na świecie w dowolnym czasie. Przetwarzanie w chmurze stwarza jednak obawy dotyczące prywatności i bezpieczeństwa, ponieważ usługodawca ma dostęp do danych w chmurze. Inne zastosowania sieci WAN lub Internetu obejmują bibliotekę cyfrową, prawo cyfrowe, obywatelstwo cyfrowe, e-zdrowie, czasopisma elektroniczne, sieci VPN i usługi edukacyjne, takie jak badania z wykorzystaniem silnika wyszukiwaniai.

Wyzwania i ograniczenia

Wyzwania i ograniczenia sieci WAN obejmują opóźnienia propagacji, bezpieczeństwo, przeciążenie informacjami, inżynierię społeczną i politykę. Opóźnienie propagacji. Ponieważ sieć WAN często skanuje duże obszary geograficzne, opóźnienia propagacji spowodowane dużymi odległościami mogą być znaczne. Aplikacje wrażliwe na opóźnienia są poważnie zagrożone nawet przy dużej przepustowości. Bezpieczeństwo. Świat, w którym wszystko jest połączone, budzi obawy dotyczące prawa jednostek do prywatności, świadomej zgody i poufności danych. Cele bezpieczeństwa obejmują dostępność, uwierzytelnianie, poufność, niezaprzeczalność i integralność. Dostępność odnosi się do idei, że dostęp do Internetu powinien być dostępny i niezawodny dla wszystkich użytkowników. Uwierzytelnianie zwykle obejmuje użycie nazwy użytkownika i hasła w celu potwierdzenia tożsamości użytkownika. Poufność zapewnia, że informacje w Internecie są zastrzeżone dla upoważnionych użytkowników. Niezaprzeczalność jest zapewnieniem odpowiedzialności za działanie. Integralność zapewnia, że dane, urządzenia i procesy są wolne od manipulacji. Ze względu na to, że oprogramowanie stale ewoluuje, utrzymanie bezpieczeństwa jest procesem niekończącym się.

Przeciążenie informacyjne.

Internauci mogą być bombardowani e-mailami, SMS-ami, wpisami na blogach i artykułami w swoich kanałach społecznościowych. Dostępność informacji za pośrednictwem potężnych wyszukiwarek, takich jak Google, to dobra rzecz, ale może to być więcej niż mózg może obsłużyć, zwłaszcza w połączeniu z informacjami z innych źródeł, takich jak telewizja. Istnieją dowody na to, że nadmiar informacji jest realnym problemem, z którym boryka się coraz większa liczba osób. Inżynieria społeczna. Inżynieria społeczna może być traktowana jako ogólny termin określający różne strategie manipulowania użytkownikiem. Akt wywierania wpływu i manipulowania ludźmi w celu ujawnienia poufnych informacji jest znany jako inżynieria społeczna lub ataki społeczne. Zagrożenia socjotechniczne, których źródłem jest człowiek, rosną ze względu na ciągłe udoskonalanie zabezpieczeń przed zagrożeniami opartymi na technologii. Zagrożenia socjotechniczne obejmują wysyłanie wiadomości e-mail w celu nakłonienia użytkownika do ujawnienia poufnych informacji, co jest taktyką znaną jako phishing.
Polityka. Sieci WAN mogą mieć zasięg międzynarodowy. Międzynarodowe sieci umożliwiają bankom łatwe przesyłanie pieniędzy. Mogą być wykorzystywane przez firmy produkcyjne do planowania produkcji w wielu lokalizacjach. Jednak sieci WAN, które przekraczają granice państwowe, mogą podlegać różnym jurysdykcjom prawnym. Problemy napotykane przez sieci międzynarodowe obejmują język, politykę i przepisy. Próby regulacji, cenzury lub nadzorowania Internetu napotykają szereg wyzwań na całym świecie.



Powrót

Wi-Fi



Wi-Fi to niezbędna technologia bezprzewodowego dostępu do Internetu. Wi-Fi to popularna nazwa sieci opartych na standardzie IEEE 802.11 Wireless LAN (sieć lokalna), który został pierwotnie opublikowany w 1997 roku i jest utrzymywany przez IEEE LAN/MAN Standards Committee. Wi-Fi jest znakiem towarowym Wi-Fi Alliance, ogólnoświatowej sieci firm non-profit, która została założona w 1999 roku w celu koordynowania rozwoju produktów opartych na Wi-Fi poprzez rygorystyczny program certyfikacji interoperacyjności. Popularność i sukces komercyjny Wi-Fi można przypisać dwóm czynnikom. Po pierwsze, branży udało się stworzyć interoperacyjną ofertę produktów opartą na technologii, która zapewnia wysokowydajną usługę danych przydatną w szerokim zakresie typów sieci i aplikacji. Po drugie, polityka regulacyjna Wi-Fi, która wykorzystuje nielicencjonowane, współdzielone widmo częstotliwości, pozwala każdemu na swobodne wdrażanie sieci Wi-Fi. Ułatwiło to wielkie innowacje w korzystaniu z Wi-Fi. Ten wpis zawiera przegląd technologii Wi-Fi i jej skutków społecznych.

Technologia Wi-Fi

Standard bezprzewodowej sieci LAN 802.11 obejmuje specyfikacje warstwy fizycznej dla kilku pasm częstotliwości, z których pasmo 2,4 GHz (gigaherc) ISM (przemysłowe, naukowe i medyczne) oraz pasmo 5 GHz U-NII (nielicencjonowana krajowa infrastruktura informacyjna) są najbardziej odpowiednie dla Internetu dostęp. Dostępne widmo częstotliwości jest podzielone na zestaw kanałów 20 MHz (megaherców), które częściowo zachodzą na siebie w paśmie 2,4 GHz i nie zachodzą na siebie w paśmie 5 GHz. Pasmo 2,4 GHz jest współużytkowane przez wiele innych technologii i urządzeń, takich jak Bluetooth, telefony bezprzewodowe i bezprzewodowy sprzęt audio/wideo, które mogą zakłócać działanie sieci Wi-Fi. Chociaż najnowsze wersje Wi-Fi obejmują automatyczną kontrolę mocy transmisji i wybór kanału w celu zmniejszenia zakłóceń między konkurencyjnymi transmisjami, w szczególności pasmo 2,4 GHz jest często nadal przeciążone. Dlatego najnowsza specyfikacja, 11ac, wykorzystuje tylko pasmo 5 GHz. Jednak ze względu na wyższą częstotliwość jest gorszy od 2,4 GHz pod względem zasięgu przestrzennego i penetracji przeszkód fizycznych. Przez lata Wi-Fi nadążało za wyścigiem prędkości, przyjmując bardziej zaawansowane mechanizmy modulacji i kontroli dostępu do medium, łączenie kanałów i wiele anten obsługujących wiele strumieni danych przestrzennych w projekcie MIMO (multiple input multiple output). Zostało to zrealizowane w serii zgodnych wstecz specyfikacji zapewniających lepsze nominalne szybkości transmisji danych w warstwie fizycznej: 11b (1999, 2,4 GHz, 11 Mb/s [megabitów na sekundę]), 11a (1999, 5 GHz, 54 Mb/s), 11g (2003, 2,4/5 GHz, 54 Mb/s), 11n (2009, 2,4/5 GHz, 600 Mb/s) i 11ac (2013, 5 GHz, 6933 Mb/s). Rzeczywista szybkość transmisji danych na poziomie aplikacji jest mniejsza ze względu na obciążenie protokołu. Na przykład, podczas gdy maksymalna szybkość transmisji danych w warstwie fizycznej dla pojedynczego strumienia 11ac wynosi 433 Mb/s, maksymalna przepustowość UDP (User Datagram Protocol) wynosi 353 Mb/s. Efektywny zasięg przestrzenny połączenia Wi-Fi zależy od wielu czynników środowiskowych, takich jak obecność i rodzaj fizycznych przeszkód między komunikującymi się urządzeniami. Dlatego niemożliwe jest podanie jakichkolwiek dokładnych wartości dla zasięgu przestrzennego Wi-Fi. Jednak 11ac ma zasięg kilkudziesięciu metrów w pomieszczeniach i kilkaset metrów na zewnątrz. Na przestrzeni lat standard 802.11 był wielokrotnie zmieniany w różnych celach. Na przykład norma 802.11e opublikowana w 2005 r. określała ulepszenia QoS (jakość usług), których podzbiór został następnie zaimplementowany w specyfikacji WMM (Wi-Fi multimedia) stowarzyszenia Wi-Fi Alliance, zapewniając cztery priorytetowe kategorie usług: (1) Głos, (2 ) Wideo, (3) Najlepszy wysiłek i (4) Tło. Sieci Wi-Fi są budowane poprzez wdrażanie punktów dostępowych, które dbają o kontrolę dostępu do medium i zapewniają łącza bezprzewodowe punkt-punkt i punkt-wielopunkt do innych urządzeń, w zależności od konfiguracji anteny. Punkty dostępowe są zwykle podłączone do przewodowej sieci szkieletowej, często sieci Ethernet LAN, która dystrybuuje dane i zapewnia pewien poziom obsługi mobilności podłączonych urządzeń poruszających się między punktami dostępowymi. Alternatywnie, w topologii siatki tak zwane węzły szkieletowe zapewniają bezprzewodową łączność typu backhaul z innymi węzłami, co zmniejsza potrzebę często kosztownych lub niedostępnych przewodowych połączeń szkieletowych. Sieć można zbudować z autonomicznymi punktami dostępowymi posiadającymi własne systemy operacyjne lub ze scentralizowanymi kontrolerami zarządzającymi prostymi punktami dostępowymi. Punkty dostępu przeznaczone do użytku w domu i małym biurze nazywane są routerami, które zawierają funkcję NAT (translacja adresów sieciowych) i DHCP (protokół dynamicznej konfiguracji hosta) w celu udostępniania podłączonym urządzeniom dynamicznych i prywatnych adresów protokołu internetowego (IP). Punkt dostępowy jest skonfigurowany do rozgłaszania nazw jednej lub kilku sieci logicznych, do których łączą się urządzenia bezprzewodowe i które mogą mieć różne konfiguracje pod względem parametrów bezpieczeństwa i jakości usług. Jeśli chodzi o bezpieczeństwo, punkt dostępowy można skonfigurować tak, aby nie wymagał od łączących się urządzeń uwierzytelniania się poprzez przedstawienie hasła i nie szyfrował komunikacji w łączu bezprzewodowym między punktem dostępowym a podłączonymi urządzeniami. Obecna wielkość rynku produktów Wi-Fi to ilustruje fakt, że w marcu 2017 r. około 31 500 różnych produktów w ośmiu różnych kategoriach urządzeń uzyskało certyfikat Wi-Fi Alliance. Jednak tylko około 250 z nich było zgodnych z najnowszą specyfikacją 11ac. Wi-Fi można łatwo zintegrować z tysiącami urządzeń użytkowników, komputerami, laptopami, telefonami, konsolami do gier, aparatami fotograficznymi, telewizorami, dekoderami i urządzeniami wbudowanymi. The Wi-Fi Alliance oszacowało, że liczba sprzedawanych miesięcznie produktów Wi-Fi po raz pierwszy przekroczyła 10 miliardów sztuk w styczniu 2015 r. Ze względu na ekonomię skali sprzęt Wi-Fi jest stosunkowo tani; podstawowy router Wi-Fi przeznaczony do użytku domowego kosztuje tylko od 20 do 30 USD.

Skutki społeczne

Zapewnianie bezprzewodowego szerokopasmowego dostępu do Internetu

Kiedy pierwsze produkty 11b stały się dostępne w 2000 roku, Wi-Fi miało natychmiastowy wpływ, zapewniając bezprzewodowy szerokopasmowy dostęp do Internetu. Model 11b z efektywną szybkością transmisji danych na poziomie 5 Mb/s i opóźnieniem w obie strony wynoszącym zaledwie kilkadziesiąt milisekund (ms) wypadł bardzo korzystnie w porównaniu ze współczesnymi mobilnymi (komórkowymi) sieciami danych, które oferowały zaledwie kilkadziesiąt kb/s szybkości transmisji danych przy kilkuset ms opóźnieniach, oraz Sieci 3G zapewniające szybkość transmisji danych do 2 Mb/s z opóźnieniami powyżej 100 ms były jeszcze oddalone o kilka lat. W 2017 r. konkurencja jest inna, ponieważ mobilne sieci danych 4G (LTE) mogą zapewniać nominalne szybkości transmisji danych do 100 Mb/s przy opóźnieniach rzędu kilkudziesięciu ms. W większości krajów rozwiniętych każdy może teraz uzyskać dostęp do Wi-Fi za pośrednictwem bezpłatnych punktów dostępowych; zaowocowało to wieloma innowacyjnymi zastosowaniami technologii Wi-Fi.

Bezprzewodowe hotspoty

Wraz z premierą pierwszych produktów 11b pojawili się usługodawcy, którzy oferowali hotspoty Wi-Fi dla kawiarni, restauracji, lobby hotelowych, poczekalni lotniskowych i innych miejsc, w których ludzie chcieliby korzystać z bezprzewodowego dostępu do Internetu na swoich urządzeniach osobistych za opłatą lub jako bezpłatna usługa dotowana przez lokalizację jako sposób na przyciągnięcie klientów (wykres 1). Od 2017 roku najwięksi dostawcy usług Wi-Fi mieli dziesiątki milionów hotspotów na całym świecie. Ponadto wielu operatorów sieci komórkowej transmisji danych korzysta z hotspotów Wi-Fi, wdrażając własne hotspoty lub dzierżawiąc je od dostawców usług Wi-Fi, aby zwiększyć ogólną przepustowość usług transmisji danych i zmniejszyć obciążenie sieci komórkowej transmisji danych, przenosząc ruch danych do hotspotów Wi-Fi. Poszczególne organizacje, takie jak kawiarnie i prywatni obywatele, również wdrożyły liczne hotspoty, po prostu podłączając punkt dostępu Wi-Fi do swojego połączenia internetowego. Interesującym zagadnieniem prawnym jest to, czy hotspot można skonfigurować tak, aby był otwarty, tak aby zapewniał każdemu dostęp do Internetu bez uwierzytelniania. W niektórych krajach zapewnianie dostępu do Internetu bez uwierzytelniania jest po prostu zabronione i mogą obowiązywać wymagania, takie jak rejestrowanie korzystania z hotspotu. Kolejną kwestią związaną z otwartymi hotspotami jest odpowiedzialność wtórna (tj. odpowiedzialność właściciela otwartego hotspotu za korzystanie przez inną osobę z połączenia internetowego zapewnianego przez otwarty hotspot w celach niezgodnych z prawem). W krajach, w których obowiązuje odpowiedzialność wtórna, właściciel takiego otwartego hotspotu może zostać pociągnięty do odpowiedzialności np. za naruszenie praw autorskich innych osób. Jednak w większości krajów odpowiedzialność wtórna otwartych hotspotów nie jest egzekwowana. Badania etnograficzne hotspotów Wi-Fi ujawniły przestrzenne, czasowe i społeczne różnice w ich praktykach użytkowania. Stwierdzono, że hotspoty tworzą tak zwane trzecie miejsca, oprócz biura i domu, do których ludzie udają się, aby wykonywać zadania związane zarówno z pracą, jak iz wypoczynkiem, ułatwione przez łączność internetową. Wybór hotspotu podyktowany jest rytmem życia i możliwościami komunikacyjnymi. Ludzie mogą potrzebować przebyć tylko kilometr lub dwa w miastach, aby dotrzeć do hotspotu z bezpłatnym dostępem do Internetu, ale muszą podróżować dziesiątki kilometrów na obszarach wiejskich.

Bezprzewodowe sieci kampusowe

Wkrótce po wprowadzeniu na rynek, Wi-Fi stało się popularne jako bezprzewodowe rozszerzenie przewodowych sieci LAN na kampusach organizacji publicznych i prywatnych. Zwykle wdrażają wiele punktów dostępowych, aby zapewnić ciągły zasięg na większych obszarach, co pozwala urządzeniom Wi-Fi łączyć się z Internetem bez przewodów i być mobilnym podczas połączenia. We wczesnych latach sieci kampusowe były budowane z autonomicznymi punktami dostępowymi. Obecnie dominującym podejściem jest stosowanie scentralizowanych kontrolerów zarządzających szeregiem prostych punktów dostępowych, co upraszcza zarządzanie siecią. Topologia siatki jest wykorzystywana do wdrażania punktów dostępowych w miejscach, w których zapewnienie jakiegokolwiek przewodowego systemu dystrybucji może być kosztowne lub niemożliwe. Sieć kampusowa jest często konfigurowana do oferowania wielu sieci logicznych. Po pierwsze, sieć organizacyjna (pracownicza) wymagająca uwierzytelniania i szyfrowania komunikacji może zapewniać oprócz dostępu do Internetu dostęp do usług LAN. Po drugie, publiczna sieć dla gości zapewniająca jedynie bezpłatny dostęp do Internetu jest skonfigurowana tak, aby (nie) wymagać uwierzytelniania i (nie) szyfrować komunikacji, w zależności od polityki organizacji i przepisów krajowych. Obecnie duże sieci kampusowe mają tysiące punktów dostępowych, z których każdy może generować setki Mb/s (megabitów na sekundę) ruchu danych. Zatem fundamentalnym wyzwaniem technicznym jest zapewnienie wystarczającej przepustowości dystrybucji dla zagregowanego ruchu, szczególnie na bramie łączącej dużą sieć kampusową z publicznym Internetem. Sieci kampusowe zostały zbadane w celu zrozumienia ich wzorców użytkowania pod względem rytmów przestrzennych i czasowych, aplikacji i typów ruchu, co można następnie wykorzystać do ulepszenia projektowania, wdrażania i zarządzania takimi sieciami.

Bezprzewodowe sieci społecznościowe

Wkrótce po tym, jak pierwsze produkty 11b pojawiły się na rynkach konsumenckich, pojawiły się nowe sieci bezprzewodowe, w których grupy ludzi i organizacji łączyły swoje zasoby sieciowe, aby wspierać społeczność. Członkowie sieci społecznościowej są często zarówno dostawcami, jak i użytkownikami sieci, dzieląc dostęp na zasadzie wzajemności. Ponadto członek może bezinteresownie ofiarować bezpłatny dostęp do Internetu, mając nadzieję, że inni członkowie odpowiedzą w ten sposób. Członek zazwyczaj wnosi jeden lub więcej węzłów w postaci punktu dostępu Wi-Fi i ewentualnie połączenia internetowego. Bezprzewodowa sieć społecznościowa jest zwykle wdrażana z topologią hotspotu lub siatki, a często dostarczane jest dostosowane oprogramowanie do konfigurowania punktów dostępu pod kątem adresowania IP i kierowania ruchu. Kluczową zasadą leżącą u podstaw sieci społecznościowych jest bezpłatny tranzyt, który wymaga od właściciela punktu dostępu wyrażenia zgody na zapewnienie bezpłatnego tranzytu danych innych członków bez modyfikowania lub ingerowania w dane przesyłane przez sieć. Oprócz początkowych sieci opartych na społecznościach typu non-profit, z czasem pojawiły się również sieci społecznościowe oparte na inicjatywach komercyjnych i miejskich. W inicjatywach komercyjnych firmy wspierają rozwój społeczności bezprzewodowych, oferując usługi pośrednictwa, takie jak udostępnianie prywatnych hotspotów za niewielką opłatą pieniężną lub dostęp do Internetu. Budowę mogą wspierać gminne sieci społecznościowe, udostępniając zasoby sieciowe i witryny dla punktów dostępu. Obecnie największe sieci społecznościowe non-profit mają dziesiątki tysięcy węzłów. Niektóre sieci społecznościowe wdrożone w krajach, w których obowiązuje odpowiedzialność wtórna, zdecydowały się skierować swój ruch do publicznego Internetu przez kraj, w którym nie obowiązuje odpowiedzialność wtórna.

Miejskie sieci bezprzewodowe

Miejska sieć bezprzewodowa odnosi się do gminy odgrywającej rolę w zapewnianiu dostępu do sieci szerokopasmowej na swoim terytorium za pomocą niektórych technologii bezprzewodowych. W większości przypadków sieci te są wdrażane w miastach, stąd alternatywny termin bezprzewodowych sieci miejskich. Chociaż Wi-Fi nigdy nie było pierwotnie przeznaczone do budowy dużych bezprzewodowych sieci metropolitalnych zapewniających zasięg na zewnątrz, wkrótce stało się popularne do tego celu ze względu na dostępność taniego i solidnego sprzętu, dużą penetrację urządzeń użytkowników i zwolnienie z licencji częstotliwości. Wiele gmin rozpoczęło poszukiwania, aw niektórych przypadkach zaangażowało się we wdrażanie sieci Wi-Fi. Rozkwitły szczególnie w Ameryce Północnej, gdzie do 2006 roku ogłoszono setki projektów. Wi-Fi było przełomową technologią, która pozwoliła gminom rzucić wyzwanie duopolowi "cabelco". Jednak boom został wkrótce zatrzymany, gdy ujawniono techniczne, ekonomiczne i polityczne słabości projektów i połączono je z przeszkodami prawnymi. W wielu projektach stawiano Wi-Fi nierealistyczne oczekiwania dotyczące wydajności technicznej w zakresie szybkości transmisji danych, zasięgu bezprzewodowego, mobilności i jakości usług, chociaż Wi-Fi nie może zapewnić żadnych twardych gwarancji wydajności. Ponadto branża telekomunikacyjna agresywnie sprzeciwiała się sieciom miejskim, argumentując, że świadczenie usług komunalnych jest nieskuteczne, a sieci miejskie finansowane z podatków nie konkurują na równych warunkach z sieciami komercyjnymi. Branża mocno lobbowała decydentów, którzy odpowiedzieli, wprowadzając ograniczenia prawne w sieciach miejskich. Z tych powodów wiele głośnych projektów zakończyło się niepowodzeniem na przestrzeni lat, często przed zbudowaniem jakiejkolwiek sieci. Niemniej jednak wiele sieci miejskich zostały pomyślnie wdrożone na całym świecie. Przyświecają im różne cele, w tym rozpowszechnianie zaawansowanego wizerunku "inteligentnego miasta", stymulowanie lokalnej struktury gospodarczej i konkurencji w zakresie łączy szerokopasmowych, niwelowanie przepaści cyfrowej, wspieranie edukacji i turystyki, zapewniając platformę dla innowacji i usług e-administracji oraz wdrażając sieć dla personelu rządowego. Miejskie sieci bezprzewodowe wykorzystują bardzo różne modele biznesowe pod względem wkładu sektora publicznego i prywatnego we własność i obsługę sieci oraz świadczenie usług. Nakłady gmin obejmują zarówno wynajem terenu, jak i pełne finansowanie, własność i eksploatację sieci. Następnie gminy uzyskują zróżnicowany zwrot z inwestycji w zakresie kontroli i usług, począwszy od ograniczonej ilości bezpłatnego korzystania przez pracowników miejskich do pełnej kontroli i całkowicie bezpłatnego dostępu dla ogółu społeczeństwa. Badania miejskich sieci Wi-Fi zidentyfikowały niezgodność między metaforami afordancji głoszonymi dla sieci a afordancjami rzeczywistymi doświadczanymi przez użytkowników sieci jako kluczowe wyzwanie dla ich przyjęcia. Wiele gmin reklamuje swoją sieć Wi-Fi jako narzędzie użyteczności publicznej zapewniające nieograniczony i wszechobecny dostęp do Internetu, podczas gdy użytkownicy postrzegają sieć jako zbiór rozłącznych hotspotów połączonych z problemami dostępności, takimi jak przerywana łączność, niska przepustowość, blokowanie określonych aplikacji, ukryte metki z cenami oraz konieczność posiadania kont użytkowników i dedykowanego sprzętu.



Powrót

WikiLeaks



WikiLeaks to organizacja non-profit, która publikuje poufne dokumenty, zdjęcia i filmy dotyczące rządu i firm. Założona przez Juliana Assange′a w 2006 roku i prowadzona przez małą, tajną grupę podstawową, WikiLeaks udostępniła do publicznej wiadomości ogromne transze dokumentów z krajów na całym świecie. Dokumenty te, pochodzące z oficjalnych archiwów i baz danych, które wyciekły do organizacji przez źródła wewnętrzne lub osoby, które uzyskały do nich dostęp, zostały ujawnione we współpracy z głównymi gazetami i magazynami, takimi jak Der Spiegel (Niemcy), The New York Times (The Stany Zjednoczone), The Guardian (Wielka Brytania) i The Hindu (Indie). Komunikaty obejmowały między innymi wymianę e-maili (oficjalne i osobiste), dokumenty polityczne, nagrania audio i wideo, zapisy z nadzoru, protokoły kluczowych spotkań, instrukcje operacyjne i dokumentację finansową. W tym wpisie omówiono niektóre rewelacje WikiLeaks oraz sposób, w jaki organizacja może być postrzegana pod kątem światowego porządku informacyjnego, geopolityki, mówienia prawdy, archiwów oraz suwerenności rządu i jednostki. WikiLeaks zaczęło przyciągać znacznie więcej uwagi mediów informacyjnych począwszy od 2010 roku, po opublikowaniu wideo z 2007 roku pokazującego załogę helikoptera armii amerykańskiej, która fałszywie twierdziła, że była świadkiem strzelaniny w Bagdadzie, a następnie śmiała się po rozpoczęciu nalotu, w którym zginęło tuzin osób. ludzie. Analityk wywiadu wojskowego, Chelsea Manning, wówczas znana jako Bradley Manning, przekazała nagranie i setki tysięcy innych tajnych akt Departamentu Stanu do WikiLeaks. Manning, który miał pewne doświadczenie z komputerami i hakowaniem, miał dostęp do Joint Worldwide Intelligence Communications Systems. Gdy natrafiła na zbiór dokumentów wojennych, które dowiodły jej bezprawności działań armii amerykańskiej, zgrała je na płytę kompaktową, przemyciła z pokoju łączności, a później, po przeniesieniu na pendrive, zabrała ze sobą z nią do Stanów Zjednoczonych, kiedy wyjechała na 2-tygodniowy urlop. Manning wysłał materiały do WikiLeaks, aw lutym 2010 roku opublikował pierwszy z tych materiałów. Wracając do Iraku między marcem a kwietniem, Manning ujawnił afgańskie dzienniki wojenne i liczne depesze dyplomatyczne. Manning zaczęła korespondować z Adrianem Lamo, byłym hakerem, i ujawniła, że ona, Manning, dostarczyła WikiLeaks poufne materiały wojskowe i dyplomatyczne. W maju 2010 roku Lamo przekazał FBI swoje rozmowy z Manningiem, mówiąc, że wierzy, że działania Manninga zagrażają życiu, co doprowadziło do aresztowania Manninga. Manning został skazany w 2013 roku na podstawie ustawy o szpiegostwie i skazany na 35 lat więzienia. Po skazaniu Manning ogłosiła, że jest transpłciowa i zmieniła nazwisko na Chelsea. W styczniu 2017 r. Prezydent Barack Obama zamienił jej pozostałe 4 miesiące kary, a ona została zwolniona w maju. Manning ujawnił prawie 400 000 tajnych dokumentów Pentagonu na temat wojny w Iraku i około 80 000 na temat wojny w Afganistanie. Dzienniki wojenne stanowiły najbardziej niszczycielską część dokumentów WikiLeaks. Jednym z elementów dzienników wojennych w Iraku był film z 2007 roku, w którym załoga helikoptera strzelała do cywilów i zabijała ich, w tym dwóch dziennikarzy agencji Reuters, oraz poważnie raniła dwoje dzieci. Innym znaczącym ujawnieniem było 251 287 poufnych depesz dyplomatycznych, niektóre z nich sklasyfikowane, wysłanych przez amerykańskich dyplomatów do Departamentu Stanu USA. Depesze, które WikiLeaks zaczęło publikować w listopadzie 2010 r., zawierały szczerą ocenę dyplomatów na temat krajów przyjmujących i ich przywódców. W kwietniu 2011 r. WikiLeaks zaczęło publikować tajne dokumenty dotyczące więźniów przetrzymywanych w obozie przetrzymywania Guantanamo Bay na Kubie. Rewelacje opublikowane przez WikiLeaks pokazują, że rządy szpiegują się nawzajem, nawet jeśli są pozornie sojusznikami. Ujawnił również informacje o miejscach, o których wcześniej niewiele było wiadomo, w tym o Guantanamo. Te rewelacje przyczyniły się do zmiany kulturowej w publicznym postrzeganiu zarówno rządów, jak i technologii. Oprócz własnych rewelacji, WikiLeaks udzieliło wsparcia Edwardowi Snowdenowi, który ujawnił dziennikarzom The Guardian i The Washington Post informacje o programach inwigilacyjnych Agencji Bezpieczeństwa Narodowego USA. Tuż przed pojawieniem się pierwszych artykułów na temat inwigilacji w 2013 roku Snowden poleciał do Hongkongu. Rząd USA cofnął mu paszport, ale Snowden w towarzystwie pracownika WikiLeaks Sarah Harrison poleciał w czerwcu 2013 roku do Rosji, która następnie udzieliła mu azylu; przebywał w Moskwie do końca 2017 roku. WikiLeaks walczyła o przetrwanie jako organizacja. Widział wewnętrzne konflikty w swoich szeregach, Assange jest zbiegiem w ambasadzie Ekwadoru w Londynie, a instytucje finansowe odmówiły przetwarzania darowizn na rzecz organizacji. Opinie są podzielone co do roli, jaką WikiLeaks odegrało i nadal odgrywa w kształtowaniu opinii światowej, procesów bezpieczeństwa, polityki rządu i stosunków międzynarodowych w krajach na całym świecie.

>Informacje

Porządek świata, geopolityka i mówienie prawdy

WikiLeaks reprezentuje informacyjny porządek świata, który rozpakowuje tekstową lub dokumentalną geopolitykę rządzącą systemami światowymi. Wyciek i późniejsza publikacja dokumentów z różnych krajów, dotyczących wojny, polityki gospodarczej i intryg politycznych, ujawniły szczegóły rządów i ich procesów w nowy sposób. WikiLeaks można postrzegać jako siłę wyrównującą w geopolityce poprzez sposób, w jaki ujawnia tajemnice demokracji, autokracji i państw totalitarnych. WikiLeaks oferuje również potencjał "geopolityki internetowej", w której dzięki rozpowszechnianiu informacji o rządach i lokalnych kryzysach wolności oraz narażeniu/na cierpienie Innych możliwe są "geografie współczucia i empatii" poprzez sieci i powiązania ( Warf, 2012, s. 699). Chociaż to ostatnie może jeszcze nie być rzeczywistością, można je odczytać jako aspiracje. WikiLeaks reprezentuje również formę technologicznego mówienia prawdy o rządzących. Ta forma mówienia prawdy poprzez publicznie dostępne źródło informacji o procesach rządzenia jest integralną częścią demokracji, którą można "wymyślić, zakwestionować lub przekształcić" (Sauter i Kendall, 2011, s. 13). Związek informacji z demokracją jest dość prosty (zwłaszcza w epistemologicznym modelu demokracji): informacje o ludziach, procesach i operacjach władzy umożliwiają świadome podejmowanie decyzji i przyczyniają się zarówno do formalnych, jak i nieformalnych rozważań na temat rządu. W przypadkach, w których nie ma demokracji, informacje ujawnione przez WikiLeaks mogą ujawnić procesy opresji. WikiLeaks ma rozproszoną publiczność, która może obejmować między innymi prawników, którzy wykorzystują te informacje do składania petycji lub rozpoczynania kampanii, oraz zainteresowanych i poinformowanych członków społeczeństwa obywatelskiego, którzy doświadczają oburzenia. W związku z tym niewiele wysiłku wkłada się w uporządkowanie materiałów lub wprowadzenie ich w określony sposób, a interpretacje "oficjalnego" w dokumentach państwowych pozostawia się słuchaczom. WikiLeaks kieruje uwagę czytelników i widzów na tajemnicę rządową, ujawniając techniki inwigilacji i systematyczną korupcję, które podważały procesy demokratyczne, a niektórzy kwestionują zaufanie do rządu. Jednocześnie ujawnienie tych informacji może zachęcić ludzi do przeformułowania swoich poglądów na temat rządu i pobudzić debaty na temat przyszłości demokracji.

Archiwa

Archiwa są przejawem nie tylko potęgi gromadzenia informacji, ale także ich interpretacji przez osoby odpowiedzialne. Nadzór państwowy i gromadzenie danych mają kluczowe znaczenie dla systemu zarządzania i kontroli pod pretekstem zwiększania bezpieczeństwa poprzez zarządzanie ryzykiem. WikiLeaks ucieleśnia nie tylko inny sposób gromadzenia i archiwizowania informacji, ale także inny sposób interpretacji: jest to nieograniczona publiczna interpretacja. Stworzenie kontrarchiwum jest istotne, ponieważ umożliwia krążenie nieoficjalnych dyskursów w języku narodowym bez interwencji państwa. Jednak nawet to kontrarchiwum ma strukturę. Bart Cammaerts (2012) stwierdził, że WikiLeaks reprezentuje "strukturę możliwości mediacji" (s. 118). Proponuje, aby sieci i organizacje, takie jak WikiLeaks, wykorzystywały możliwości dyskursywne i sieciowe; są jednak również ograniczeni przez same struktury, z których korzystają (np. gazety). Starannie wynegocjowane zaangażowanie WikiLeaks w media głównego nurtu, argumentuje Cammaerts, jest zgodne z innymi, starszymi formami protestu. Allan Sekula (1999) argumentował, że istnieje "archiwum cieni", historyczny zestaw obrazów, który umożliwia pojawienie się i kulturową zrozumiałość dowolnego obrazu. WikiLeaks można postrzegać jako archiwum w cieniu utworzone z oficjalnego archiwum. Idea archiwum cieni może również oznaczać, że dokumenty, dowody i dane rutynowo gromadzone przez agencje nadzoru ukrywają archiwum cienia - archiwum oficjalne, które porządkuje, ale sprawia, że bardziej problematyczne zapisy stają się niewidoczne. WikiLeaks ujawniło ten bardziej problematyczny zestaw dokumentów, czający się w oficjalnym archiwum. Można argumentować, że ujawnienie korupcji lub nielegalnych działań państwa wyłania się z dokumentacji jego legalnych działań, jak archiwum cieni wyłaniające się z oficjalnego.

WikiLeaks, Suwerenne Rządy i Indywidualna Suwerenność

Naukowiec zajmujący się badaniami nad inwigilacją, David Lyon, poczynił trzy obserwacje odnoszące się do niektórych ujawnień WikiLeaks: (1) Nawet rządy w społeczeństwach demokratycznych inwigilują własnych obywateli; (2) prywatne firmy i korporacje, głównie dostawcy usług internetowych i wyszukiwarki, udostępniają te dane rządowi; oraz (3) poszczególni obywatele również współpracują, często nieświadomie, we wzmacnianiu kultury nadzoru poprzez korzystanie z Internetu i pracę w mediach społecznościowych. Lyon zauważył, że wszystkie formy gromadzenia danych są obecnie przedmiotem rządowych dochodzeń, archiwizacji i profilowania. Uważa się, że w okresie poprzedzającym wybory prezydenckie w USA w 2016 r. ujawnienie przez WikiLeaks zhakowanych e-maili kierownika kampanii Hillary Clinton, Johna Podesty, przyczyniło się do utraty Clinton. E-maile zawierały dyskusje wśród personelu kampanii na temat powiązań Clintona z Wall Street i tego, jak reagować na zarzuty dotyczące Fundacji Clintona. W przypadku India Cables WikiLeaks ujawniło, że wszystkie partie polityczne walczące o władzę negocjowały z rządem USA, który żywo interesował się stanowiskami ministerialnymi i administracyjnymi na najwyższych szczeblach indyjskiego rządu. W marcu 2011 r. indyjskie gazety donosiły o informacjach zawartych w depeszach, w tym o tajnej korespondencji, w której Bharatiya Janata Party (wówczas opozycyjna wobec Kongresu) zapewniała Stany Zjednoczone o pełnej współpracy w sprawie porozumienia nuklearnego w przypadku powrotu do władzy. Giorel Curran i Morgan Gibson argumentują, że WikiLeaks nie jest antypaństwowe i nie sprzeciwia się suwerenności państwa. Według Currana i Gibsona WikiLeaks walczy ze scentralizowaną władzą i autorytetem instytucjonalnym, projektując zamiast tego wolne i zdecentralizowane przestrzenie publiczne jako jedynego gwaranta wolności i indywidualnej autonomii. To, co ulega erozji, to nie suwerenność państwa, ale suwerenność państwa w zakresie publicznie istotnych informacji, jego scentralizowane struktury decyzyjne i hierarchiczna instytucjonalizacja. WikiLeaks inicjuje proces "niedobrowolnej przejrzystości" (Shkabatur, 2012, s. 81). Rząd lub agencja państwowa nie mogą pozostać z zamkniętymi granicami i zamkniętymi wnętrzami, ponieważ przecieki opublikowane przez WikiLeaks sprawiają, że te granice są nieszczelne. Te same technologie, których państwo używa do monitorowania swoich obywateli, mogą zostać wykorzystane do penetracji tajemnic państwowych. W rzeczywistości oznacza to, że rząd jest otwarty na opinię publiczną i przepływ informacji w systemie dwukierunkowym: tak jak państwo gromadzi informacje o podlegających mu społeczeństwach, społeczeństwo narzuca mimowolnie przejrzystość. Rezultatem, jak widzieliśmy w demokracjach, takich jak Stany Zjednoczone i Indie, były kontrowersyjne i kwestionowane poglądy, różne historie i oficjalne wersje przepychające się o przestrzeń narracji i uwagi. Archiwum oficjalne jest, jak się często sugeruje, strażnikiem suwerenności państwa. Przeciwnicy działań WikiLeaks argumentowali, że publikowane przez nią przecieki mogą zagrozić suwerenności narodu poprzez kompromitację procesów, ludzi i władzy w państwie. Krytycy tego poglądu argumentowali, że rządy zlecały na zewnątrz swoje funkcje, usługi i procesy przez ostatnie kilka dziesięcioleci, a tym samym i tak osłabiły suwerenność. WikiLeaks można zatem postrzegać jako część tego samego trendu. Kwestia suwerenności stwarza interesujące dylematy, ponieważ podczas gdy interwencje państwa poza granicami były postrzegane jako zapewnienie ich suwerennej sprawczości, działania WikiLeaks - które można odczytać jako interwencje informacyjne - ponad granicami były traktowane jako naruszenie suwerenności. Jak argumentował Simon Mabon w przypadku WikiLeaks i wydarzeń Arabskiej Wiosny w 2010 i 2011 roku, mimo że informacje o korupcji i ograniczeniach wolności słowa nie były nowe, dokumenty potwierdzające te informacje opublikowane przez WikiLeaks legitymizowały protestujących domagając się większej wolności. Jeśli suwerenność oraz struktury i procesy państwowe (władzy, autorytetu, rządzenia) zależą od legitymacji państwa - przez co włączamy legitymację społeczną jako część umowy społecznej - wówczas rewelacje WikiLeaks mogą podważyć tę legitymację w społeczeństwie obywatelskim, nawet jeśli legitymacja legislacyjna pozostaje na swoim miejscu.,



Powrót

Wikipedia



Wikipedia to internetowa encyklopedia, która zapewnia bezpłatne i otwarte treści dla użytkowników Internetu. Znak handlowy i domena internetowa Wikipedii są własnością organizacji non-profit Wikimedia Foundation. W dość krótkim czasie Wikipedia stała się największym i najpopularniejszym ogólnym źródłem informacji w Internecie. W 2017 roku znalazł się wśród 10 najpopularniejszych serwisów internetowych na świecie. Najważniejszą cechą Wikipedii jest to, że jest ona pisana wspólnie iw sposób otwarty przez społeczność ekspertów i nieekspertów, którzy nazywają siebie wikipedystami. Wiki to hawajskie słowo oznaczające szybkie, odnoszące się do projektu strony internetowej, który ułatwia wspólną modyfikację zarówno treści, jak i struktury artykułów w Wikipedii. Cel i zakres Wikipedii ostatecznie rozszerzył się i obejmował informacje na prawie wszystkie tematy, takie jak encyklopedia; w związku z tym witryna została nazwana Wikipedia jako połączenie tych dwóch pojęć. Podczas pierwszego wydania Wikipedii artykuły pisane dla Wikipedii i publikowane w niej były objęte licencją GNU Free Documentation License (GFDL). Jednak licencja Creative Commons wydana w 2002 roku zyskała popularność wśród blogerów i innych osób, które szeroko rozpowszechniały treści online. Z powodu niezgodności GFDL i licencji Creative Commons, Free Software Foundation wydała nową wersję .GFDL ponownie udzieli licencji na zawartość Wikipedii na licencji Creative Commons Attribution-ShareAlike (CC BY-SA). Oznacza to, że zgodnie z prawem wkłady są własnością ich autorów, a Wikipedia może je wykorzystywać i publikować. W związku z tym artykuły, które mają wielu autorów, wymagają zgody wszystkich autorów. Wikipedia ma również kilka powiązanych projektów, w tym Meta-Wiki, Wikibooks, Wikisłownik, Wikicytaty, Wikispecies, Wikiversity i Wikisource. Ten wpis przedstawia Wikipedię i omawia jej pozytywny i negatywny wpływ na produkcję i obieg wiedzy, a także jej przyszły rozwój

Zrozumieć Wikipedię

Wikipedia została uruchomiona 15 stycznia 2001 roku przez Jimmy′ego Walesa i Larry′ego Sangera. Początkowo została stworzona jako witryna nastawiona na zysk, aby wspierać wcześniejsze przedsięwzięcie Walesa i Sangera w internetowym zasobie przypominającym encyklopedię o nazwie Nupedia. Jednak od samego początku Nupedia walczyła z powodu rygorystycznego procesu recenzji, który zniechęcał współpracowników i uniemożliwiał jej rozwój. W ten sposób Wales wpadł na pomysł stworzenia kolejnej encyklopedii typu wiki, która mogłaby sprzyjać otwartej współpracy. Opublikowane tam artykuły ostatecznie przechodzą przez proces recenzji, a następnie wracają do Nupedii. Jednak ku zaskoczeniu Walesa koncepcja ta rozrosła się i szybko wyprzedziła liczbę artykułów w Nupedii. W ten sposób wszystkie artykuły Nupedii zostały wchłonięte przez Wikipedię w 2003 roku. Początkowo Wikipedia miała tylko angielską wersję językową, ale wkrótce powstały podobne wersje w innych językach. Mimo to angielska Wikipedia jest największą z ponad 295 istniejących obecnie Wikipedii i zawiera znacznie ponad 5 milionów wpisów. Według stanu na marzec 2017 r. istnieje około 40 000 artykułów najwyższej jakości, znanych jako polecane artykuły i dobre artykuły, obejmujących najważniejsze i istotne tematy Wikipedii.

Pozytywne skutki Wikipedii

Wikipedia dąży do integracji na kilku poziomach. Jego treść jest dostępna w wielu językach i jako taka promuje globalny, wspólny wysiłek i ekonomię współdzielenia w najlepszym wydaniu, bez gratyfikacji finansowej i w oparciu o zasady równości i przejrzystości. Jest również łatwy w wyszukiwaniu, a jego struktura jest przejrzysta. Strona spisu treści działa jak przewodnik i dzieli artykuły według tematu. Charakteryzuje się również inteligentnym linkowaniem, łączeniem słów i fraz w artykułach z treściami dotyczącymi różnych aspektów tego samego tematu. Zbiór artykułów "polecanych treści" reprezentuje najlepsze i najczęściej czytane treści w Wikipedii. Co więcej, na dedykowanych stronach społecznościowych można wchodzić w interakcje z innymi współtworzącymi Wikipedię, dowiedzieć się, nad czym trwają prace i co jeszcze należy dodać, a także wspólnie decydować o zasadach tworzenia encyklopedii. Co ciekawe, łączna liczba stron dyskusyjnych społeczności jest kilkakrotnie większa niż liczba stron dyskusyjnych łączna liczba wpisów w Wikipedii. Wikipedia służy misji Fundacji Wikimedia, której obecnie jest "umocnienie i angażować ludzi na całym świecie do gromadzenia i rozwijania treści edukacyjnych na wolnej licencji lub w domenie publicznej oraz do ich skutecznego i globalnego rozpowszechniania". Wraz ze wzrostem światowego uznania i uznania dla Wikipedii, nadal służy ona coraz większej liczbie społeczności, w tym w krajach rozwijających się, które nie mają żadnego innego dostępu do bezpłatnej wiedzy. Negatywne skutki Wikipedii W 2005 r. Nature opublikował recenzowany artykuł porównujący 42 artykuły naukowe z Encyklopedii Britannica i Wikipedii. Przegląd wykazał, że poziom dokładności Wikipedii był prawie równy poziomowi dokładności Encyklopedii Britannica. Jednak krytycy Wikipedii nadal twierdzą, że wykazuje ona systemowe uprzedzenia i przedstawia mieszankę prawd, półprawd i fałszów. Ponadto twierdzi się, że w kontrowersyjnych tematach Wikipedia jest przedmiotem "przekręcania" i różnych manipulacji. Dwa najgłośniejsze argumenty przeciwko Wikipedii to degradacja wiedzy akademickiej i rządy prawa, które mają na celu zarządzanie treścią witryny poprzez produktywne konflikty, a nie wymuszone formy współpracy. Ponadto Wikipedia została oskarżona o seksizm w swoich wpisach, a krytycy zauważyli, że taki seksizm przejawia się w gorszym opisywaniu wybitnych kobiet niż wybitnych mężczyzn, a także w kulturowym uprzedzeniu do tematów uważanych za bardziej interesujące dla mężczyzn. Redaktorzy Wikipedii to także głównie mężczyźni: zaledwie 20% redaktorów strony to kobiety. Kultura edycji Wikipedii jest często opisywana jako wrogo nastawiona do nowicjuszy, a nagromadzenie reguł edycji sprawia, że tworzenie artykułu przez nowicjusza jest coraz trudniejsze, a często bardzo frustrujące.

Przyszłość Wikipedii

Wśród użytkowników i redaktorów Wikipedii toczy się wiele debat na temat tego, co przyszłość może przynieść temu projektowi. Społeczność zainicjowała 15-letni strategiczny plan rozwoju w 2017 roku, próbując uczynić Wikipedię przydatną dla przyszłych pokoleń. Wspólne wyzwania obejmują kwestie techniczne, takie jak obecnie przestarzały interfejs użytkownika i wyszukiwarka, a także bardziej skomplikowane kwestie, takie jak podział wiedzy do wykorzystania w rozszerzonej rzeczywistości. Istnieją również inne wyzwania, takie jak globalne zarządzanie ruchem portalu i konieczność dostosowania się do nowych preferencji medialnych młodszych użytkowników.



Powrót

WWW



Spośród wszystkich różnych protokołów i aplikacji używanych w Internecie, te, które tworzą World Wide Web (sieć), są prawdopodobnie najbardziej znane większości użytkowników komputerów. Początkowo sieć została pomyślana jako sposób na szybkie poruszanie się między dokumentami, które odwołują się do siebie nawzajem. Ale podobnie jak w przypadku wielu technologii, od tego czasu ludzie znaleźli dla niej wiele innych zastosowań. Sieć od swoich początków była w stanie obsługiwać wiele sposobów komunikacji, najpierw zapewniając swoim użytkownikom dostęp do obrazów, a później do muzyki i wideo. Obecnie Internet to coś więcej niż tylko system dokumentów multimedialnych. Postępy w technologiach serwerowych, oprogramowaniu przeglądarek i fizycznej infrastrukturze Internetu umożliwiły teraz stronom internetowym wspieranie różnych działań, w tym poczty e-mail, czatów, zakupów, gier, transmisji na żywo, wideokonferencji, mediów społecznościowych, a nawet tworzenie innych stron internetowych. Podczas gdy wcześniej te działania wymagały oddzielnego oprogramowania, teraz można uzyskać do nich dostęp za pośrednictwem przeglądarki internetowej, tak jakby były kolejną stroną internetową. Sieć zaczęła wspierać tak wiele różnych działań opartych na Internecie, że czasami termin World Wide Web jest używany niepoprawnie w odniesieniu do całego Internetu. Badając sieć, ważne jest, aby zdać sobie sprawę, że sieć to zarówno media, jak i działania, które mają miejsce w sieci, a także określony zestaw technologii. Naukowcy badający sieć badają nie tylko to, co ludzie robią na poszczególnych witrynach, ale także historię protokołów obsługujących te witryny. Ten wpis definiuje sieć World Wide Web i zawiera krótki przegląd jej pochodzenia, rozwoju, statusu otwartego dostępu i przyszłego rozwoju.

Definiowanie sieci World Wide Web

Na podstawowym poziomie sieć można zdefiniować jako zestaw protokołów programowych, które razem obsługują globalny, połączony hiperłączami i multimodalny system dokumentów, dostępny przez Internet. Na bardziej technicznym poziomie sieć składa się z dokumentów napisanych w hipertekstowym języku znaczników (HTML). Dostęp do tych dokumentów uzyskuje się za pomocą specjalistycznego oprogramowania zwanego przeglądarką internetową. Dokumenty HTML są przechowywane na dedykowanych komputerach zwanych serwerami sieciowymi, które nasłuchują żądań i przesyłają je do własnej maszyny użytkownika za pośrednictwem protokołu transmisji hipertekstowej (HTTP). Strony internetowe składają się z dokumentów zwanych stronami internetowymi. Odwołania do tych stron są realizowane za pomocą Uniform Resource Locators (URL), które same są zależne od protokołu systemu nazw domen w celu konwersji adresów URL czytelnych dla człowieka na cztero- lub sześciosegmentowe adresy protokołu internetowego przypisane do serwerów obsługujących te witryny i strony. Ponieważ każda z tych technologii uległa zmianie, zmienił się również wygląd i działanie sieci. Podczas gdy badacze często ograniczają swoją uwagę do konkretnych momentów lub miejsc aktywności, zrozumienie kulturowego znaczenia sieci wymaga zastanowienia się, w jaki sposób różne typy oprogramowania, które ją obsługują, ewoluowały wraz z biblioteką mediów, która wyrosła wokół nich.

Pochodzenie

Sieć w jej najwcześniejszej formie została udostępniona online w Boże Narodzenie 1990 roku przez Tima Bernersa-Lee, kiedy założył pierwszy serwer WWW i poprosił kolegę o dostęp do niego za pomocą opracowanej przez siebie przeglądarki. W tym czasie Berners-Lee był brytyjskim inżynierem pracującym w Genewie w Szwajcarii w laboratorium fizyki cząstek elementarnych w CERN. Chociaż test w Boże Narodzenie można uznać za pierwszy moment, w którym sieć była dostępna przez Internet, upłynie jeszcze trochę czasu, zanim będzie gotowa do użytku publicznego. Berners-Lee pierwotnie zaprojektował HTML, HTTP i adresy URL, aby fizycy mogli dokumentować skojarzenia koncepcyjne zarówno w dokumentach, które tworzyli w ramach swoich badań, jak i między nimi. Berners-Lee nie był pierwszą osobą w CERN-ie, która zaproponowała taki system. Kilku jego kolegów zaprojektowało i bezskutecznie próbowało wdrożyć podobne systemy. Wielu tamtejszych fizyków odmówiło przyjęcia tych wcześniejszych prób, narzekając, że ich wczesne systemy dokumentacji miały zbyt wiele reguł, wymagając od nich wprowadzenia znaczących zmian w ich procesach pisania. Wyciągając wnioski z tych niepowodzeń, Berners-Lee początkowo nadał priorytet łatwości dostępu i postanowił stworzyć system z jak najmniejszą liczbą reguł. Dogodnie decyzja ta dobrze współgrała z otwartą filozofią Internetu, kiedy Berners-Lee zaczął później rozważać możliwość zapewnienia dostępu do swojego oprogramowania poza CERN. Należy zauważyć, że Berners-Lee nie był również pierwszym, który wyobraził sobie rozległą sieć połączonych ze sobą dokumentów, mimo że jako pierwszy z powodzeniem uruchomił taki system. Dziesięciolecia wcześniej, w 1945 roku Vannevar Bush i Ted Nelson opisali technologie, które przypominały strukturę sieci. Podczas gdy Berners-Lee twierdzi, że nie znał pism Busha i Nelsona podczas wstępnego planowania oprogramowania wspierającego sieć, uznanie ich pracy za część historii sieci pomaga uwypuklić sposoby, w jakie System Bernersa-Lee różnił się od ich systemu. W 1945 roku Bush był dyrektorem Biura Badań Naukowych i Rozwoju USA. Po zakończeniu II wojny światowej Bush chciał zainicjować rozmowę na temat sposobów wykorzystania energii i ekscytacji związanej z komputerami do czegoś innego niż działania wojenne. W lipcu opublikował esej "As We May Think" w The Atlantic, w którym opisał system, który nazwał "memeksem". Bush wyobrażał sobie, że jego memex wykorzysta elastyczną pamięć komputerów do stworzenia stylu czytania, który nie będzie polegał na "sztuczności" metod indeksowania stosowanych w książkach. Chociaż wspierałby tradycyjne indeksy jako punkty wyjścia dla czytelników, memex pozwoliłby również na "asocjacyjny" styl nawigacji po informacjach, "w którym dowolny element może być dowolnie wybierany natychmiast i automatycznie inny". Pracując od punktu początkowego wybranego z indeksu, czytelnicy mogli następnie tworzyć "ślady" skojarzeń w locie, przeskakując z jednego dokumentu do drugiego, a także śledzić szlaki, które oni lub ktoś inny wcześniej stworzyli. Memex Busha mniej więcej opisywał to, co Berners-Lee nazwał później przeglądarką internetową. Chociaż nigdy nie zbudowano żadnego memeksu, pisarstwo Busha z powodzeniem zainspirowało pierwszych entuzjastów komputerów osobistych do wyobrażenia sobie zastosowań innych niż działania wojenne. Wśród jego czytelników był Ted Nelson, doktorant na Uniwersytecie Harvarda i zwolennik napędzanej technologią, społecznie postępowej filozofii Stewarta Branda. W 1960 roku Nelson rozpoczął pracę nad projektem, który nazwał Xanadu. Podobnie jak memex, Nelson opisał Xanadu w 1974 roku jako system, który odrzuciłby ustalone sekwencje i ustalone schematy organizacyjne, pozwalając czytelnikom "swobodnie poruszać się po materiałach" w sposób, który pozwala im "wybrać, co [będą] studiować, kiedy [ oni] będą to studiować i jak [oni] będą to studiować i według jakich kryteriów osiągnięcie [będą] dążyć" (s. 313). Opisy Xanadu sporządzone przez Nelsona stworzyły wiele znanych terminów, których używamy do opisywania sieci, takich jak hipertekst i hiperłącze. Chociaż teoria hipertekstu Nelsona ekscytowała wielu jego kolegów entuzjastów komputerów, sam Xanadu nigdy nie został ukończony pomimo prawie dwóch dekad rozwoju. Chociaż można powiedzieć, że wizje zarówno Busha, jak i Nelsona po prostu wyprzedzały swoje czasy, ich projekty miały jedną fatalną wadę. Chociaż obaj popierali bardziej swobodną eksplorację dokumentów, domyślnie zakładali również, że technologia hipertekstowa musi zostać udoskonalona, zanim możliwe będzie stworzenie rodzajów bibliotek, jakie sobie wyobrażali. Mimo że sieć zaczęła się od znacznie skromniejszych technologii niż te opisane przez Busha czy Nelsona, jej sukces w dużej mierze wynika z uwagi Bernersa-Lee na kultywowanie biblioteki informacji obok jego technologii.

Rozwijanie sieci

Nawet jeśli Berners-Lee miał niewielką lub żadną wiedzę na temat prac Busha i Nelsona, kiedy zaczynał projektować technologie wspierające sieć, zdał sobie sprawę, że jego system nie odniesie sukcesu, jeśli będzie opierał się na scentralizowanej bibliotece dokumentów. Chociaż w CERN dostępnych było mnóstwo dokumentów, które można było połączyć za pomocą hiperłączy, wymaganie zaplanowania lub zweryfikowania ich organizacji nie zniechęciłoby nowych użytkowników do uczestnictwa, ale wymagałoby również, aby oprogramowanie używane do poruszania się po nim było wcześniej sfinalizowane. W ramach swojego zaangażowania w zaprojektowanie systemu z jak najmniejszą liczbą reguł Berners-Lee chciał uniknąć potrzeby posiadania strażnika, który byłby odpowiedzialny za przyjmowanie nowych użytkowników lub egzekwowanie zasad dotyczących zawartości systemu. Nie tyle zależało mu na budowie biblioteki, ile na stworzeniu odpowiednich warunków do wyrośnięcia z podstawowego systemu, który stworzył. Na początku sieci system ten składałby się z trzech podstawowych technologii: (1) serwera WWW, (2) przeglądarki internetowej i (3) HTML. Chociaż każdy z tych komponentów ma swoją własną historię, ważne jest, aby krótko rozważyć, w jaki sposób każdy z nich został zaprojektowany razem wokół tej decyzji, aby umożliwić rozwój sieci niezależnie od oprogramowania pomocniczego. Aby wdrożyć ten zdecentralizowany system, Berners-Lee opracował rodzaj oprogramowania, które nazwał serwerem sieciowym. Pierwsze oprogramowanie serwera WWW nosiło nazwę CERN httpd. Podobnie jak wiele typów oprogramowania serwerowego, serwery internetowe odpowiadają na żądania plików z innych komputerów - zwykle nazywanych komputerami klienckimi. Aby opublikować swoje dokumenty w Internecie, autorzy musieli zebrać dokumenty w katalogu i wyznaczyć ten katalog na serwerze jako widoczny dla innych. Każdy, kto miał komputer zdolny do obsługi serwera WWW, był teoretycznie w stanie założyć stronę internetową i publikować strony w sieci; jednak potencjalni czytelnicy musieliby znać adres URL tej witryny, a także nazwę pliku przynajmniej jednego znajdującego się na niej dokumentu. To, czy ktokolwiek byłby w stanie znaleźć stronę internetową, było zupełnie inną sprawą. Pomimo chęci uniknięcia jakiejkolwiek formy centralizacji, Berners-Lee przyznał, że użytkownicy będą potrzebować pomocy w zlokalizowaniu dokumentów po raz pierwszy w jego systemie. Dlatego sieć wymagałaby tak zwanych katalogów, które zawierałyby listę dostępnych zbiorów dokumentów; jednak w ramach kompromisu nie napisał żadnego specjalistycznego oprogramowania dla swojego katalogu. Berners-Lee założył pierwszy internetowy katalog pod adresem info.cern.ch. Zapisując swój katalog jako kolejną stronę internetową na pierwszym serwerze sieciowym, który założył w CERN, ustanowił precedens, zgodnie z którym każdy może swobodnie tworzyć własne. Ostatecznie katalogi te przekształciły się w wyszukiwarki, których używamy dzisiaj. Chociaż zdecentralizowane serwery sieciowe i katalogi umożliwiłyby organiczny wzrost internetowej biblioteki dokumentów, potrzebny był minimalny zestaw reguł formatowania dokumentów, aby zapewnić prawidłowe działanie hiperłączy. Zgodnie ze swoim zobowiązaniem do unikania zbyt skomplikowanych reguł, Berners-Lee zdecydował się użyć języka znaczników do zdefiniowania stron internetowych. Języki znaczników to rodzaje języków programowania, które używają zestawów poleceń formatujących znanych jako znaczniki, które ustanawiają zależności strukturalne między sekcjami tekstu w dokumencie. Zamiast opracowywać nowy język od zera, Berners-Lee modelował HTML na podstawie standardowego uogólnionego języka znaczników (SGML), ponownie wykorzystując wiele jego znaczników i dodając nowe w razie potrzeby do obsługi hiperłączy. Oparcie swojego kodu HTML na SGML usunęło również jeszcze jedną potencjalną przeszkodę w publikowaniu w sieci, ponieważ SGML był już dobrze znany wśród osób zainteresowanych pracą z systemami dokumentów cyfrowych. HTML definiował strukturę dokumentów, które pojawiały się w sieci, ale jako język znaczników w rzeczywistości ich nie renderował. Jak większość języków znaczników, HTML wymagałby specjalistycznego oprogramowania do wyświetlania użytkownikom dokumentów w postaci innej niż tekst czytelny dla człowieka, regularnie przerywany fragmentami kodu programistycznego. Berners-Lee początkowo planował, aby użytkownicy mogli przeglądać i edytować strony internetowe za pomocą tej samej aplikacji. Żartuje nawet w swojej osobistej historii sieci, że nigdy nie chciał, aby użytkownicy zobaczyli kod HTML. Jednak gdy on i jego współpracownicy zaczęli rozwijać swoją przeglądarkę, odkryli, że stworzenie jednej aplikacji mogącej pełnić obie role było wówczas zbyt trudne do zarządzania bez scentralizowanego systemu. Berners-Lee nazwał swoją pierwszą przeglądarkę "WorldWideWeb" (jedno słowo) i podobnie jak to, większość przeglądarek internetowych została zaprojektowana głównie jako aplikacje do przeglądania. Ścisłe oddzielenie przeglądania i edytowania stron internetowych wynikające z tej decyzji oznaczało, że strony internetowe w pierwszych latach istnienia sieci były stosunkowo statycznymi dokumentami. Berners-Lee samodzielnie zaktualizował pierwszy katalog internetowy, korzystając z poczty e-mail w celu uzyskania adresów URL po pierwszym wydaniu swojej przeglądarki internetowej i serwera. Nawet pierwsze wyszukiwarki, które wyewoluowały ze stron katalogowych, wymagały od autorów witryn przesyłania ich adresów URL i opisów do uwzględnienia. Dzisiejsze wyszukiwarki wykorzystują jednak wyspecjalizowane algorytmy zwane robotami indeksującymi, które regularnie śledzą hiperłącza w sieci, aby automatycznie identyfikować nowe strony internetowe. lub zaktualizować informacje o istniejących. Te decyzje projektowe razem stworzyły system, który był otwarty w tym sensie, że każdy mógł dołączyć do sieci i tworzyć zbiory dokumentów na stronach witryny internetowej w dowolnym celu. Ale decentralizacja sieci również stwarzała problemy. Inne systemy hipertekstowe, które opierały się na scentralizowanych bazach danych, takie jak Xanadu Nelsona, tworzyły hiperłącza, które były dwukierunkowe, co oznaczało, że każde łącze było reprezentowane na każdej połączonej stronie, umożliwiając użytkownikom powrót do punktów w dokumencie, od którego odeszli. Zamiast pozwalać użytkownikom na mapowanie szlaków wiedzy, hiperłącza w sieci początkowo oferowały bardziej chaotyczne wrażenia. Czytelnicy mogli przeskakiwać do nowych dokumentów, ale prześledzenie ich ścieżki z powrotem do poprzednich dokumentów nie było łatwe. Ponadto centralizacja zapewniała również, że hiperłącza zawsze działały. Jeśli dokument został usunięty z systemu lub zmieniony w taki sposób, że przesunięto punkt odniesienia, centralna baza danych odpowiednio zaktualizowałaby hiperłącza. Zdecentralizowany charakter sieci oznaczał, że wszystkie hiperłącza były jednokierunkowe i działały jedynie jako punkt wyjazdu do miejsc docelowych, które nie miały gwarancji istnienia. W ten sposób sieć rozwijała się wraz ze wspierającymi ją technologiami jako luźna konfederacja niezależnie działających zbiorów dokumentów. Minimalistyczne zasady i otwarty projekt okazały się odporne i zachęcały do eksperymentowania. Twórcy przeglądarek szybko dostosowali się do jednokierunkowości łączy, śledząc historię przeglądania i dodając przyciski Wstecz, dzięki którym wszystkie łącza były dwukierunkowe. I chociaż niedziałające linki nadal stanowią problem, dla większości użytkowników okazały się raczej drobną irytacją niż fatalną wadą.

Otwieranie sieci

Berners-Lee po raz pierwszy zaproponował sieć CERN w marcu 1989 roku. Czekając na odpowiedź, miał nadzieję, jak wielu programistów, że znajdzie gotowe rozwiązanie, dzięki któremu nie będzie musiał spędzać czasu na samodzielnym programowaniu podstawowych narzędzi. W owym czasie hipertekst przyciągnął uwagę pisarzy, literaturoznawców i bibliotekarzy, a także naukowców i inżynierów, którzy chcieli go używać do organizowania swoich notatek. Istniało wiele komercyjnych aplikacji, takich jak Guide, Storyspace, Dynatext i Hypercard, które miały niektóre cechy systemu, który chciał stworzyć Berners-Lee. Jednak większość tego wczesnego oprogramowania hipertekstowego była próbą odtworzenia paradygmatów druku i książek, kładąc nacisk na małe zbiory, do których można było uzyskać dostęp na jednym komputerze w sposób chroniący prawa autorskie. I co ważniejsze, jak zauważył Berners-Lee, żaden z nich nie został zaprojektowany z myślą o sieciach, nie mówiąc już o takich, które zbliżają się do skali Internetu. Chociaż Berners-Lee nie był w stanie znaleźć komercyjnego rozwiązania, które pasowałoby do jego projektu, problem ten ostatecznie doprowadził do szerszego zaangażowania w zapewnienie wolności i otwartości sieci. Korzystanie z komercyjnego oprogramowania, które było chronione jako własność intelektualna, wprowadziłoby do sieci pewną formę centralizacji w tym sensie, że pojedyncza firma miałaby kontrolę nad sposobem wyświetlania dokumentów HTML. Ponieważ HTML istnieje tylko na tyle, na ile przeglądarka internetowa jest w stanie go odczytać i zinterpretować, scentralizowana kontrola nad projektem przeglądarki internetowej skutkowałaby również scentralizowaną kontrolą nad HTML. Równolegle z rozwojem sieci przez Bernersa-Lee, Richard Stallman uruchomił Projekt GNU i założył ruch Wolnego Oprogramowania. Wśród wielu swoich wkładów ruch Wolnego Oprogramowania stworzył Powszechną Licencję Publiczną GNU, dokument prawny, w którym autor oprogramowania rości sobie prawa autorskie, ale zrzeka się pewnych zabezpieczeń, aby inni mogli swobodnie edytować i redystrybuować jego kod źródłowy. Chociaż Berners-Lee nie wydał swojego oprogramowania na licencji GNU General Public License, mimo to powołał się na wpływ które praca Stallmana miała na jego pracę. Wkrótce po teście w Boże Narodzenie 1990 r. Berners-Lee zaczął umożliwiać innym zainteresowanym programistom dostosowanie jego pracy do różnych typów sprzętu komputerowego i systemów operacyjnych. Podczas gdy oprogramowanie Bernersa-Lee było w praktyce swobodnie rozpowszechniane, CERN technicznie kontrolował jego prawa autorskie do 1993 roku, kiedy to oficjalnie ogłosił, że jest ono częścią domeny publicznej. Chociaż Berners-Lee chciał, aby sieć była otwarta, dostęp do niej był początkowo bardzo trudny, ponieważ napisał CERN httpd i WorldWideWeb na komputerze typu NeXT, z którego korzystało niewiele osób. Zapamiętany przede wszystkim jako firma komputerowa, którą Steve Jobs założył po tym, jak został wypchnięty z Apple Computer w 1985 roku, NeXT sprzedawał swoje stacje robocze głównie badaczom akademickim - takim jak fizycy z CERN - a nie użytkownikom domowym i biurowym. W 1991 roku Berners-Lee udostępnił wersję kodu źródłowego httpd, która mogła działać w systemie operacyjnym Unix, powszechnie używanym na komputerach pełniących rolę serwerów w laboratoriach uniwersyteckich i korporacyjnych. Chociaż sprawiło to, że sieć była nieco bardziej dostępna, nadal była niedostępna na większości komputerów osobistych. Na początku lat 90. najpopularniejszymi systemami operacyjnymi komputerów osobistych były Microsoft-DOS z wierszem poleceń, wczesne wersje Microsoft Windows lub MacOS firmy Apple. Jednak sytuacja szybko się zmieniła w 1993 r., kiedy naukowcy z National Center for Supercomputing Applications University of Illinois wypuścili przeglądarkę Mosaic dla systemu Windows. Zespół Mosaic później założył Netscape i wydał Navigator, najpopularniejszą przeglądarkę internetową w pierwszej dekadzie sieci. W kolejnych latach, gdy sieć stała się dostępna dla osób innych niż badacze akademiccy, liczba uczestników wzrosła o prawie 350 000%.

Utrzymywanie otwartej sieci

Chociaż sieć nie ma scentralizowanego strażnika, ma organ zarządzający, który ustanawia standardy dla serwerów sieciowych, przeglądarek internetowych i HTML, zwany World Wide Web Consortium (W3C). W3C została założona w 1994 roku przez Bernersa-Lee, który nadal jest jej dyrektorem. Tak jak pierwotnie zdecydował, że użycie komercyjnego oprogramowania do budowy sieci skutecznie stworzy mechanizm gatekeepera, Berners-Lee obawiał się, że Netscape przejmie kontrolę nad przyszłym kierunkiem oprogramowania wspierającego sieć. Rzeczywiście, wielu dziennikarzy błędnie uważało sieć za produkt Mosaic - błąd, którego Netscape nie spieszył się z naprawieniem. Obecnie W3C służy jako centralny punkt dyskusji i szkicowania zmian w HTML, a także w innych językach, które od tego czasu zostały włączone do serwerów internetowych i przeglądarek. Członkostwo w W3C jest otwarte dla każdej organizacji chętnej do uiszczenia opłaty i obejmuje zarówno podmioty prywatne, jak i non-profit, takie jak twórcy przeglądarek internetowych, dostawcy usług internetowych, producenci sprzętu, firmy zajmujące się mediami społecznościowymi, a nawet inne grupy doradcze zajmujące się nadzorowaniem określonych języków internetowych lub frameworki. Podobnie jak oryginalny serwer www-talk listserv, którego Berners-Lee używał do zbierania opinii na temat swojego oprogramowania po pierwszym otwarciu sieci dla Internetu w 1991 r., W3C rewiduje standardy sieci poprzez serię szkiców, które członkowie negocjują w kilku etapach. Znaczenie ciągłego nacisku W3C na utrzymanie wspólnych, otwartych standardów dla sieci jest widoczne w implikacjach tak zwanych wojen przeglądarkowych z połowy do końca lat 90-tych. Gdy Microsoft i Netscape walczyły o kontrolę nad rynkiem przeglądarek internetowych, w pewnym sensie walczyły także o zdefiniowanie samej sieci. Jak wcześniej wspomniano, kontrolowanie jednego z trzech głównych komponentów technologicznych sieci będzie siłą rzeczy sprawować kontrolę nad pozostałymi. Przez wiele lat przeglądarki firm Microsoft i Netscape różnie renderowały strony internetowe, co czasami wymagało od projektantów stron internetowych efektywnego tworzenia dwóch wersji tej samej strony. Wiele problemów związanych z niekompatybilnością przeglądarek zostało rozwiązanych dopiero w połowie lub pod koniec 2000 roku. Bez wysiłków W3C, by pośredniczyć między różnymi stronami, które tworzą technologie dla sieci, możliwe jest, że wygląd i sposób działania sieci mógłby zostać zdefiniowany przez ekskluzywną grupę programistów, a nie pozostawiony otwarty.

Długoterminowe znaczenie sieci

Dzisiejsza sieć wygląda znacznie inaczej niż na początku lat 90., a nawet kilka lat temu. Ponieważ sieć została początkowo stworzona tak, aby mieć jak najmniej zasad uczestnictwa, podobnie jak sam Internet, pozostawiono otwartą furtkę społeczności do wbudowania nowych technologii w serwery i przeglądarki, które zawierają języki inne niż HTML. W wyniku tych innowacji sieć zmieniła się ze zbioru stosunkowo statycznych dokumentów w dynamiczne medium dla działalności twórczej i komercyjnej, przejście to powszechnie określa się jako Web 2.0. Ścieżka rozwoju sieci była czasami chaotyczna i wybuchowa. Podczas gdy Berners-Lee wyobrażał sobie, że sieć będzie funkcjonowała głównie jako tempo współpracy dla jednostek, jednymi z najszybszych użytkowników i innowatorów podstawowych technologii sieciowych były podmioty komercyjne. Po szybkim przyjęciu uczestnictwa nastąpił pęd do komercjalizacji sieci, co doprowadziło do bańki internetowej pod koniec lat 90. Inwestorzy venture capital z Doliny Krzemowej pośpiesznie inwestowali w punkty sprzedaży detalicznej, dostawców treści cyfrowych i inne firmy internetowe, które polegały na sieci w celu interakcji z klientami. Jednak wiele z tych nowych firm upadło pomimo ogromnych inwestycji i szybko rosnących cen akcji. Wśród firm, które przetrwały bańkę, znalazły się Amazon.com i Google, które nadal wywierają znaczny wpływ na sposób, w jaki dzisiaj korzystamy z sieci. Mimo że wygląd i działanie sieci znacznie się zmieniły od jej początków, niektóre kluczowe zasady pozostają w różnych formach. Na przykład zdolność każdego do otwartego uczestnictwa w sieci zarówno jako czytelnika, jak i autora można znaleźć w wielu różnych gatunkach internetowych. Jedną z najwcześniejszych dróg autorstwa osób bez umiejętności lub zasobów do skonfigurowania serwera internetowego były bezpłatne firmy hostingowe, takie jak Geocities.com, Angelfire.com i Tripod.com. Chociaż wiele z tych oryginalnych firm hostingowych nie przetrwało bańki internetowej, były one pionierami modelu usług wspieranych przez reklamy, który wymienia usługi na przeglądanie reklam. Firmy te oferowały hostowanie strony internetowej, oferując miejsce na swoich serwerach w zamian za umożliwienie autorom wyświetlania reklam na każdej stronie witryny. Powstały nowe bezpłatne firmy hostingowe, które zajęły miejsce oryginałów, ale wiele osób publikujących dziś w Internecie robi to za pośrednictwem wspieranych reklamami mediów społecznościowych lub platform blogowych, a nie w ramach osobistych stron internetowych. Chociaż możliwość publikowania dokumentów w Internecie przez kogokolwiek była przez długi czas uważana za czysto korzystną, może ona również powodować własne problemy. Na przykład dziennikarstwo drukowane zaczęło konkurować z niezależnymi dziennikarzami i nowymi typami serwisów informacyjnych. W szczególności gazety walczyły o utrzymanie rentowności, oczekując, że treści będą udostępniane czytelnikom za darmo w modelu wspieranym reklamami. Ponadto, z braku kultury instytucjonalnej uznanych serwisów informacyjnych, niektóre osoby i nowsze serwisy czasami nieumyślnie błędnie interpretowały wydarzenia, celowo je fałszywie przedstawiały, aw niektórych przypadkach rozpowszechniały wręcz "fałszywe" wiadomości. Podczas gdy sieć zapewnia każdemu przestrzeń do wyrażania swojego zdania, pozwala trollom, grupom nienawiści i teoretykom spiskowym. Patrząc w przyszłość, jednym z największych wyzwań stojących przed siecią będzie dalsze wspieranie jej zaangażowania w otwarte uczestnictwo, przy jednoczesnym zapewnieniu, że spełnia ona pozytywne idee społeczne, z którymi jest kojarzona.



Powrót

W3C



Konsorcjum World Wide Web (W3C) jest główną agencją odpowiedzialną za opracowywanie standardów dla Internetu, w tym wytycznych, specyfikacji, oprogramowania i narzędzi. Składa się z szeregu organizacji (od 2017 r. 461 organizacji), które współpracują ze sobą w celu rozwijania standardów w celu poprawy funkcjonalności, bezpieczeństwa i przejrzystości sieci oraz promowania interoperacyjności wśród swoich członków. Jej statut stwierdza, że jej misją jest "doprowadzenie sieci World Wide Web do jej pełnego potencjału poprzez opracowanie wspólnych protokołów, które promują jej ewolucję i zapewniają jej interoperacyjność". Zapewnia na przykład, że zgodne wersje HTML (język znaczników hipertekstowych) są szeroko stosowane, dzięki czemu wszystkie strony internetowe są czytelne. Promuje najlepsze praktyki i dostęp do sieci na wielu różnych urządzeniach. Współpracuje również z innymi organizacjami, które opracowują standardy internetowe (np. Grupami branżowymi, stowarzyszeniami telekomunikacyjnymi i wydawniczymi, Federalną Komisją ds. Łączności, UNESCO oraz różnymi grupami zajmującymi się rzecznictwem i zarządzaniem Internetem, takimi jak Internet Engineering Task Force). Ten wpis analizuje członkostwo W3C, strukturę zarządzania i historię.

Członkostwo i zarządzanie

Większość członków to korporacje, ale W3C obejmuje również uniwersytety, agencje rządowe oraz organizacje non-profit i pozarządowe (Tabela 1). Nie jest otwarty dla osób fizycznych. Prowadzi również działalność edukacyjną o sieci, takich jak konferencje, podcasty, samouczki, mikroblogi i listy mailingowe, a także prowadzi dyskusje w celu zwiększenia dostępu do Internetu, promowania zaufania oraz wspierania wyszukiwania i udostępniania danych. W3C jest administrowana na podstawie wspólnej umowy między czterema instytucjami goszczącymi: (1) Massachusetts Institute of Technology w Stanach Zjednoczonych; (2) Europejskie Konsorcjum Badawcze ds. Informatyki i Matematyki w Sophia Antipolis, Francja; (3) Uniwersytet Keio w Japonii (od 1996 r.); oraz (4) Uniwersytet Beihang w Chinach (od 2013 r.). Posiada dwa stałe organy - (1) Komitet Doradczy i (2) Grupę Architektury Technicznej. Jej członkowie wybierają Komitet Doradczy, w skład którego wchodzi po jednym przedstawicielu każdej instytucji członkowskiej. Posiada również Grupę Architektury Technicznej, która dokumentuje zasady sieci. W3C zatrudnia około 80 pracowników na całym świecie, chociaż większość prac związanych z przeglądem i przyjęciem standardów wykonują zewnętrzni eksperci w około 65 grupach roboczych. Działania grup roboczych obejmują takie tematy, jak architektury platform, kaskadowe arkusze stylów, geolokalizacja, Web of Things i płatności internetowe. Oprócz grup roboczych istnieją dodatkowe grupy interesu, które koncentrują się na kwestiach takich jak prywatność w sieci, patenty i bezpieczeństwo. Grupy robocze opracowują rezultaty, podczas gdy grupy interesu zachęcają do dyskusji na temat potencjalnych technologii i zasad sieciowych. W3C wykorzystuje również ochotników do tłumaczenia standardów sieciowych na różne języki. Jej działalność w zakresie internacjonalizacji ma na celu udostępnienie technologii internetowych w różnych językach i skryptach. Organizacja czerpie dochody ze składek członkowskich, grantów badawczych i darowizn. W 2017 r. opłata dla pełnoprawnych członków wynosiła 50 000 USD, ale dla organizacji non-profit, uniwersytetów, agencji rządowych i firm o rocznych przychodach poniżej 50 mln USD było to 5000 USD.

Historia

W3C została założona przez Tima Bernersa-Lee, "ojca World Wide Web", w październiku 1994 r., kiedy sieć była w powijakach. Był wzorowany na konsorcjum X, które nadzorowało standard Unix X-Windows. Wsparcia finansowego udzielił Massachusetts Institute of Technology, Komisja Europejska oraz Administracja Zaawansowanych Projektów Badawczych w Obronie. Wkrótce potem W3C utworzyło oddziały we Francji i Japonii, a następnie stworzyło 18 biur regionalnych na całym świecie.

Przyjęcie standardów

Jako wiodąca na świecie organizacja zajmująca się przyjmowaniem i promocją standardów internetowych, W3C ma duże znaczenie wśród ekspertów internetowych na całym świecie. Od momentu powstania przyjęło ponad 40 norm. Wszystkie jej produkty są udostępniane członkom konsorcjum w fazie rozwoju i są niezależne od dostawców. W3C ma serię czterech kroków, aby propozycje ewoluowały w standardy internetowe. Wstępny dokument jest publikowany jako robocza wersja robocza do recenzji przez społeczność internetową. Po drugie, staje się rekomendacją kandydata, po czym zostaje dopracowana. Trzecim etapem jest proponowana rekomendacja, na której to etapie jest ona przeglądana przez Komitet Doradczy W3C. Ostatnim krokiem jest rekomendacja, gdy standard został zatwierdzony przez W3C i jest gotowy do publicznego wdrożenia. Warto zauważyć, że W3C nie ma programu certyfikacji.



Powrót

Wyszukiwarki



Wyszukiwarki są jednym z najważniejszych sposobów znajdowania informacji i poszukiwania wiedzy w XXI wieku oraz sposobem, w jaki użytkownicy poruszają się po stale powiększającej się przestrzeni WWW. Wyszukiwarki to programy, których zadaniem jest zwracanie listy wyników zawierającej jednolite lokalizatory zasobów (URL) po wpisaniu przez użytkownika słowa kluczowego w polu lub polu wyszukiwania. Programy to "przepisy" zawierające listy instrukcji lub wskazówek oraz zmienne (dane liczbowe, tekst), które po wykonaniu dostarczają wyników. Tymi wynikami mogą być dokumenty lub strony internetowe, które są również znane jako strony wyników wyszukiwania, a nawet obrazy zawierające wybrane słowo kluczowe. Wyszukiwarki najpierw wysyłają pająki, zwane także webcrawlerami, które są programami przeszukującymi sieć World Wide Web i pobierającymi strony internetowe. Strony te są następnie odczytywane przez indeksator, inny program, który następnie tworzy indeks wszystkich zebranych dokumentów. Proces indeksowania i metody wyszukiwania używane przez algorytmy (np. drzewa liniowe, binarne, drzewa prefiksów, drzewa AVL i [rozproszone] tablice skrótów) określają, w jaki sposób można znaleźć adresy URL. Wyniki są następnie strukturyzowane dla użytkownika, w większości przypadków przy użyciu zastrzeżonych algorytmów zaprojektowanych z pewnymi kryteriami, które dostosowują "wagę" lub znaczenie dostarczonych wyników poprzez ich uszeregowanie. Każde zapytanie uzyskuje różne wyniki, które są oceniane na podstawie ich trafności, najpierw przez wyszukiwarkę, a ostatecznie przez użytkownika, który decyduje, której wyszukiwarki użyć. Ten wpis zawiera najpierw krótki historyczny przegląd prehistorii wyszukiwarek w Europie, a następnie omawia pomysłowy i technologiczny rozwój ostatnich 60 lat. Następnie wyjaśnia przeszukiwanie i indeksowanie sieci World Wide Web w miarę jej rozrastania się poprzez strukturę hiperłączy. Sortowanie, filtrowanie i ranking opisuje okres poprzedzający tysiąclecie, wraz z uruchomieniem wyszukiwarki Google, najczęściej używanej wyszukiwarki na świecie w 2017 r., z ponad 3 miliardami zapytań dziennie. Ukierunkowane struktury reklamowe wyniki wyszukiwania i ich specyficzny model biznesowy wymiany: dane użytkowników do bezpłatnych usług. Następnie wpis omawia ostatnie 25 lat dominacji Google PageRank oraz sposób, w jaki technologiczna innowacja personalizacji przekształciła się w RankBrain. Jednak oprócz Google istnieją alternatywne wyszukiwarki, które albo budują własne indeksy, albo oferują konkurencję w postaci "prywatności" i "anonimowości" przeglądania. Ponadto wpis wyjaśnia współczesny stan indeksowania, indeksowania i wyszukiwania w sieci, przyglądając się alternatywom dla czysto komercyjnych wyszukiwarek. Obejmują one kreatywne podejścia, w tym metody patafizyczne, przeszukiwania pionowe, peer-to-peer, demokratyczne i spekulatywne, a także sieć semantyczną.

Prehistoria wyszukiwarek

Według badań Antona Tantnera, w poprzednich stuleciach zapytania analogowe odpowiadały za zestawianie danych i można je uznać za prehistorię wyszukiwarek. Urzędy spisowe zdegradowały kontrolę rządu poprzez skonstruowane statystyki, takie jak elaciones topográficas króla Filipa II, enqu?tes administratora Ludwika XIV, Jeana-Baptiste′a Colberta oraz zbieranie informacji przez dynastię Habsburgów. Ludzcy informatorzy, tacy jak pokojówki, służący i czeladnicy, pełnili funkcje niewiele różniące się od współczesnych robotów wyszukiwarek, indeksujących informacje a następnie przekazać ją zainteresowanym stronom. Bureau d′adrese w XVI i XVII wieku w wielu miastach Europy (np. Paryżu, Londynie, Amsterdamie) zbierało informacje (i adresy) od reklamodawców i poszukiwaczy w księgach rejestrowych - i tutaj można dopatrzyć się podobieństw do dzisiejszego Internetu Adresy protokołu (IP). br>

Organizowanie informacji na świecie

Chociaż H. G. Wells jest znany ze swoich dzieł science fiction, w roku 1937 napisał proroczy tekst zatytułowany "World Brain: The Idea of a Permanent World Encyclopaedia". Ten esej został pierwotnie opublikowany w nowej Encyclopédie Française w sierpniu 1937 r., Gdzie Wells kwestionuje sam temat tego, czym jest encyklopedia i do jakiego stopnia dociera do szerszej publiczności, zamiast być napisany przez dżentelmenów do czytania przez dżentelmenów. Według Wellsa opiera się ona na dystrybucji tego "mózgu świata" wiedzy, a odpowiedzialność spoczywa na organach, które odzwierciedlają życie intelektualne ludzkości: na uniwersytetach, bibliotekach i szkołach. Wells pomyślał o scentralizowanym "organie światowym", który zgromadziłby umysły świata, wzmacniając już istniejące biblioteki i centra edukacyjne. Aby uporządkować światowe informacje, należało wynaleźć pewien uporządkowany schemat odniesień i reprodukcji, który mógłby obejmować ogromną liczbę łatwych do opanowania, dobrze uporządkowanych faktów. Ten zaktualizowany indeks całej ludzkiej wiedzy, łączący heterogeniczne zasoby mikrofotografii, stworzyłby skoncentrowany zapis wizualny. Wells (1937) użył terminu permanentna encyklopedia światowa, aby opisać ten postęp technologiczny w fotografii, który umożliwił "syntezę bibliografii i dokumentacji z indeksowanymi archiwami świata". Ten efektywny indeks miałby zasięg, który mógłby przeglądać każdy mieszkaniec, dzielenie ludzkich wysiłków nie tylko jako postęp dla świata, ale także jako narzędzie zaprowadzania pokoju. Uważana przez niektórych za pierwszą na świecie (analogową) wyszukiwarkę, The Mundaneum autorstwa Paula Otleta i Henri La Fontaine′a w latach dwudziestych XX wieku w Belgii próbowali uporządkować światowe informacje. Pierwotnie nazywany Uniwersalnym Repertorium Bibliograficznym, jego książki, artykuły prasowe, zdjęcia i inne dokumenty zostały zebrane z archiwów i bibliotek znajdujących się gdzie indziej, a ludzie mogli przesyłać zapytania z daleka, czasami 1500 rocznie. Wykonane z papieru i słów 16 milionów fiszek tworzyło to miasto wiedzy, w którym Otlet wyobraził sobie "mechaniczny, zbiorowy mózg" z teleskopami elektrycznymi, które umożliwiały użytkownikom przeszukiwanie i przeglądanie tych baz danych katalogów kartkowych. Według Otleta przyszłość książek lub "pojemników pomysłów" została rozszerzona o grafikę i diagramy, a on ostatecznie wymyślił system nagrywania dźwięku i filmu na mikrofilmach do międzynarodowych komunikatów. Ta "hiperłącza" struktura miała nie tylko łączyć ze sobą różne fragmenty danych - Otlet chciał, aby same łącza miały znaczenie. Jego projekt zapowiada perspektywiczny rozwój sieci semantycznej, w której komputery interpretują informacje i wykorzystują rzeczywiste znaczenie danych. Pod koniec II wojny światowej w 1945 roku, w artykule "As We May Think", opublikowanym w The Atlantic, Vannevar Bush wyraził zaniepokojenie wykorzystywaniem technologii do tworzenia maszyn szaleństwa (broni) i wyobraził sobie aparat pamięci zbiorowej, który promowałby zrozumienie zamiast zniszczenia. Rodzaj prywatnej biblioteki, która była środkiem do przechowywania wszystkich książek, komunikacji i dokumentów do indywidualnego użytku, które zostały zmechanizowane, aby można było szybko uzyskać do nich dostęp i przeczytać. Nazwał to memexem i miało uzupełniać ludzką pamięć, czyniąc wiedzę bardziej dostępną, przekształcając eksplozję informacji w eksplozję wiedzy. Bush wyobraził sobie wiele technologii wymyślonych po jego artykule, takich jak rozpoznawanie mowy, komputery osobiste, Internet, hipertekst i Wikipedia, dzięki którym ludzie mogą łączyć ze sobą wiele różnych rzeczy na jednym ekranie. Ostatecznie ta wymiana pomysłów i sposób, w jaki każda pojedyncza myśl była powiązana z innym łączem, może zostać przechwycony, a następnie wykorzystany przez innych.

Hiperwyszukiwanie

Decydujący rozwój nastąpił mniej więcej w tym samym czasie, gdy Bush opublikował "As We May Think". Opracowana głównie w celu rozwiązywania problemów wyszukiwania informacji, analiza cytowań została opracowana w 1940 roku przez Eugene′a Garfielda, który zainspirował się indeksem cytowań prawa Shepharda. Zastosowana w świecie akademickim ta metodologia hierarchicznego organizowania informacji stała się status quo dla autorstwa, a wraz z nim autorytetu. Opracowując kompleksowy indeks cytowań naukowych (SCI), który skupiał się na czasopismach naukowych, Garfield zmierzył współczynnik wpływu, według którego ważniejsze jest otrzymywanie cytowań z czasopism o wyższej randze. Garfield zastosował to do patentów technologicznych i publikacji naukowych, nazywając to "hiperwyszukiwaniem". System ten był zorganizowany chronologicznie - najnowsze przypadki były najbardziej istotne i dlatego miały największy autorytet. SCI nie mierzy treści, ale linki lub odniesienia i ich reputację: efekt prawdopodobieństwa, w którym im częściej artykuł lub artykuł jest cytowany, tym częściej będzie on cytowany później, umożliwił znacznie większe prawdopodobieństwo odniesienia do prac, które są już popularne . Ta innowacja jest kluczem do zrozumienia naszej "kultury linków", w której hiperłącza określają, w jaki sposób znajdujemy informacje, oraz przyszłości rozwoju wyszukiwarek, prowadzącej do pojawienia się Google i PageRank.

Wyszukiwanie w Internecie przed Internetem

Pod koniec lat 80. ręczne zestawianie danych odegrało kluczową rolę w historii wyszukiwarek, które były w stanie poruszać się po tym, co jest obecnie znane jako pre-sieć. Ten typ wyszukiwania polegał na ręcznym tworzeniu indeksów przez użytkowników, którzy musieli napisać przewodnik. Następnie protokół przesyłania plików (FTP) umożliwił przenoszenie plików między komputerami - wybierając serwer FTP z listy serwerów. Użytkownik uzyskałby listę serwerów publicznych od znajomych lub współpracowników, którzy pobrali je wcześniej, i istniał dokument podsumowujący zawartość. Wraz z rozwojem sieci przeszukiwanie serwerów FTP stało się uciążliwe, a wraz ze wzrostem ich liczby rosły niespójności. W tym czasie do sieci dołączały uniwersytety i dopiero stworzenie Archiego - czegoś, co można uznać za pierwszą wyszukiwarkę internetową - zmieniło to wszystko, ponieważ indeksowało strony i katalogi FTP. Archie nie przeszukiwał całego dokumentu ani nie odkrywał połączonych ze sobą serwerów, ale skupiał się na tym w tytułach plików. Kontynuowano ręczne publikowanie plików zakładek osobistych przez ludzi jako stron internetowych, przechowując te zbiory adresów URL jako wartość naliczoną, ponieważ można je było udostępniać grupom ludzi. Jednym z pośrednich etapów przejścia od przeglądania plików do wczesnych początków Internetu w 1991 roku był ekosystem Gopher, który był hierarchiczną strukturą sterowaną menu, która działała poprzez katalogi i nadal jest postrzegany przez niektórych jako alternatywa dla świata Szeroka sieć. Veronica pojawiła się później i została umieszczona na serwerach, aby dać Gopherowi większy indeks, ale potrzebował robota do przeszukiwania katalogów o strukturze menu. Jednak Gopherowi brakowało czegoś, co nazywano hipertekstem. I podobnie jak SCI i dzisiejsze hiperłącza technologii wyszukiwania słów kluczowych, artykuły, które ludzie czytają lub piszą, są udostępniane i łączone w jednym systemie.

Sieć WWW i hipertekst

W 1989 roku Tim Berners-Lee podczas pracy w CERN zaproponował system zarządzania informacjami, nazwany World Wide Web; później tego roku pojawił się tak zwany protokół przesyłania hipertekstu. Wyświetlany na komputerach lub urządzeniach elektronicznych hipertekst zawiera odniesienia lub odsyłacze do łączy, zwane hiperłączami, które po kliknięciu pokazują różne poziomy szczegółowych informacji. Ta podstawowa struktura sieci World Wide Web została następnie udostępniona w Internecie w 1991 r. Wiele stron internetowych jest napisanych w hipertekstowym języku znaczników, który umożliwia łączność z różnymi stronami z całego świata. Stosując ten system hiperłączy, pierwsza witryna internetowa została uruchomiona 6 sierpnia 1991 r., A pierwszym serwerem WWW był info.cern.ch, przy czym pierwszy adres strony internetowej lub hiperłącze to http://info.cern.ch/hypertext/WWW/ Projekt.html. W 1991 roku World Wide Web stał się dostępny dla osób spoza społeczności akademickiej, aw 1992 roku rozwinęła się przeglądarka o nazwie Lynx, która wykorzystywała łącza hipertekstowe w dokumentach. Erwise była przeglądarką graficzną korzystającą z biblioteki libwww lub biblioteki World Wide Web (https://en.wikipedia.org/wiki/Libwww) i została opracowana przez grupę studentów studiów magisterskich w Helsinkach w Finlandii w 1992 r., ale została nigdy nie sfinansowano dalszego postępu. Wizualnie interaktywny zorientowany obiektowo język i aplikacja (ViolaWWW) została stworzona w 1992 roku i była pierwszą przeglądarką, która dodała rozszerzoną funkcjonalność, taką jak osadzone obiekty skryptowe, arkusze stylów i tabele. Ostatecznie ViolaWWW przegrała z inną przeglądarką graficzną o nazwie Mosaic, rodzajem centralnego układu nerwowego, która została wydana w 1993 roku. Ta przeglądarka umożliwiła dostęp do systemu nie tylko maniakom, ale także użytkownikom z całego świata, a następnie została przeniesiona do systemu Microsoft Windows, dzięki czemu jest popularny i dostępny. Ruch w sieci World Wide Web wzrósł z około 500 znanych serwerów w 1993 r. do 10 000 w 1994 r.; Mozaika stała się dominującym modelem przeszukiwania sieci. Bardzo szybko po powstaniu World Wide Web na początku lat 90. pojawił się problem zlokalizowania odpowiednich dokumentów w rozrastającej się przestrzeni informacyjnej. W sieci brakowało wbudowanego mechanizmu indeksowania i kategoryzacji. Jest on połączony tylko z jednokierunkowymi hiperłączami - choć zmieniło się to nieco wraz z pojawieniem się platform społecznościowych. Ponieważ przestrzeń rozszerzała się wykładniczo, samo podążanie za linkami stało się niemal natychmiast niepraktyczne. Słowa kluczowe istnieją w indeksach książek, gdzie słowa pojawiające się na stronach są wymienione na końcu książki i są również niejako "odwróconym indeksem"; to znaczy odwracają proces, aby czytelnik mógł znaleźć strony zawierające dane słowo. Aby przetworzyć informacje (dane), wyszukiwarki musiałyby zbudować indeks, choć pojawiały się pytania dotyczące tego, które części powinny być indeksowane: tytuły stron, metadane, tekst hiperłączy czy pełny tekst. W ten sposób indeksowanie i kategoryzacja zostały stworzone jako dodatkowa usługa w tej przestrzeni, a nie jako część protokołów, które tworzą przestrzeń w pierwszej kolejności. Dostawcy takich indeksów od samego początku byli bardzo prominentnymi podmiotami. Początkowo, w 1994 r., to Yahoo zaoferowało bardzo znajomo wyglądający katalog, podobny do katalogu biblioteki, który został skompilowany przez ekspertów. Chociaż ten tradycyjny format sprawiał, że stosunkowo nieznana przestrzeń sieci wydawała się dla wielu mniej obca, szybko napotkał poważne problemy, zarówno pod względem skali (nie można było nadążyć za rozwojem sieci), jak i ontologii (system kategoryczny nie mógł pomieścić złożoności i dynamizmu przestrzeni informacyjnej, którą rzekomo organizował).

Indeksowanie

Uważany za pierwszego robota sieciowego, World Wide Web Wanderer został pierwotnie zaprojektowany do mierzenia rozmiaru sieci w czerwcu 1993 roku i istniał do końca 1995 roku. Napisany w Perlu Wędrowiec wędrował po sieci hiperłączy, indeksując tytuły i stworzył indeks o nazwie Wandex. Podczas indeksowania ci indeksatorzy odkrywali nowe dokumenty i decydowali, co zindeksować, tworząc archiwa i decydując, w jaki sposób elementy powinny być uporządkowane i zorganizowane poprzez analizę składniową. Ale WebCrawler w 1994 roku był uważany za pierwszą wyszukiwarkę indeksującą wyszukiwanie pełnotekstowe i pierwotnie miał własną bazę danych z reklamami w oddzielnych obszarach na stronie. W 1995 roku pojawiła się AltaVista, pierwsza pełnotekstowa wyszukiwarka oparta na automatycznym gromadzeniu i indeksowaniu informacji. Ponieważ był szybszy i bardziej wszechstronny, szybko wyprzedził katalog skompilowany przez człowieka. Ustanowił również standardowy obecnie paradygmat interfejsu stosunkowo pustej strony z prostym polem wyszukiwania, w którym można było wpisać zapytanie i otrzymać uszeregowaną listę wyników wyszukiwania. Koniec lat 90. był okresem wielkiej różnorodności dostawców wyszukiwarek, z dziesiątkami wyszukiwarek konkurujących o udział w rynku, wykorzystujących reklamę jako model biznesowy z kapitałem podwyższonego ryzyka. Według podsumowania wczesnej ery wyszukiwarek, sporządzonej przez Elizabeth Van Couvering, świadczono dwa rodzaje usług. Z jednej strony "katalogi internetowe" firm Yahoo, Magellan (który był pionierem w ocenianiu redakcyjnym) i LookSmart były kategoryzowane, a nawet oceniane przez zespół redakcyjny. Oferowali użytkownikowi możliwość przeglądania swoich katalogów i efektywnego wyszukiwania, ponieważ istniały gotowe i dostępne indeksy, które zostały wybrane, przefiltrowane lub wyselekcjonowane, nawet ręcznie. Z drugiej strony istniały "silniki", które były bardziej złożone i wykorzystywały zautomatyzowaną technologię do przeglądania, indeksowania, a następnie automatycznego dostarczania zwrotów z zapytań przesłanych przez użytkowników. W latach 90. wyszukiwarki nadal się rozwijały, ponieważ postęp technologiczny umożliwił szybsze przetwarzanie i większą przestrzeń dyskową. Kluczowym czynnikiem był szybki wzrost, który umożliwił rozbudowę indeksu lub bazy danych. Van Couvering twierdzi, że to projekt tych struktur musiał zostać wdrożony, a istniała konkurencja między firmami, które miały największą bazę danych - rozmiar silnika lub indeksu katalogów - i mogły najszybciej aktualizować zapytania wyszukiwania lub szybkość wyszukiwanie. W 1996 roku istniały już "wyszukiwarki metawyszukiwarki", które działały zgodnie z zasadą "po co przeszukiwać sieć za pomocą jednej wyszukiwarki, skoro można przeszukiwać ją wszystkimi - lub przynajmniej kilkoma?" Te wyszukiwarki były agregatorami zbierającymi wyniki z różnych algorytmów. Opierając się na zapytaniach użytkowników, wysłali następnie własne zapytania do wyszukiwarek i ustrukturyzowali wyniki lub uszeregowali je i wyświetlili z powrotem użytkownikowi. Po raz kolejny uniwersytet był miejscem innowacji, a Savvysearch Daniela Dreilingera na Colorado State University korzystał z około 20 różnych wyników wyszukiwania. Istniała Metaseek, kontekstowa wyszukiwarka obrazów oraz HotBot, który łączył wyniki z Inktomi i bazy danych Direct Hit, w której użytkownik mógł wyszukiwać w wynikach wyszukiwania. Innym typem wczesnej wyszukiwarki była Northern Light, która skupiała wyniki zarówno z prywatnych, jak i publicznych zasobów informacyjnych oraz niestandardowych wyszukiwarek, uważanych wówczas za innowację. Jak widzieliśmy w prehistorii wyszukiwarek i robotów indeksujących, Ask Jeeves (obecnie http://www.ask.com/) odwoływał się do nazwiska spersonalizowanego lokaja i uczynił go bardziej przyjaznym dla użytkownika, ułatwiając najbardziej często zadawane pytania w postaci krótkich zdań. W 1998 roku zawierała witryny oceniane redakcyjnie, nawiązujące do wcześniejszych dni eksploracji Magellana, ale z nowym interfejsem. Podczas gdy pierwsza era wyszukiwarek odzwierciedlała katalogi połączone z eksperymentalnymi sposobami wyszukiwania (np. metawyszukiwanie, grupowanie, przyjazność) oraz innowacje techniczne ze źródeł akademickich, publicznych i prywatnych, w następnej epoce rynek i komercjalizacja zapanowały. Okres środkowy rozpoczął się wraz z boomem ery dotcomów pod koniec 1997 roku i trwał do 2001 roku. Według Van Couveringa (2010) "charakteryzował się on zmianą punktu ciężkości z wyszukiwarek na" portale "oraz zaangażowaniem tradycyjnych mediów i gigantów telekomunikacyjnych w branży" (s. 100). Można to opisać jako połączenie wyszukiwarki z innymi usługami, treściami od reklamodawców, które obejmowały szereg tematów, takich jak zakupy, podróże, poczta elektroniczna, muzyka i finanse. Aspekt nawigacyjny nadal istniał wraz z usługą katalogową, jednak pojęcie i terminologia "portalu" zaczęto używać coraz częściej od 1997 roku, a kapitał wysokiego ryzyka nadal odgrywał rolę, mimo wycofania wyszukiwarki z rdzenia Model biznesowy. Jednym z przykładów konglomeracji portali i modeli biznesowych, które zostały włączone do aktu wyszukiwania, był iWon, w którym każde zapytanie było losem do loterii wypłacanej użytkownikom. Agregatory, takie jak Dogpile i MetaSearch, przeszukiwały inne wyszukiwarki w celu uzyskania wyników, a Direct Hit zdobył ranking popularności. Wraz z mnożeniem się przejęć i fuzji pod koniec lat 90. pole się zmniejszyło, a przed krachem bańki internetowej w latach 2000-2001 nadal były pieniądze z kapitału podwyższonego ryzyka. Te fuzje odzwierciedlały próbę dokooptowania areny przez konglomeraty medialne, zaniedbując jednocześnie poszukiwania. Van Couvering opisuje ten okres w historii wyszukiwarek jako dwojakiego rodzaju, ponieważ konkurowały one, ale także były łączone. Istniała koncepcja "ogrodu otoczonego murem", zgodnie z którą firmy myślały, że mogą kontrolować jedną część Internetu. Drugim była integracja różnych form treści.

Sortowanie, filtrowanie i ranking

Wraz z końcem tysiąclecia i rozwojem cyfryzacji technologie komunikacyjne drastycznie zmieniły czas reakcji między stronami. Społeczny problem nadmiaru informacji zaczął odgrywać decydującą rolę w projektowaniu wyszukiwarek. Wracając do kwestii żeglowności, a raczej jej braku w tamtym czasie, mówiono o stworzeniu kompletnego indeksu, który umożliwiłby ludziom znalezienie czegokolwiek. Wraz ze wzrostem liczby dokumentów rosła również trudność w znalezieniu tego, czego faktycznie szukano, ponieważ można było przetworzyć tylko określoną liczbę dokumentów. Jak znaleźć żądane rzeczy, czy to informacje, czy wiedzę, wraz z sortowaniem i filtrowaniem, stały się kluczowymi zagadnieniami dotyczącymi wyszukiwania w sieci. Pod koniec lat 90. zmieniały się treści w sieci. Producenci treści, od blogerów internetowych po gigantów medialnych, zaczęli rozumieć, że wyszukiwarki muszą być w stanie nie tylko sortować informacje, ale także łączyć je z tym, co chcą znaleźć. W przypadku wyszukiwarki pytanie dotyczyło tego, jak odróżnić użytkowników poszukujących pornografii (co również było dominującą czynnością) od innych osób poszukujących informacji lub po prostu surfujących po sieci. W 1998 roku stosunkowo późno weszło na tę rozwijającą się dziedzinę mała firma o nazwie Google, składająca się z dwóch studentów, Sergeya Brina i Larry′ego Page′a z Uniwersytetu Stanforda. Dzięki innowacyjnym metodom przeszukiwania, indeksowania i sortowania Google szybko zdominował tę dziedzinę, zwłaszcza na Zachodzie, częściowo dlatego, że opierał się na doskonałych algorytmach indeksowania i wyszukiwania, a częściowo dlatego, że nadal koncentrował się na wyszukiwaniu, bez większego planu biznesowego. Koncepcja trafności, którą Brin i Page (1999) wzięli pod uwagę podczas projektowania PageRank, opierała się na odkryciu, że "ludzie wciąż są skłonni spojrzeć tylko na kilka pierwszych dziesiątek wyników" (s. 108). Stwierdzenie to jest kluczowe, ponieważ przyjmuje pozycję użytkownika, który musi mieć możliwość przeszukiwania dużych indeksów informacji. To właśnie ten aspekt stanowił o efektywności nawigacji i jakości wyników wyszukiwania, które Brin i Page uznali za istotne. PageRank Google ma swoje podstawy w SCI, który został teraz zaszczepiony jako koncepcyjny paradygmat dla sposobu, w jaki wyszukujący znajdują informacje oraz jak te informacje są ustalane priorytetowo i organizowane. Hiperłącza stały się czymś więcej niż tylko połączeniami i są uważane za głosy, a wysoka popularność linków prowadzi do poprawy rankingu. Schemat przypisuje każdej stronie dwie oceny: (1) jej autorytet, który szacuje wartość zawartości strony, oraz (2) jego wartość hub, która szacuje wartość jej linków do innych stron (dotyczy to również wartość linku zwrotnego) lub wynik popularności. Ponadto algorytm PageRank wziął pod uwagę częstotliwość i lokalizację słów kluczowych na stronie oraz czas istnienia strony.

Personalizacja

Kiedy Lucas D. Introna i Helen Nissenbaum napisali swój przełomowy tekst na początku nowego tysiąclecia, "Shaping the Web: Why the Politics of Search Engines Matters", World Wide Web była rosnącą przestrzenią stron internetowych, które niekoniecznie były ze sobą połączone. Zdaniem firm Introna i Nissenbaum o sposobie wyszukiwania w Internecie decydują dwa aspekty: jednym jest pozycja użytkownika lub osoby poszukującej, a drugim strony, które chcą zostać znalezione, oraz technologia, która umożliwia tę funkcję. Początkowo pojedynczą zmienną łączącą te dwa aspekty było zapytanie; wszyscy użytkownicy uzyskali te same wyniki wyszukiwania dla danego zapytania, a wszyscy reklamodawcy uzyskali tych samych użytkowników dla wyszukiwanego hasła, dla którego wykupili miejsce reklamowe. Aby połączyć użytkowników z reklamodawcami, wyszukiwarki wykorzystują adres IP użytkownika, numeryczną etykietę przypisaną do dowolnego typu urządzenia podłączonego do sieci i wykorzystującego adres IP do komunikacji. W prehistorii wyszukiwarek rejestracja adresu zamieszkania była sposobem identyfikacji obywateli, podczas gdy we współczesnym społeczeństwie cyfrowym adres IP określa lokalizację użytkownika. Adresy IP nie tylko umożliwiają przesyłanie danych, ale także wyszukiwarki wykorzystują ten sposób do identyfikacji i przypisania użytkowników w celu dostarczania dostosowanych wyników. Od 4 grudnia 2009 r. Google stosuje personalizację, która przechwytuje i rejestruje historię użytkowników oraz dostosowuje poprzednie zapytania do wyników wyszukiwania w czasie rzeczywistym, nawet jeśli nie jest się zalogowanym na konto Google. Ta stronniczość wyszukiwarek zatrzymuje dane użytkownika jako algorytmy, które zbierają, wyodrębniają, filtrują i monitorują zachowanie użytkowników online, oferując sugestie dotyczące kolejnych żądań wyszukiwania. Eli Pariser charakteryzuje te działania przez pryzmat "bańki filtrującej", dzięki której użytkownicy nie otrzymują informacji odbiegających od ich własnych i zniechęcają się do poznawania rzeczy, których jeszcze nie znają. Zamiast tego użytkownicy otrzymują rekomendacje z sieci społecznościowych i historii wyszukiwania, które prowadzą do "efektu zniekształcenia", jednego z wyzwań stawianych przez spersonalizowane filtry. Dzięki wyszukiwaniu wyprzedzającemu opartemu na funkcjach poprzednich wyszukiwań użytkownicy pozostają teraz w dymkach filtrów, pozycjach, które ludzie już znają i wspierają. W ten sposób personalizacja legitymizowała internetową sferę publiczną, którą manipulują algorytmy wyszukiwania. W zamian za dane użytkownicy otrzymują dopasowane reklamy, dopasowują rzeczy, zamieniają się w towary dla reklamodawców i otrzymują bezpłatne korzystanie z Internetu. Większość użytkowników wyszukujących codziennie pozwala na taką personalizację bez usuwania plików cookie lub instalowania wtyczek, które by to blokowały. Ta personalizacja jest walutą w internetowym marketingu danych, skorelowanym za pomocą technologii algorytmicznych, ponieważ informacje (dane) są pozyskiwane przez marketerów lub osoby trzecie. Od początku XXI wieku potrzeba przyciągnięcia widzów przesunęła się na potrzebę zarabiania na tym, co widzą widzowie. Obecnie Google czerpie swoje zyski z AdWords, dzięki któremu reklamodawcy płacą, gdy użytkownicy klikają w ich płatne reklamy, co stało się głównym źródłem przychodów Google (ponad 90%). Jak sugeruje Van Couvering w swoim badaniu z 2010 r.: "Następny rozwój reklamy typu pay-perclick ma kluczowe znaczenie dla obecnej struktury przemysłu, oligarchii praktycznie zintegrowanych firm zarządzających sieciami reklamy konsorcjalnej i dystrybucji ruchu" (s. 3). Wyszukiwanie jest jedną z najczęstszych codziennych czynności, którą użytkownicy często traktują jako coś oczywistego, oferując słowa kluczowe dla rzeczy, które chcą wiedzieć. Kiedy użytkownicy wpisują słowa kluczowe w Google jako wyszukiwarce, Google wypełnia to słowo, oferując w ten sposób sugestie za pomocą autouzupełniania, które rozciąga się na jego system AdWords. Intencją jest przekierowanie myśli użytkowników i wybranie popularnych słów, za które zapłacili reklamodawcy. Według Frederica Kaplana (2014), sukces bardzo oryginalnego modelu biznesowego Google to historia dwóch algorytmów. Pierwszy - pionierski nowy sposób kojarzenia stron internetowych z zapytaniami opartymi na słowach kluczowych - zapewnił Google popularność. Drugie - nadanie tym słowom kluczowym wartości komercyjnej - uczyniło Google bogatym. Dzięki AdWords Google jest w stanie stworzyć model dla słów kluczowych, które są sprzedawane na aukcjach algorytmicznie. Wyszukiwarki działają teraz w czasie rzeczywistym, stale aktualizując informacje i często eksplorując dane użytkowników, które przechowują i wykorzystują do ukierunkowanej reklamy i celów marketingowych. Sukces Google pomógł ustanowić reklamę jako dominujący model biznesowy w tej dziedzinie i zrestrukturyzował reklamę zgodnie z logiką kapitalizmu semantycznego, co oznacza, że każde słowo w dowolnym języku ma teraz wartość. Tak więc praktycznie wszystkie dzisiejsze wyszukiwarki mają podwójny cel: dostarczają wyniki wyszukiwania użytkownikom, a użytkownikom reklamodawcom. W wyszukiwarce Google nacisk kładziony jest na utrzymanie uwagi użytkowników i zachęcanie ich do klikania wyższych pozycji w rankingach bez wysiłku. Jednak, jak wskazuje Tarleton Gillespie, dokładne działanie jest nieprzejrzyste i różni się dla różnych użytkowników, co sprawia, że system jest wysoce niesprawiedliwy. Nie tylko twórcy treści stron internetowych są kontrolowani przez wyszukiwarki, ale także śledzenie różnych czynników lub sygnałów decyduje o rankingu danej strony. Głównie dzięki inżynierii wstecznej cała branża optymalizacji wyszukiwarek rozwinęła się wokół "ogrywania" algorytmu w celu znalezienia jego przepisu lub sygnałów. Dzięki AdWords Google jest w stanie stworzyć model dla słów kluczowych, które są sprzedawane na aukcjach algorytmicznie. Wyszukiwarki działają teraz w czasie rzeczywistym, stale aktualizując informacje i często eksplorując dane użytkowników, które przechowują i wykorzystują do ukierunkowanej reklamy i celów marketingowych. Sukces Google pomógł ustanowić reklamę jako dominujący model biznesowy w tej dziedzinie i zrestrukturyzował reklamę zgodnie z logiką kapitalizmu semantycznego, co oznacza, że każde słowo w dowolnym języku ma teraz wartość. Tak więc praktycznie wszystkie dzisiejsze wyszukiwarki mają podwójny cel: dostarczają wyniki wyszukiwania użytkownikom, a użytkownikom reklamodawcom. W wyszukiwarce Google nacisk kładziony jest na utrzymanie uwagi użytkowników i zachęcanie ich do klikania wyższych pozycji w rankingach bez wysiłku. Jednak, jak wskazuje Tarleton Gillespie, dokładne działanie jest nieprzejrzyste i różni się dla różnych użytkowników, co sprawia, że system jest wysoce niesprawiedliwy. Nie tylko twórcy treści stron internetowych są kontrolowani przez wyszukiwarki, ale także śledzenie różnych czynników lub sygnałów decyduje o rankingu danej strony. Głównie dzięki inżynierii wstecznej cała branża optymalizacji wyszukiwarek rozwinęła się wokół "ogrywania" algorytmu w celu znalezienia jego przepisu lub sygnałów.

PageRank do RankBrain

Od początku XXI wieku Google nieustannie ulepsza swój zastrzeżony algorytm, który rzekomo zawiera około 200 składników lub sygnałów w przepisie. Lokalizacja wyszukiwania, historia przeglądania, linki, treść, gęstość słów kluczowych, pogrubione słowa, duplikaty treści, czas rejestracji domeny i jakość linków wychodzących to tylko niektóre przykłady czynników lub wskazówek. Jedną z głównych zmian w 2010 r. w podstawowym algorytmie PageRank była aktualizacja Caffeine, która umożliwiła usprawnienie gromadzenia informacji lub indeksowania, zamiast samego sortowania. Opisany jako zmiana w architekturze indeksowania, ten nowy ekosystem internetowy ułatwia wyszukiwanie treści natychmiast po ich zaindeksowaniu, zapewniając bardziej aktualny indeks. Panda była aktualizacją wdrożoną w 2011 roku, która obniżyła ranking witryn uważanych za niższą jakość, umożliwiając wzrost stron o wyższej jakości. W kwietniu 2012 r. Google uruchomił aktualizację Penguin, która próbuje wyłapywać strony spamujące (np. kupujące lub uzyskujące linki przez sieci i poprawiające rankingi Google). Teraz dewaluuje spam zamiast degradować (dostosowując pozycję) całej witryny, a od 30 września 2016 r. aktualizuje w czasie rzeczywistym jako część podstawowego algorytmu. Analogicznie do elementów silnika, w którym wymieniono części, gdzie Penguin i Panda mogą być odpowiednio filtrem oleju i pompą paliwa, wprowadzenie na rynek Hummingbirda w sierpniu 2013 r. było największym przeglądem Google od 2001 r. Wraz z wprowadzeniem zupełnie nowego silnik, nacisk przesunął się na kontekst - mniej chodzi teraz o słowo kluczowe, a bardziej o intencje, które za nim stoją; stawką są możliwości semantyczne. Chodzi teraz o pozostałe słowa w zdaniu i ich znaczenie, a poziom złożoności zapytań wzrósł, co zaowocowało poprawą indeksowania dokumentów internetowych. W tej dziedzinie wyszukiwania semantycznego relacyjność łącząca zapytania wyszukiwania i dokumenty internetowe jest odzwierciedlona w Grafie wiedzy, wraz z wyszukiwaniem konwersacyjnym, które obejmuje zapytania aktywowane głosem. Jeśli Hummingbird jest nowym silnikiem Google od 2013 roku, najnowszą częścią zamienną jest RankBrain. Uruchomiona na początku 2015 r. rzekomo interpretuje to, czego szukają ludzie, nawet jeśli nie wprowadzili dokładnych słów kluczowych. Mówi się, że RankBrain jest trzecim najważniejszym sygnałem, po linkach i treści (słowach), i wnioskuje o użyciu słowa kluczowego, stosując synonimy lub listy słów kluczowych. Zapytania użytkowników również uległy zmianie i są teraz nie tylko słowami kluczowymi, ale także wielowyrazowymi, frazami i zdaniami, które można uznać za zapytania z długim ogonem. Muszą one zostać przetłumaczone pod pewnym względem, z niejednoznacznych na konkretne lub rzadkie na powszechne, aby mogły zostać przetworzone i przeanalizowane. Jednak znalezienie spersonalizowanych wyników dla konkretnych osób jest trudne; dlatego jest prawdopodobne, że Google przypisuje te złożone zapytania do grup o podobnych zainteresowaniach, aby wspólnie je filtrować. Od czerwca 2016 r. RankBrain jest wdrażany dla każdego zapytania w wyszukiwarce Google, a branża zajmująca się optymalizacją wyszukiwarek spekuluje, że podsumowuje zawartość stron. Szeptem jest, że algorytm się adaptuje, czyli "uczy się" na błędach ludzi i otoczenia. Według Google algorytm uczy się offline, otrzymując dane z historycznych wyszukiwań wsadowych, na podstawie których tworzy prognozy. Ten cykl jest stale powtarzany, a jeśli prognozy się sprawdzą, najnowsze wersje RankBrain zostaną uruchomione. Wcześniej komputery nie były wystarczająco wydajne lub szybkie lub zbiory danych były zbyt małe, aby przeprowadzać tego typu testy. Obecnie, w dobie big data, obliczenia są rozproszone na wielu maszynach, co pozwala przyspieszyć tempo badań. Ten postęp technologiczny ułatwia konstelację lub połączenie różnych możliwości z różnych źródeł, poprzez modele i parametry. Ostatecznie podmiot lub uczeń, w tym przypadku algorytm, jest w stanie przewidzieć poprzez powtarzanie. Powstaje zatem pytanie, w jakim stopniu człowiek przystosował się do algorytmów w tym procesie uczenia maszynowego i czy algorytmy mogą wiedzieć, czy osoba wyszukująca wie, czego szuka, czy też jest to z góry określone przez wyszukiwarki, zamiast pozwolić im potencjalnie surfować po Internecie?

Alternatywy wyszikawania

Introna i Nissenbaum sugerują w swoim badaniu z 2000 r.: "Rozważ publiczne poparcie dla rozwoju bardziej egalitarnych i integracyjnych mechanizmów wyszukiwania oraz badań nad technologiami wyszukiwania i metawyszukiwania, które zwiększyłyby przejrzystość i dostęp" (s. 181). Jak widzieliśmy w prehistorii wyszukiwarek internetowych, Wells, Otlet i La Fontaine, aw końcu Google chciałoby uporządkować światowe informacje. W większości to jednostki finansowane przez uniwersytety lub państwo rozwijały technologie wyszukiwania, w tym rodzący się Google. Obecnie istnieją wyszukiwarki, które mają podobny model biznesowy do Google i które również wykorzystują reklamy do organizowania wyników wyszukiwania. Według Statcounter.com, od września 2016 do września 2017 Baidu miał 60% udział w rynku wyszukiwania na komputery stacjonarne w Chinach, Yanex miał 54% udział w Rosji, a Google dominował w Europie (86%) i Ameryce Północnej z około 80 %. Inne kraje o mniejszej populacji, których język jest mniej używany na całym świecie, niestety pozostają w tyle. Wyszukiwarka MSN stała się Bing firmy Microsoft w 2009 roku i drugą najpopularniejszą wyszukiwarką na świecie, aw latach 2016-2017 miała 12% udziału w rynku komputerów stacjonarnych w Stanach Zjednoczonych, oferując wyszukiwania wizualne i powiązane wyszukiwania oraz sprzedawana jako silnik decyzyjny. Yahoo to wyszukiwarka, która ma 4% udziału w światowym rynku komputerów stacjonarnych, będąc jednocześnie ucieleśnieniem wszechstronnego portalu internetowego, który łączy usługi poczty elektronicznej, katalogi podróży, agregację wiadomości, wiele funkcji zakupów i Yahoo Answers, gdzie użytkownicy mogą zadawać pytania. Istnieje coraz więcej wyszukiwarek, które koncentrują się na małej skali, grupując wyniki wyszukiwania według określonych tematów, a następnie pokazując wizualizacje danych lub diagramy. Usieciowane wyniki z innych wyszukiwarek są tym, co nadal wyróżnia Dogpile wraz z rosnącym indeksem. Aby znaleźć bardziej niejasne informacje, na które nie odpowiedziały konwencjonalne wyszukiwarki, istnieje Yippy (dawniej Clusty), metawyszukiwarka, która przeszukuje inne wyszukiwarki i promuje konserwatywne wartości. Posiada również komercyjną wyszukiwarkę korporacyjną, która specjalizuje się w udoskonalonych atrybutach wyszukiwania, odkrywając koncepcje w klastrach dużych zbiorów danych. Dzięki zastosowaniu technologii Yippy Search Appliance, która jest taka sama, jak Watson Explorer firmy IBM, która codziennie przetwarza średnio 2,5 tryliona bajtów danych, rozumie kontekst i wyciąga wnioski za pomocą przetwarzania języka naturalnego, a tym samym kuratoruje treść. Istnieją również różne metody wyszukiwania. Na przykład Tor (The Onion Router) to sieć zachowująca anonimowość o niskim opóźnieniu, która umożliwia użytkownikom ochronę ich prywatności w Internecie i umożliwia komunikację. Sieć Tor p2p to sieć serwerów proxy, w której dane są przesyłane przez trzy przekaźniki (wejściowy, środkowy i wyjściowy), dodając warstwę szyfrowania w każdym węźle, jednocześnie odszyfrowując dane przy każdym "przeskoku" i przekazując je do następnej cebuli routera, nie ujawniając w ten sposób adresu IP użytkownika. Oprócz aktorów rządowych z branży bezpieczeństwa, aktywistów, dysydentów i demaskatorów używających Tora, są tacy, którzy chcą przeszukiwać regiony Internetu (głęboka sieć), które nie zostały jeszcze zindeksowane przez Google, aby utworzyć sieć powierzchniową.

Istnieją kontrowersje wokół sieci Tor, łączącej Tor z tak zwanym darknetem i jego ukrytymi usługami, od sprzedaży nielegalnych narkotyków, broni i pornografii dziecięcej po strony anarchistyczne, haktywistyczne i polityczne. Najczęściej używanymi wyszukiwarkami w darknecie są Torch, który istnieje od ponad 10 lat; Gramy na targowiska wszelkiego rodzaju; i Ahmia, która filtruje pornografię. Wyszukiwarka sieciowa Memex została stworzona przez amerykańską wojskową agencję ds. projektów badawczych ds. postępów w obronie w celu śledzenia działalności przestępczej. Deep web odnosi się do stron internetowych, które nie są indeksowane przez żadną standardową wyszukiwarkę, taką jak Google czy Yahoo. W przeciwieństwie do zwykłej sieci, która jest indeksowana przez roboty-pająki, głębokie strony internetowe są zwykle trudniejsze do zlokalizowania przez konwencjonalne wyszukiwarki i składają się z baz danych, forów internetowych wymagających rejestracji, stron poczty internetowej i stron płatnych. StartPage była kiedyś domyślną wyszukiwarką Tora, ale od marca 2015 roku Tor włączył Disconnect Search do swojego pakietu przeglądarki jako domyślną wyszukiwarkę, która zwraca wyniki wyszukiwania Google bez ujawniania adresów IP użytkowników. Na swojej stronie internetowej Disconnect oświadcza, że "nie zbiera twojego adresu IP ani żadnych innych danych osobowych, z wyjątkiem informacji, które podajesz dobrowolnie". Następnie Disconnect zaczął dostarczać wyniki z Bing zamiast wyników wyszukiwania Google, a od czerwca 2016 r. DuckDuckGo jest domyślną wyszukiwarką dla Tora. DuckDuckGo określa się jako przeglądarka zapewniająca prywatność, która nie przechowuje informacji, stwierdzając, że nie śledzi użytkowników i dlatego nie wysyła ukierunkowanych reklam. Jego możliwości informacyjne bez kliknięć, dzięki którym wszystko pojawia się na pierwszych stronach, wraz ze stronami kategorii, które sugerują odpowiednie tematy, niekoniecznie zawarte w zapytaniu, to dwie z jego funkcji. Ponadto wykrywanie tematów semantycznych pyta użytkownika o niejednoznaczne terminy, a następnie dostosowuje wyniki na podstawie odpowiedzi. Wyniki wyszukiwania zawierają mniej spamu dzięki partnerstwu z Parked Domains Projects, które identyfikuje spam i zaparkowane domeny, a następnie eliminuje je wraz z ludzką kuracją i nadzorowaniem spamu. Linki te są następnie usuwane, pozostawiając prostszy i czystszy interfejs. Jednak spółki budują własne indeksy, a zatem ruch na rzecz indeksu publicznego i konsekwencje, jakie może to mieć dla całego społeczeństwa, ma kluczowe znaczenie. Finansowane przez państwo europejskie próby z Quaero w połowie 2000 roku nie powiodły się, głównie z powodu sporów między Francuzami, pragnącymi multimedialnej wyszukiwarki, a Niemcami preferującymi wyszukiwarkę tekstową. Aby hiperłącze było lubiane, udostępniane i retweetowane, co jest miarą jego popularności i wartości w rankingu, treść (strony internetowe) musi najpierw zostać zaindeksowana przez wyszukiwarkę. Niezastrzeżone indeksy umożliwiłyby kontrstrategie eksploracji nowych metod wyszukiwania informacji za pomocą wyszukiwarek, z filtrowaniem kierowanym przez człowieka lub współdzieleniem informacji przez sieci. Dzięki alternatywnemu wyszukiwaniu publiczne indeksy sieci byłyby dostępne dla różnych wyszukiwarek. Według Dirka Lewandowskiego takie indeksy ułatwiłyby konkurencję na rynku wyszukiwarek i pozwoliły na realizację wielu mniejszych projektów wyszukiwawczych, w tym wyszukiwania wertykalnego. Inne sposoby znajdowania określonych typów informacji w sieci World Wide Web, które dotyczą zbiorów specjalnych, mieszczą się w kategorii "przeszukiwania pionowego" i mogą opierać się na niezastrzeżonych indeksach. YaCy, zdecentralizowana wyszukiwarka typu peer-to-peer, oferuje alternatywę dla śledzenia, cenzury i ukierunkowanych reklam głównych komercyjnych wyszukiwarek, takich jak Google. YaCy można pobrać za darmo z Internetu i zainstalować na swoim komputerze, a freeworld to sieć rówieśników, którzy biorą udział w tej rozproszonej sieci. Z biegiem czasu użyteczność poprawiła się i podobnie jak inne sieci peer-to-peer, takie jak Tor, im więcej osób korzysta z sieci, tym większa heterogeniczność w indeksie YaCy. Robot "ekspercki" podąża za linkami do dowolnej głębokości żądanej przez użytkownika, co jest szczególnie interesujące, a użytkownik decyduje, które witryny i strony mają być indeksowane, ograniczając w ten sposób wyszukiwanie określonego tematu. Oddając kontrolę nad indeksem w ręce użytkownika, to właśnie te specjalne indeksy mają wartość, szczególnie dla badaczy i osób poszukujących konkretnych informacji. YaCy opiera się na indeksach swoich użytkowników i kładzie nacisk na unikalne lub specjalne kolekcje, zależne od wspólnych indeksów współpracowników, odzwierciedlających najnowsze osiągnięcia wyszukiwania pionowego w dziedzinie wyszukiwania informacji. Zdolność wyszukiwarek do wywnioskowania intencji użytkownika odgrywa teraz większą rolę wraz ze słowami otaczającymi słowo kluczowe. Termin sieć semantyczna odnosi się do rozszerzenia sieci, w której wspólne ramy wielu ontologii, takie jak ramy opisu zasobów, ontologiczny język sieciowy i specyfikacje rozszerzalnego języka znaczników, ułatwiają odczytywanie maszynowe metadanych. Wykracza to poza dokumenty języka znaczników hipertekstowych i powiązania między nimi. Zrozumienie kontekstu słów otaczających zapytanie przesunęłoby strukturę do samego zapytania, czy "lepsze" zapytanie mogłoby nastąpić dzięki ulepszonemu projektowi interfejsu, aby użytkownik mógł wyszukiwać inaczej niż po prostu wpisując słowo kluczowe w polu wyszukiwania. W 2000 roku Introna i Nissenbaum zauważyli, że wyszukiwarka jest nowym medium, siłą demokratyzującą, która da głos różnym grupom społecznym, ekonomicznym i kulturowym [oraz] członkom społeczeństwa, których często nie słychać w sferze publicznej. Wzmocni pozycję tradycyjnie pozbawionych władzy, dając im dostęp zarówno do zwykle nieosiągalnych węzłów władzy, jak i do wcześniej niedostępnych zasobów informacji. W tamtym czasie panowało również przekonanie, że przeszukiwanie sieci polega nie tylko na wyszukiwaniu informacji, ale także na eksploracji wiedzy. Koncepcja serendipity, czyli odkrywanie stron internetowych i łączenie nieznanych powiązań, miało miejsce podczas surfowania po sieci, po prostu klikając hiperłącza, nie wiedząc, dokąd one prowadzą. Później na pytanie, jak poruszać się po takiej przestrzeni, aby znaleźć to, czego szukali użytkownicy, odpowiadały wyszukiwarki, które ostatecznie stały się potężną siłą, która nie tylko umożliwiała dostępność, ale także kontrolowała wyniki poprzez ukierunkowaną reklamę. Jak pokazano, metody spekulatywne obejmujące nowe formy wyszukiwania, od wyszukiwania anonimowego do publicznego indeksu, do wyszukiwania wertykalnego p2p, przyniosłyby alternatywne wyniki. Tak więc wyszukiwarki nie są jedynie częścią abstrakcyjnej logiki, ale praktyką życiową, ponieważ organizują, sortują i zarządzają informacjami, których szukają użytkownicy, a także kierunkiem ich zapytań.



Powrót


[ 103 ]