Termin złośliwe oprogramowanie odnosi się do złośliwego lub szkodliwego oprogramowania. Może również opisywać kod opracowany w złośliwych lub nikczemnych zamiarach. Różni się to od kodu, który jest źle napisany i powoduje uszkodzenia nieumyślnie. Zamiast tego złośliwe oprogramowanie to kod napisany z konkretnym zamiarem wyrządzenia szkody systemowi hosta. W związku z tym kod lub oprogramowanie jest złośliwe, ponieważ ma nikczemne zamiary. Może to mieć na celu zniszczenie treści, na przykład poprzez usunięcie plików. Lub kod może być zaprojektowany do wykonywania funkcji, takich jak tworzenie tylnych drzwi do systemów w celu zapewnienia dostępu nieautoryzowanym użytkownikom. Złośliwe oprogramowanie jest zwykle instalowane w sposób, który nie jest oczywisty dla autoryzowanych użytkowników. Termin złośliwe oprogramowanie jest często mylony z wirusami; jednakże, chociaż wirusy są formami złośliwego oprogramowania, termin złośliwe oprogramowanie obejmuje wszystkie inne formy oprogramowania opracowane w złośliwych zamiarach. Ten nikczemny zamiar obejmuje naruszenie poufności, integralności i dostępności systemów i oprogramowania. Ten wpis definiuje złośliwe oprogramowanie i omawia rodzaje złośliwego oprogramowania oraz sposoby ochrony przed nimi. Złośliwe oprogramowanie wpływa na wszystkie rodzaje urządzeń komputerowych, w tym urządzenia klienckie, takie jak komputery stacjonarne, laptopy i urządzenia przenośne, oraz urządzenia komunikacyjne, takie jak smartfony. Złośliwe oprogramowanie jest często opracowywane i projektowane z zamiarem ataku na serwery i narażania ich na niebezpieczeństwo. Chociaż złośliwe oprogramowanie może zostać wstrzyknięte do programów na etapie opracowywania programu, często jest ono przesyłane jako kody mobilne. Dlatego najczęstszymi sposobami dystrybucji są poczta elektroniczna, komunikatory internetowe, aplikacje peer-to-peer i aktywne treści internetowe. Kody złośliwego oprogramowania wpływają na urządzenia komputerowe, wyszukując luki w ich systemach operacyjnych, które umożliwiają ich zainstalowanie i niewykrywanie działania w tle. Chociaż kody złośliwego oprogramowania mogą być tworzone w celu atakowania określonych systemów, często ich instalacja i infekcja urządzeń komputerowych są zazwyczaj niezamierzoną konsekwencją niezamierzonego dostępu użytkowników do niezabezpieczonego i zainfekowanego oprogramowania. Na przykład, jeśli użytkownicy uzyskują dostęp do stron internetowych w niezabezpieczonych sieciach, są narażeni na ryzyko pobrania złośliwego oprogramowania. Użytkownikom trudno jest odróżnić zaufane/bezpieczne witryny od niezaufanych/niezabezpieczonych witryn, które mogą potencjalnie zawierać złośliwe oprogramowanie. Dzieje się tak dlatego, że twórcy złośliwego oprogramowania tworzą obecnie przeplatane zagrożenia, łącząc różne rodzaje złośliwego kodu. Ponadto złośliwy kod jest zwodniczy i często udaje przydatne aplikacje. Złośliwe oprogramowanie może zostać uruchomione z praktycznie dowolnej platformy elektronicznej. Na przykład osoby o niecnych zamiarach mogą używać komputerów domowych, urządzeń przenośnych lub innych urządzeń z dostępem do Internetu do przeprowadzania ataków, kradzieży poufnych informacji, włamywania się do systemów i po prostu wyrządzania szkód. Chociaż złośliwe oprogramowanie jest zwykle wykorzystywane do wyrządzania szkód, firmy i osoby prywatne wykorzystują je również do generowania przychodów. Na przykład niektórzy reklamodawcy instalują złośliwe oprogramowanie na komputerach ofiar, aby mogły modyfikować ustawienia przeglądarki i reklamować swoje produkty i usługi za każdym razem, gdy użytkownik otwiera przeglądarkę. Wykorzystując złośliwe oprogramowanie do zastąpienia domyślnej wyszukiwarki wyszukiwarką śledzącą aktywność zakupową użytkowników, atakują konsumentów w celu generowania przychodów. Wszystkie urządzenia komputerowe są zagrożone ,narażone na złośliwe oprogramowanie, ale najbardziej zagrożone są urządzenia mobilne, ponieważ wymagają połączenia z Internetem i kilku rodzajów aplikacji, aby w pełni wykorzystać możliwości sprzętowe. Ponadto obecnie producenci sprzętu, na przykład producenci smartfonów, nie opracowali sprzętu w pełni zdolnego do pokonania wszystkich rodzajów złośliwego oprogramowania. Dążenie do pełnej ochrony przed złośliwym oprogramowaniem jest ciągłym i nieuchwytnym procesem, ponieważ twórcy oprogramowania chroniącego przed złośliwym oprogramowaniem próbują opracować antidotum na każde nowe zagrożenie ze strony złośliwego oprogramowania.
Rodzaje złośliwego oprogramowania
Złośliwe oprogramowanie występuje w wielu postaciach. Najczęstszymi typami są konie trojańskie, wirusy, bomby logiczne, robaki i aplety.
Konie trojańskie
Ten rodzaj złośliwego oprogramowania bierze swoją nazwę od wojny trojańskiej, słynnej części mitologii greckiej. Historia mitu jest taka, że Grecy podarowali Trojanom drewnianego konia, ukrywając lutowie wewnątrz wydrążonego konia. Trojanie wciągnęli drewnianego konia w mury miasta, a ukryci greccy żołnierze wykradli się i zaatakowali trojanów, gdy spali. Podobnie złośliwe oprogramowanie typu koń trojański udaje przydatne aplikacje lub prezenty. Kiedy użytkownicy je uruchamiają lub akceptują, uwalniają destrukcyjny kod, który działa w tle i wykonuje zadania, do których wykonywania zostały zaprojektowane. Złośliwe oprogramowanie typu koń trojański składa się z programów, które zawierają ukryte lub nikczemne funkcje udające jakąś formę programu narzędziowego i pozornie wykonujące użyteczną pracę. Innymi słowy, konie trojańskie to potencjalnie złośliwe oprogramowanie lub programy, które naśladują lub działają jak legalne i często nieszkodliwe aplikacje, które wyglądają na bezpieczne i funkcjonalne, ale ich celem jest rozpowszechnianie destrukcyjnego kodu. W przeciwieństwie do wirusa, który replikuje się, dołączając się do innych plików lub programów, złośliwe oprogramowanie typu koń trojański jest samodzielnym programem. Uprawniony użytkownik musi wprowadzić go do systemu poprzez proces kopiowania i instalacji. Dlatego użytkownicy są zazwyczaj kuszeni obietnicą jakiejś formy prezentu, aby ją pobrać i zainstalować. Oznacza to, że złośliwy program musi być zakamuflowany jako coś, co użytkownik chciałby uruchomić. Po wprowadzeniu do systemu złośliwy koń trojański będzie wykonywał swoje zadanie, podczas gdy użytkownik nie jest świadomy jego prawdziwej natury i destrukcyjnego potencjału. Istnieje kilka rodzajów koni trojańskich, sklasyfikowanych na podstawie funkcji, które mają pełnić. Najpopularniejsze typy to zestawy root kit, boty, zdalnie sterowane boty, keyloggery, oprogramowanie szpiegujące, oprogramowanie reklamowe, oprogramowanie ransomware i pobieranie drive-by.
rootkit
Zestawy root, podobnie jak większość koni trojańskich, pozostają ukryte, dopóki nie zostaną aktywowane. Dwie główne cechy, które sprawiają, że zestawy rootkitów są skuteczne jako złośliwe oprogramowanie, to utrzymywanie dostępu i ukrywanie się. Utrzymanie dostępu do komputerów lub sieci jest ważne dla osób usiłujących podjąć złośliwe działania. Zestawy root umożliwiają takim osobom utrzymanie dostępu poprzez zainstalowanie lokalnego zdalnego backdoora w docelowym systemie. Te backdoory to aplikacje, które zapewniają użytkownikom uprawnienia administracyjne. W związku z tym nieautoryzowani użytkownicy, tacy jak hakerzy, otrzymują bramę przez tylne drzwi, aby wejść do systemu i wykonywać swoje nikczemne funkcje. Stealth, druga główna cecha zestawów root, odnosi się do ich zdolności do ukrywania wszelkich dowodów ich istnienia. Zestawy root ukrywają rejestr lub pliki dziennika używane w ich działaniu. Ponadto ukrywają pliki, których użyli lub wygenerowali, pliki wskazane lub będące celem ataków hakerów oraz połączenia sieciowe, z których korzystali lub które utworzyli. Rzeczy, które programiści chcą ukryć, są zazwyczaj zapisywane w plikach konfiguracyjnych lub programowane bezpośrednio w samym złośliwym oprogramowaniu. Zestawy root można podzielić na dwa główne typy: (1) tryb użytkownika i (2) tryb jądra. Zestawy root w trybie użytkownika działają w środowisku kontekstowym użytkownika i systemie ochronnym. Na przykład, jeśli dana osoba uzyskuje dostęp do własnej stacji roboczej jako zwykły użytkownik, złośliwe oprogramowanie zapewni tylny dostęp do aplikacji komputerowej działającej na koncie użytkownika. I odwrotnie, zestawy root w trybie jądra działają w sieciach jako zwykłe sterowniki sprzętu, na przykład kart sieciowych, kart graficznych lub myszy. Zestawy root w trybie jądra są trudniejsze do utworzenia niż zestawy root w trybie użytkownika i wymagają bardziej zaawansowanej wiedzy, ponieważ działają na najwyższym poziomie dostępu w systemie operacyjnym komputera i jednostce centralnej. Ponadto zestawy root w trybie jądra nie będą działać na wszystkich typach systemów operacyjnych, ponieważ systemy operacyjne zmieniają niektóre części swojego jądra przy każdej aktualizacji i wersji. Chociaż zestawy root kit mogą pełnić nikczemną funkcję, pierwotnie miały pełnić przydatne funkcje, ponieważ zostały stworzone jako narzędzie dla administratorów systemu do monitorowania i zarządzania ich systemami. Administratorzy mogą ukrywać zestawy rootkitów w tle lub w systemie operacyjnym i używać ich jako backdoora dla administratora. W związku z tym zestawy rootkitów stają się złośliwym oprogramowaniem tylko wtedy, gdy ich celem jest wyrządzenie szkody oraz są tworzone i instalowane w systemach komputerowych w złośliwych zamiarach i bez pozwolenia. Jak już wspomniano, rootkity są trudne do wykrycia, ponieważ zwykle pozostają ukryte, dopóki nie zostaną aktywowane. Ich wykrywanie jest często bardziej skomplikowane, ponieważ są one zaprojektowane tak, aby usuwać wszelkie ślady ich instalacji.
Boty
Boty to programy przeznaczone do wykonywania automatycznych zadań i funkcji. Na przykład boty znane jako "spamboty" często zalewają witryny spamowymi reklamami w celu generowania ruchu w innej witrynie. Aby przeciwdziałać temu zagrożeniu, niektóre witryny wymagają weryfikacji użytkownika przed zaakceptowaniem jego danych rejestracyjnych. Na przykład niektóre witryny rejestracyjne wymagają od użytkowników wpisania wstępnie zdefiniowanych znaków lub znaków przedstawionych jako obraz w celu sprawdzenia, czy użytkownik rzeczywiście jest człowiekiem. Złośliwe boty czasami wykorzystują ataki siłowe lub metodę prób i błędów w celu odszyfrowania zaszyfrowanych danych, takich jak hasła, na docelowych witrynach internetowych. Na przykład właściciele witryn często nie tworzą własnych witryn od podstaw. Zamiast tego często używają systemów zarządzania treścią typu open source jako punktu wyjścia. Te systemy zarządzania treścią udostępniają szablon, który umożliwia użytkownikom wprowadzanie i aktualizowanie treści bez konieczności pisania kodu HTML (hipertekstowy język znaczników). Zarządzanie zawartością systemu często ma ogólne lub domyślne nazwy użytkownika, takie jak admin, a często właściciele witryn nie zmieniają domyślnej nazwy użytkownika, co czyni je podatnymi na ataki hakerów, którzy muszą jedynie odgadnąć hasło. Gdy to zrobią, mogą przejąć witrynę i zainstalować złośliwe oprogramowanie. Z tego powodu strony internetowe powinny mieć politykę ograniczającą liczbę nieudanych prób.
Zdalnie sterowane boty
Twórcy złośliwego oprogramowania często nie używają własnych komputerów do dystrybucji złośliwego oprogramowania. Zamiast tego używają zdalnie sterowanych botów lub "komputerów zombie", zainfekowanych komputerów zaprogramowanych do wykonywania złośliwych zadań, takich jak atakowanie innych komputerów i serwerów. Zdalnie sterowane boty są zwykle używane do skutecznego przeprowadzania ataków typu "odmowa usługi". Korzystanie ze zdalnie sterowanych botów utrudnia śledzenie atakującego, gdy złośliwe oprogramowanie rozprzestrzeni się z jednego komputera na drugi. Podobnie jak wszystkie złośliwe oprogramowanie typu koń trojański, boty mogą pozostawać w stanie uśpienia lub uśpienia w systemach, dopóki nie otrzymają zdalnego polecenia przeprowadzenia ataku.
Keylogger
Konie trojańskie Keylogger przechwytują naciśnięcia klawiszy i ruchy myszy w tle bez wiedzy użytkownika o tej czynności. Chociaż trojany typu keylogger mogą mieć nikczemne cele, mogą być również wykorzystywane legalnie. Na przykład firmy mogą wykorzystywać je do celów nadzoru w celu śledzenia aktywności online pracowników. Złośliwe oprogramowanie keyloggera używane do niecnych celów może jednak służyć do uzyskiwania dostępu do haseł i innych danych osobowych, podczas gdy użytkownicy nie mają pojęcia, że ma to miejsce. Podobnie jak wszystkie złośliwe oprogramowanie typu koń trojański, oprogramowanie typu keylogger może czekać w tle na zdarzenia, takie jak otwieranie przez użytkowników stron logowania do konta bankowego, przed wykonaniem funkcji rejestrowania i przesyłania naciśnięć klawiszy do swojego pana.
Programy szpiegujące
Spyware to kolejny złośliwy koń trojański, który działa jak keyloggery. Jednak oprogramowanie szpiegujące nie tylko zbiera naciśnięcia klawiszy użytkowników, ale także rejestruje ich działania online. Oprogramowanie szpiegujące wykonuje złośliwe oprogramowanie działań poprzez zbieranie i opracowywanie informacji o użytkownikach lub grupach osób bez ich wiedzy. Zebrane dane są zwykle wykorzystywane w celach zarobkowych lub reklamowych. Typowe dane zbierane przez oprogramowanie szpiegujące obejmują dane logowania, adresy protokołu internetowego i informacje finansowe. Programy spyware są zwykle instalowane w systemach komputerowych, gdy zainfekowane pliki są pobierane nieumyślnie, gdy ofiary instalują programy (zwłaszcza programy peer-to-peer) lub gdy odwiedzają zainfekowane strony. Użytkownicy mogą chronić się przed oprogramowaniem szpiegującym, zachowując czujność i ostrożność podczas pobierania aplikacji za pośrednictwem sieci peer-to-peer, nie pobierając materiałów z podejrzanych lub nieznanych stron internetowych, zapewniając ochronę systemów komputerowych za pomocą programów antywirusowych oraz usuwając zainfekowane programy z komputerów urządzenia.
Oprogramowanie reklamowe
Oprogramowanie reklamowe działa w podobny sposób, jak oprogramowanie szpiegujące i jest opracowywane w celu generowania przychodów. Jednak adware rejestruje działania i zachowania użytkowników online i przesyła dane do marketerów, aby użytkownicy mogli być kierowani do konkretnych reklam. Oprogramowanie reklamowe jest czasami zaprojektowane do zmiany ustawień przeglądarki, przekierowywania wyszukiwania w przeglądarce do reklam lub zastępowania domyślnych wyszukiwarek wyszukiwarkami reklamodawców. Chociaż antywirus może usuwać oprogramowanie reklamowe, zmodyfikowane ustawienia przeglądarki czasami pozostają i można je usunąć jedynie poprzez przywrócenie systemu do ustawień fabrycznych.
Oprogramowanie wymuszające okup
Jak sama nazwa wskazuje, ransomware wymaga "okupu", zanim użytkownicy będą mogli wykonywać funkcje. Po zainstalowaniu ransomware uniemożliwia dostęp do komputera lub szyfruje zawartość dysku twardego komputera. Użytkownicy, których komputery są zainfekowane oprogramowaniem ransomware, otrzymają wiadomości z żądaniem zapłaty za pokonanie lub wyłączenie złośliwego oprogramowania. Ransomware często rozprzestrzenia się, gdy przestępcy przejmują legalne strony internetowe i instalują złośliwe oprogramowanie. Oprogramowanie ransomware jest często wykorzystywane przez przestępców, którzy korzystają z usług przesyłania pieniędzy w celu odebrania nieuczciwie zdobytych zysków. Ten typ złośliwego oprogramowania typu koń trojański jest również rozpowszechniany przez przestępców za pomocą pobierania driveby download.
Drive-by download
Drive-by download to złośliwe oprogramowanie, które infekuje urządzenia komputerowe, gdy użytkownicy przeglądają zainfekowane strony internetowe. Kody do pobierania drive-by są napisane w sposób, który umożliwia oprogramowaniu zainfekowanie wrażliwych komputerów bez klikania łącza pobierania przez użytkownika. Zamiast tego kody są zapisywane w sposób, który umożliwia złośliwemu oprogramowaniu sprawdzanie luk w przeglądarce lub systemie operacyjnym i umożliwia automatyczne pobieranie na podatne systemy. Ważne jest, aby mieć aktualne oprogramowanie chroniące przed złośliwym oprogramowaniem, ponieważ oprogramowanie to może ostrzegać użytkowników, jeśli witryna internetowa jest zainfekowana złośliwym oprogramowaniem, gdy użytkownicy próbują uzyskać do niej dostęp. Aby uniknąć koni trojańskich, użytkownicy powinni unikać pobierania bezpłatnego oprogramowania lub odwiedzania nieznanych i niezaufanych stron internetowych. Jeśli jednak użytkownicy są narażeni na działanie koni trojańskich, większość programów chroniących przed złośliwym oprogramowaniem może automatycznie usunąć to złośliwe oprogramowanie z systemu. Jednak, jak wspomniano, usunięcie ich z przeglądarek może być trudne, a przywrócenie systemu do ustawień fabrycznych lub usunięcie i ponowna instalacja przeglądarki mogą być jedynymi opcjami usunięcia oprogramowania.
Wirusy
Najbardziej znanym złośliwym oprogramowaniem są wirusy - złośliwe, samoreplikujące się programy lub kody, które rozprzestrzeniają się poprzez infekowanie innych programów, w tym systemów operacyjnych. Wirus często rozprzestrzenia się, korzystając z książki adresowej swojego obecnego hosta, aby znaleźć nowych odbiorców, a także może użyć zainfekowanego systemu lub tożsamości hosta do stworzenia wiadomości e-mail, która wydaje się pochodzić od zaufanego użytkownika, ale ma niecne zamiary. Wirusy replikują się poprzez dołączanie do wykonywalnych kodów. Za każdym razem, gdy uruchamiany jest kod wykonywalny, wirus uruchamia się, infekując inne pliki i wykonując złośliwą funkcję, do której wykonania został zaprojektowany. Wpływ wirusa na inne pliki w systemie zależy od typu wirusa. Istnieją dwa typy: (1) wirus sektora rozruchowego i (2) wirus programu. Wirusy sektora rozruchowego są przeznaczone do infekowania części sektora rozruchowego dysków komputera. W szczególności wirusy sektora rozruchowego są szkolone w zakresie infekowania sektora systemu operacyjnego, który jest ładowany z dysku twardego komputera. Wirusy programowe są przeznaczone do dołączania do plików wykonywalnych. Kody wirusów programowych są pisane w sposób umożliwiający wirusowi dołączanie się do plików wykonywalnych w taki sposób, który umożliwia wykonanie wirusa przed programem, do którego jest dołączony. Wirusy programowe są również pisane w celu zamaskowania ich prawdziwego celu i mogą być uruchamiane przez określone zdarzenia, takie jak określona data lub po zainfekowaniu innych plików. Podobnie jak w przypadku innych typów wirusów, przy braku odpowiedniego oprogramowania antywirusowego wirusy programowe zazwyczaj nie są wykrywane, dopóki nie spełnią swojego zadania. Wirusy można dalej podzielić na wirusy proste lub patogenne, wirusy zaszyfrowane, wirusy oligomorficzne, wirusy polimorficzne, wirusy metamorficzne i wirusy zasłaniające punkt wejścia. Proste wirusy to te, które atakują pliki binarne znajdujące się na dysku twardym komputera. Dlatego są one przeznaczone do nadpisywania lub zmiany funkcjonalności plików komputera. Unikają wykrycia, ukrywając się w zaufanych plikach użytkownika i infekując urządzenia komputerowe za pośrednictwem
- pasożytnictwo, polegające na wstawianiu złośliwych kodów do plików i przejmowaniu kontroli nad zainfekowanymi plikami;
- łącza, za pomocą których wirus wykorzystuje łącze, aby obrać za cel dysk twardy komputera;
- nadpisywanie, przy czym wirus kasuje pliki i zastępuje je szkodliwymi kodami;
- powielanie, w którym wirus jest szkolony w kopiowaniu docelowych plików, a następnie umieszczaniu wirusa w zduplikowanych plikach; Lub
- kod źródłowy, za pomocą którego hakerzy i inne osoby o niecnych zamiarach dodają aktywne wirusy do kodu źródłowego zaufanych programów.
Zaszyfrowane wirusy są trudne do wykrycia, ponieważ są zaprojektowane w taki sposób, że zaszyfrowane narzędzie konwertuje złośliwy kod na tekst zaszyfrowany, co pozwala wirusowi uniknąć wykrycia przez oprogramowanie chroniące przed złośliwym oprogramowaniem. Wirusy oligomorficzne używają deszyfratorów, aby uniknąć wykrycia podczas infekowania swoich celów. Wirusy polimorficzne generują nieograniczoną liczbę deszyfratorów i używają technik szyfrowania, aby ukryć się przed programami antywirusowymi. Wirusy metamorficzne nie mają stabilnego ciała ani formy. Zamiast tego z każdą generacją kod zmienia się lub zmienia swoją treść, aby zapobiec wykryciu. Kod nie zmienia się całkowicie; zamiast tego zmienia swoją funkcjonalność, na przykład używając nowych rejestrów. Alternatywnie można go zaprojektować do zmiany kolejności niezależnych poleceń. Wirusy blokujące punkt wejścia są przeznaczone do zapisywania kodów w losowych obszarach wewnątrz zainfekowanych programów.
Bomby logiczne
Bomby logiczne działają w taki sam sposób, jak bomba zegarowa, ponieważ są szkolone lub uwarunkowane do powodowania zniszczenia poprzez detonację w określonym czasie. Podobnie bomby logiczne to ukryte kody zapisywane w celu uruchomienia, gdy osiągną określony czas lub stan, na przykład datę, godzinę lub konkretne wydarzenie. Na przykład, jeśli pracownik zostanie zwolniony i ma dostęp do systemu informatycznego firmy, może stworzyć bombę logiczną, która zaplanuje spustoszenie w systemie informatycznym firmy po odejściu z firmy.
Robaki
Robaki to programy, które rozwijają się poprzez robaki lub przechodzenie przez systemy bez pomocy lub interwencji użytkowników. Robaki prawdopodobnie stanowią większe zagrożenie niż wirusy i mogą rozprzestrzeniać się z jednego komputera na drugi bez konieczności zainfekowania pliku hosta. Niesławnymi przykładami robaków są Nimda (administrator w odwrotnej kolejności), Slammer i Code Red. Gdy robak przeniknie do sieci i systemów komputerowych, będzie się replikował w zainfekowanym systemie. Robaki różnią się od wirusów tym, że reprodukcja robaka nie opiera się na dołączeniu do innego fragmentu kodu lub pliku, co jest definicją wirusa. Rozróżnienie między wirusami i robakami zaciera się z powodu dołączania szkodliwego kodu do wiadomości e-mail. Wirusy są uważane za problemy systemowe, a robaki są uważane za problemy związane z siecią. Jeśli szkodliwy kod zostanie wysłany przez sieć, może zostać nazwany robakiem. Jednak ważnym rozróżnieniem jest to, czy kod musi dołączyć się do czegoś innego (wirus), czy też może przetrwać samodzielnie (robak).
Aplety
Pobrane obiekty Java mogą wyrządzić szkody na komputerach-hostach. Dzieje się tak, ponieważ luki wykryte w implementacjach programowania Java w niektórych przeglądarkach mogą umożliwić apletowi uzyskanie uprawnień - czasem podwyższonych uprawnień - które umożliwiają mu dostęp do informacji o urządzeniu hosta lub powodują awarię przeglądarki.
Zapobieganie, kontrolowanie i ochrona systemów przed złośliwym oprogramowaniem
Chociaż trudno jest opracować prewencyjne środki kontroli i ochrony, które eliminują lub są całkowicie skuteczne przeciwko wszystkim typom złośliwego oprogramowania, można podjąć kroki w celu zminimalizowania, złagodzenia i kontrolowania wpływu złośliwego oprogramowania na systemy komputerowe. Ogólnie rzecz biorąc, kroki te można podzielić na dwie kategorie: (1) kroki zapobiegawcze i (2) etapy wykrywania. Podejmowane są działania zapobiegawcze, aby zapobiec atakom złośliwego oprogramowania lub je zatrzymać, zanim będą miały szansę się rozpocząć. Kroki wykrywania to próby wykrycia złośliwego oprogramowania i zapobieżenia dalszym szkodom. Wykrywanie zwykle odbywa się na wielu poziomach, w tym w punkcie wejścia; między siecią rozległą a siecią lokalną; na serwerach pocztowych; na serwerach plików, drukarek i aplikacji; na komputerze stacjonarnym i/lub na urządzeniach mobilnych. Elementy tych kategorii opisano poniżej. Najważniejszym krokiem jest przećwiczenie podstawowych zasad bezpieczeństwa informacji poprzez unikanie otwierania dokumentów lub uruchamiania programów z nieznanych źródeł. Inne środki łagodzące, kontrolne i ochronne obejmują:
- Korzystanie z produktów antywirusowych i dynamicznej ochrony w czasie rzeczywistym na urządzeniach klienckich, takich jak komputery stacjonarne, laptopy i urządzenia przenośne oraz serwery
- Korzystanie z zapór o
gniowych i innych form odpowiednich technologii i strategii blokowania na obrzeżach sieci
- Tworzenie i wykorzystywanie filtrowania danych wejściowych do aplikacji
- Tworzenie i wdrażanie odpowiednich polityk i praktyk komputerowych oraz szkolenie pracowników firmy w zakresie ich przestrzegania
Wskazane jest również, aby firmy chroniły się przed zagrożeniem ze strony złośliwego oprogramowania, ustanawiając program uświadamiający w zakresie bezpieczeństwa i organizując szkolenia na temat złośliwego oprogramowania, odpowiednich procedur monitorowania logowania i zarządzania hasłami. Zbiorowe programy uświadamiające w zakresie bezpieczeństwa powinny być stale rozwijane i edukować użytkowników o potrzebie zachowania czujności w przypadku złośliwego oprogramowania. Celem jest stworzenie bezpiecznego środowiska wolnego od złośliwego oprogramowania. Program podnoszenia świadomości powinien wykraczać poza głównych użytkowników firmy i obejmować praktycznie każdego, kto wchodzi w interakcję z elektronicznym systemem informacyjnym firmy, w tym kontrahentów i partnerów biznesowych. Szkolenia dotyczące złośliwego oprogramowania powinny koncentrować się na właściwych procedurach ochrony, wykrywania i zgłaszania przypadków złośliwego oprogramowania. Programy szkoleniowe powinny obejmować takie tematy, jak aktualizowanie systemów za pomocą oprogramowania antywirusowego, rozpoznawanie zagrożeń złośliwym oprogramowaniem, właściwe reagowanie na podejrzane zachowania systemu i aplikacji oraz zgłaszanie wszelkiego rodzaju podejrzanych incydentów związanych z komputerem. Szkolenie z monitorowania logowania powinno koncentrować się na procedurach monitorowania prób logowania i zgłaszania wszelkich rozbieżności. Na przykład użytkownicy powinni zgłaszać wszelkie nieoczekiwane próby logowania na swoich stacjach roboczych lub urządzeniach przenośnych. Szkolenie z zarządzania hasłami powinno koncentrować się na rozwiązywaniu problemów związanych z tworzeniem, zmienianiem i zabezpieczaniem haseł w oparciu o politykę firmy.
Masowe otwarte kursy online, zwykle określane skrótem MOOC, stały się medialną sensacją w 2012 r., kiedy prestiżowe amerykańskie instytucje szkolnictwa wyższego (HEI), takie jak Uniwersytet Stanforda i Massachusetts Institute of Technology (MIT), zbudowały IT (technologię informacyjną) platformy, które umożliwiły im oferowanie prosto skonstruowanych kursów przez Internet dla dużej liczby ludzi na całym świecie. Ten wpis najpierw opisuje kursy MOOC, a następnie omawia wczesne formy nauczania na odległość, które doprowadziły do ich powstania. Następnie przygląda się wczesnemu rozwojowi kursów MOOC i sposobowi ich rozprzestrzeniania się na całym świecie. Wreszcie, analizuje ostatnie zmiany w sposobie finansowania kursów MOOC oraz docelowych odbiorców i tematy kursów MOOC. W akronimie MOOC termin masowy opisuje dużą liczbę rejestrujących się - często ponad 100 000 rejestrujących się na kurs w pierwszych dniach. Termin otwarty oznacza, że kursy MOOC są bezpłatne i bez kryteriów wstępu - każdy, kto ma połączenie z Internetem, może się zarejestrować. Termin online oznacza, że dostęp do wszystkich materiałów do nauki i oceniania, a także wszelkie interakcje z innymi uczestnikami odbywa się za pośrednictwem Internetu. A termin kurs sugeruje, że MOOC jest zintegrowanym pakietem edukacyjnym z jakąś formą oceny, a nie pojedynczym obiektem edukacyjnym lub otwartym zasobem edukacyjnym. Jednak do około 2015 r. jedynym wyrazem uznania oferowanym uczestnikom kursów MOOC, które odniosły sukces, był certyfikat uczestnictwa. Nawet jeśli kurs MOOC obejmował ten sam program nauczania, co kurs oferowany przez uczelnię, studenci, którzy zdali ocenę, nie mogli zaliczyć przedmiotu na poczet ukończenia tej uczelni. Wczesne MOOC zainspirowały hiperbolę w wiadomościach oraz wśród niektórych ekspertów z szkolnictwa wyższego i technologii. Niektórzy pisarze proklamowali rewolucję w szkolnictwie wyższym. Inni sugerowali, że kursy MOOC były odpowiedzią na presję na zwiększenie dostępu do szkół wyższych w krajach rozwijających się. Taki szum szybko okazał się nieuzasadniony, ale opierając się na wcześniejszych osiągnięciach, MOOC znacznie przyspieszyły korzystanie z Internetu w szkolnictwie wyższym.
Nauka na odległość
Pod koniec XIX wieku, kiedy powszechne usługi pocztowe umożliwiły w niektórych krajach kształcenie korespondencyjne, kilka uczelni zaczęło oferować kursy na odległość. Trend ten gwałtownie przyspieszył w latach 70., kiedy nowe instytucje zajmujące się wyłącznie nauczaniem na odległość na dużą skalę, takie jak U.K Open University (UKOU), połączyły multimedialne materiały do nauki (np. tekst, oprogramowanie komputerowe, radio telewizyjne) z wyrafinowanymi systemami oceny i wsparcia dotrzeć do dziesiątek tysięcy rozproszonych studentów. Technologie online ponownie zmieniły nauczanie na odległość dwie dekady później. UKOU zaczęło wykorzystywać tak zwane konferencje komputerowe na niektórych swoich kursach pod koniec lat 80. Podczas gdy nauczanie na odległość było wcześniej prowadzone głównie w trybie transmisji jeden do wielu, posiadanie uczniów online umożliwiło interakcje wielu z wieloma i umożliwiło instytucjom rozszerzenie zasięgu geograficznego i szybsze dostarczanie studentom informacji zwrotnych. Na początku XXI wieku instytucje kampusowe zaczęły włączać naukę online do regularnych kursów kredytowych. Te wczesne oferty, prezentowane bez fanfar, były w większości nieoczekiwanym połączeniem nauki online i nauczania twarzą w twarz. Ta niepewność odzwierciedlała nie tylko świadomość braku instytucjonalnej wiedzy specjalistycznej w zakresie nauczania online, ale także wątpliwości, które wielu liderów akademickich i wykładowców wciąż żywiło co do ogólnej wiarygodności kształcenia na odległość. Do 2010 roku stały rozwój Internetu skłonił informatyków do pomysłu stworzenia platform oprogramowania na dużą skalę, niezbędnych do oferowania prosto skonstruowanych pakietów edukacyjnych niemal nieograniczonej liczbie osób. Pobudziło to falę kursów MOOC w Stanach Zjednoczonych w 2012 r., które zawładnęły wyobraźnią mediów informacyjnych.
Rozwój kursów MOOC
Akronim MOOC został po raz pierwszy użyty do opisania otwartego kursu online oferowanego przez University of Manitoba w Kanadzie w 2008 r. "Connectivism and Connective Knowledge" został zaprezentowany 25 płacącym studentom w kampusie i 2300 innym studentom z ogółu społeczeństwa, którzy wzięli udział w kursie online darmo. Tytuł kursu odwoływał się do jego celu, inspirowanego wizją Iwana Illicha, jakim było zapewnienie wszystkim, którzy chcą się uczyć, dostęp do dostępnych zasobów w dowolnym momencie życia, umożliwić wszystkim, którzy chcą dzielić się wiedzą, znalezienie tych, którzy chcą się tego od nich uczyć, wreszcie wyposażyć wszystkich, którzy chcą przedstawić problem opinii publicznej możliwość przedstawienia swojego wyzwania. W tym duchu cała zawartość kursu była dostępna za pośrednictwem kanałów RSS (Rich Site Summary), a uczniowie mogli w nim uczestniczyć za pomocą wybranych przez siebie narzędzi: wątków dyskusji w Moodle, postów na blogach, Second Life i synchronicznych spotkań online. Kursy MOOC na większą skalę uruchomione w Stanach Zjednoczonych w 2012 roku przyjęły konwencjonalny behawiorystyczny model instruktażowy, który ostro kontrastował z wcześniejszym podejściem kanadyjskim. Podczas gdy uczestnicy konektywistycznych kursów MOOC (nazywanych przez wczesnych badaczy cMOOC) musieli w efekcie sami konstruować kurs, wyszukując zasoby internetowe, behawiorystyczne kursy MOOC (zwane xMOOC) realizowały program konwencjonalnych kursów kampusowych, prezentując treści głównie w seria filmów. Rysunek 1 wyjaśnia charakterystykę kursów MOOC, cMOOC i xMOOC. Przykładem był kurs MIT 6.002x, Circuits and Electronics. Kiedy po raz pierwszy został zaoferowany w 2012 roku, przyciągnął 155 000 rejestracji ze 160 krajów, z których większość mieszkała w Stanach Zjednoczonych, Indiach i Wielkiej Brytanii. Spośród tych 155 000 uczniów 23 000 rozwiązało pierwszy zestaw problemów, 9 000 zdało semestr, a 7157 (mniej niż 5% pierwotnych zarejestrowanych) zdało cały kurs. Organizatorzy tych xMOOC wkrótce musieli bronić tak małych wskaźników ukończenia. Członek wydziału zarządzający kursem zauważył, że chociaż wskaźnik rezygnacji był rzeczywiście wysoki, potrzeba 40 lat, aby taka sama liczba studentów osiągnęła sukces na kursie na kampusie MIT. Rozgłos wygenerowany przez te xMOOC miał ogromny wpływ na inne uczelnie, ponieważ przyjęcie nauczania online przez prestiżowe szkoły, takie jak Harvard, MIT i Stanford, nagle sprawiło, że kształcenie na odległość stało się szanowane. Kilka instytucji szkolnictwa wyższego zaczęło samodzielnie oferować kursy MOOC, ale wiele innych wzmocniło swoje zaangażowanie w integrację nauki online ze swoimi regularnymi programami.
Ekspansja kursów MOOC na całym świecie
W 2014 roku świat poza Ameryką Północną dostroił się do kursów MOOC. Początkowo kilka uczelni, takich jak szkocki Uniwersytet w Edynburgu, australijski Monash University i szwajcarska École Polytechnique Fédérale de Lausanne, oferowało kursy MOOC za pośrednictwem dwóch głównych amerykańskich platform MOOC, Coursera (która od 2016 r. ) i edX. Ale wkrótce pojawiły się nowe platformy MOOC, ponieważ uczelnie utworzyły sojusze w tym celu. W 2015 roku FutureLearn, obecnie ogólnoświatowe konsorcjum ponad 100 organizacji utworzone przez UKOU, osiągnęło rekordową liczbę 440 000 rejestracji na pojedynczą sesję MOOC dotyczącą testów z języka angielskiego prowadzonych przez British Council. Trzy czynniki zainspirowały i ułatwiły dywersyfikację platform MOOC. Po pierwsze, koncepcję MOOC zaczęto interpretować na wiele różnych sposobów. Szacuje się, że do 2015 r. na całym świecie oferowano około 4200 MOOC, a więcej osób zapisało się na MOOC w 2015 r. niż w ciągu pierwszych 3 lat ruchu xMOOC razem wziętych. Drugim motorem dywersyfikacji platform MOOC było mnożenie się mediów społecznościowych i internetowych systemów informacyjnych. Ponieważ kursy MOOC stały się krótsze i prostsze, a średnia liczba kursów spadła, nie było już konieczne udostępnianie wszystkich elementów każdego kursu MOOC na jednej platformie oprogramowania. Uczących się można było teraz na przykład kierować do YouTube, aby obejrzeć filmy, na Facebooka, gdzie mogli nawiązać kontakt z innymi uczniami, oraz pod różne adresy URL, aby znaleźć inne zasoby. Reklama rekrutacyjna na całym świecie, jaką konsorcja MOOC mogły wygenerować dla kursów swoich członków, stała się równie ważnym elementem ich propozycji wartości, jak sama platforma oprogramowania. Po trzecie, odsetek kursów MOOC oferujących kursy formalne , ocena i referencje stale rosły. Od 2017 roku FutureLearn oferuje szereg stopni podyplomowych we współpracy z australijskim Deakin University, po raz pierwszy dostawca MOOC oferował wiele stopni, w pełni online, całkowicie na własnej platformie. Taka formalna ocena i poświadczenie ma swoje własne wymagania informatyczne. Ta trzecia tendencja wyjaśnia również zmiany w znaczeniu, jakie różne regiony świata przypisują kursom MOOC. Do 2015 roku Europejski Obszar Szkolnictwa Wyższego wydawał się zapewniać bardziej podatny grunt dla rozwoju kursów MOOC niż Stany Zjednoczone. W tym roku liczba amerykańskich uczelni oferujących kursy MOOC lub planujących ich wprowadzenie zaczęła spadać z i tak już niskiego poziomu, podczas gdy badanie przeprowadzone w Europie wykazało, że odsetek uczelni pracujących nad kursami MOOC skoczył z mniej niż 60% do ponad 70 %. Szybki rozwój kursów MOOC w europejskich uczelniach można wyjaśnić kilkoma czynnikami. Chociaż amerykańskie uczelnie wyraziły obawy dotyczące poświadczeń ukończenia MOOC, co prowadzi do nieporozumień co do stopni naukowych, obawy te nie zostały zgłoszone przez europejskie instytucje szkolnictwa wyższego. Europa coraz częściej eksperymentuje z różnymi typami kursów MOOC, z których każdy ma określone uzasadnienie. Pomocna jest również obecność Europejskiego Systemu Transferu Punktów, który zapewnia solidną podstawę do uznawania uprawnień uzupełniających między instytucjami i granicami. Istotne są również znaczące różnice w systemach finansowania szkolnictwa wyższego, przy czym europejskie uczelnie otrzymują więcej funduszy rządowych, a także dodatkowe fundusze Komisji Europejskiej na projekty MOOC. Jest to związane z filozofią i standardami służby publicznej powszechnie spotykanymi w europejskich uczelniach. Kursy MOOC są nie tyle sposobem walki z rosnącymi kosztami edukacji, ile użytecznym narzędziem do pokonywania barier instytucjonalnych i państwowych w coraz bardziej zglobalizowanym i usieciowionym świecie edukacyjnym. Z tych powodów większość europejskich uczelni postrzega kursy MOOC jako trwały sposób oferowania kursów, a także ważny sposób poznawania pedagogiki online.
MOOC dzisiaj
Podstawowym dylematem MOOC pozostaje napięcie między chęcią uczynienia wiedzy wspólną własnością ludzkości a znalezieniem modelu biznesowego, który wspiera ten cel. Ponieważ konsorcja MOOC mnożą się, dostawcy radzą sobie z tym wyzwaniem na różne sposoby. Niektórzy kładą teraz nacisk na pojęcie wiedzy jako wspólnej własności, udzielając licencji na swoje materiały MOOC jako otwarte zasoby edukacyjne, podczas gdy inni zachowują model prawnie zastrzeżony. Podczas gdy sprzedaż certyfikatów uczestnictwa przyniosła większy dochód, niż pierwotnie oczekiwano, poświadczanie zaliczeń, dyplomów i stopni naukowych prawdopodobnie zapewnia bezpieczniejsze długoterminowe dochody, a także zachęca społeczeństwo do poważniejszego traktowania kursów MOOC. Uczelnie wykorzystują kursy MOOC również do przyciągania studentów na swoje regularne kursy, za które pobierają czesne. Docelowi odbiorcy i tematy kursów MOOC znacznie się zmieniły. Wczesne MOOC były napędzane podażą, ponieważ entuzjastyczni wykładowcy starali się przedstawić swoje ulubione kursy kampusowe szerszej publiczności. Trwa to nadal, ale obserwuje się również wzrost liczby kursów dostosowanych do potrzeb, służących określonym społecznościom (np. dla osób opiekujących się osobami z demencją, opracowanych na Uniwersytecie Tasmania; Strategies for Successful Ageing, University of Newcastle, Australia; and Academic Integrity, University of Auckland, Nowa Zelandia). Nic dziwnego, że takie kursy kierowane popytem często osiągają znacznie wyższy wskaźnik ukończenia niż wcześniejsze kursy MOOC. Jednocześnie nacisk odchodzi od szkolnictwa wyższego w krajach takich jak Indie aby zdać sobie sprawę z potencjału kursów MOOC w zakresie zapewniania podstawowego szkolenia bardzo dużej liczbie pracowników rolnych. Commonwealth of Learning i partnerzy uruchomili serię kursów MOOC na potrzeby rozwoju, w tym kurs MOOC dotyczący kursów MOOC. Wreszcie, podczas gdy liczba instytucji szkolnictwa wyższego oferujących regularne kursy w pełni online lub w formach mieszanych jest znacznie większa niż liczba instytucji zaangażowanych w kursy MOOC, niegdyś wyraźna różnica między tymi dwoma podejściami do nauczania online zatarła się wraz ze zróżnicowaniem kursów MOOC. Zaoferowanie kilku kursów MOOC może pomóc instytucji szkolnictwa wyższego przygotować się do intensywniejszego korzystania z nauki online w jej regularnych programach, między innymi poprzez przyspieszenie dwóch głównych zmian organizacyjnych, których wymaga znaczne zaangażowanie w nauczanie online, a mianowicie (1) większe wykorzystanie praca zespołowa w tworzeniu kursów oraz (2) większa rola samej instytucji we wspieraniu systemów administracyjnych i technologicznych niezbędnych do zapewnienia spójności, ciągłości i zapewnienia jakości.
MercadoLibre ("wolny rynek" w języku hiszpańskim, MercadoLivre w języku portugalskim), czasami określany skrótem MELI, jest największym rynkiem handlu elektronicznego online w Ameryce Łacińskiej i Portugalii. Działa w 19 krajach: Argentyna, Boliwia, Brazylia, Chile, Kolumbia, Kostaryka, Dominikana, Ekwador, Salwador, Gwatemala, Honduras, Meksyk, Nikaragua, Panama, Paragwaj, Peru, Portugalia, Urugwaj i Wenezuela. Posiada również powiązane operacje w Hiszpanii i Stanach Zjednoczonych, gdzie jest skierowany na rynek Ameryki Łacińskiej. To mocno przypomina eBay, z którym jest ściśle powiązany, jako system, w którym klienci licytują przedmioty za pośrednictwem platform specyficznych dla danego kraju. Oferuje również MercadoShops, platformę e-commerce dla małych firm, która pozwala im zakładać własne strony internetowe; MercadoLibre Advertising, która umożliwia sprzedawcom promowanie swoich towarów i usług; MercadoSocios, program partnerski, który pozwala uczestnikom gromadzić korzyści; MercadoEnvios, usługa wysyłkowa; i MercadoSolidario, w których organizacje non-profit mogą prowadzić aukcje bez ponoszenia opłat. Jej strona internetowa, MercadoLibre.com, należy do 50 najczęściej odwiedzanych na świecie, z 50 milionami unikalnych użytkowników miesięcznie; ponad 145 milionów zarejestrowanych osób korzystało z niego w takim czy innym momencie. Ma dobrze rozwinięty ekosystem internetowy z aplikacjami na smartfony i aktywną obecność na Facebooku, Reddicie i Twitterze. MercadoLibre umożliwia zarejestrowanym użytkownikom dokonywanie i przyjmowanie płatności za pośrednictwem systemu bezpiecznych płatności MercadoPago, który jest podobny do systemu PayPal, przelewów bankowych, kart kredytowych i przekazów pieniężnych. W niektórych krajach działa jako usługa depozytowa, która wstrzymuje płatności kupującego przez 14 dni, zwalniając je sprzedającemu, jeśli kupujący nie wstrzymał płatności. Około 80% sprzedaży ma stałą cenę , w których pierwszy klient, który zapłaci cenę wywoławczą, nabywa przedmiot. W 2017 roku codziennie sprzedawano 51 milionów produktów (w 2016 roku sprzedano 181 milionów), które podzielono na 2000 kategorii. Mercado Marketplace ułatwia kupowanie i sprzedawanie nowych przedmiotów, podczas gdy Mercado Classified robi to w przypadku wcześniej posiadanych przedmiotów. Jednak w przeciwieństwie do serwisu eBay większość przedmiotów na MercadoLibre jest nowa. Prowadzi również platformę sprzedaży nieruchomości na Florydzie. Opłaty i reklamy wygenerowały 256 milionów dolarów przychodów netto w 2016 roku. Zbiera przychody w walutach lokalnych, ale raporty w dolarach amerykańskich, przez co jest podatny na wahania kursów walut. W maju 2016 roku wyceniono go na 5,7 miliarda dolarów. Aby ułatwić ogromny przepływ danych przez swoje strony internetowe, firma utrzymuje 500 serwerów.
Historia
Będąc absolwentem studiów biznesowych na Uniwersytecie Stanforda, Marcos Galperin założył MercadoLibre 8 maja 1999 r. Wraz z Hernanem Kazahem. Została uruchomiona 2 sierpnia 1999 r., a jej początkowe operacje ograniczały się do Argentyny, a następnie szybko rozrosła się w całej Ameryce Południowej. Siedziba główna znajduje się w Buenos Aires, zatrudniając w 2015 r. 3500 pracowników. Otrzymała fundusze z różnych źródeł kapitału wysokiego ryzyka, aw 2000 r. Była jedynym start-upem w Ameryce Łacińskiej, który przetrwał krach dot-comów. W 2001 roku eBay kupił 19,5% akcji MercadoLibre (co czyni go największym pojedynczym akcjonariuszem) w zamian za brazylijską spółkę zależną iBazar. MercadoLibre zostało również wyłącznym partnerem eBay w Ameryce Łacińskiej dzięki sojuszowi strategicznemu. Współpraca, która miała trwać 5 lat, zakończyła się w 2006 roku. W 2002 roku MercadoLibre przejął kontrolę nad brazylijską witryną Lokau.com i włączył wszystkich swoich klientów. W 2005 roku MercadoLibre przejął kilka regionalnych witryn od swojego głównego konkurenta, DeRemate, aw 2008 roku kupił pozostałą część firmy za łącznie 40 milionów dolarów, rozszerzając działalność na kilka innych krajów. Posunięcie to skutecznie uczyniło go monopolistą w Ameryce Łacińskiej. W 2006 roku zapuściła się do kilku stanów Ameryki Środkowej i Republiki Dominikany. W 2007 roku weszła na giełdę, sprzedając akcje NASDAQ, jedynej notowanej tam spółki z Ameryki Łacińskiej. W 2008 roku przejął CMG (Classified Media Group), platformę przeznaczoną do internetowej sprzedaży samochodów, a za jej pośrednictwem nabył nieruchomości w Wenezueli, Kolumbii, Panamie, Stanach Zjednoczonych, Kostaryce i na Wyspach Kanaryjskich. W 2010 roku rozpoczęła nową działalność w Portugalii. W 2015 roku kupił portal meksykańskiej firmy nieruchomościowej Grupo Expansion, Metroscúbicos.com. W 2016 roku przeniosła swoją siedzibę do kompleksu Melicidade o powierzchni 17 000 metrów kwadratowych w S?o Paulo. W całym 2000 roku firma cieszyła się silnym wzrostem sprzedaży i rosnącymi cenami akcji. Pomimo wzrostu sprzedaż MercadoLibre koncentruje się w kilku krajach. Brazylia generuje 40% swoich przychodów; Argentyna i Wenezuela razem stanowią kolejne 40%. Wiele rynków Ameryki Środkowej i Karaibów jest małych, o niskich dochodach iw porównaniu z nimi jest stosunkowo niewielkimi rynkami.
Wyzwania i kontrowersje
Pomimo szybkiego wzrostu i niemal monopolistycznej pozycji, MercadoLibre stawił czoła wyzwaniom, takim jak spadek wzrostu przychodów w Brazylii z powodu spowolnienia gospodarczego i rosnącej konkurencji ze strony Amazon, PayPal, Google, Microsoft, Alibaba i kilku mniejszych firm e-commerce. W Wenezueli czeka ją kontrola walutowa. Krytycy kwestionowali jej praktyki w zakresie rachunkowości walutowej, a niektórzy twierdzą, że jej akcje są przewartościowane. W 2012 roku na MercadoLibre Mexico pojawiła się kontrowersyjna reklama, która próbowała sprzedać dziecko za swoje narządy, ale szybko została usunięta. Firma twierdzi, że zachowuje czujność wobec postów, które naruszają jej zasady korporacyjne.
Eksplozja mobilnych urządzeń internetowych, w tym smartfonów, laptopów i tabletów, zmieniła sposób interakcji wielu ludzi z rządami. Znaczna część świata używa takich urządzeń, zwłaszcza smartfonów, do łączenia się z Internetem, w tym do uzyskiwania dostępu do usług administracji elektronicznej lub e-administracji. W rezultacie mobilna e-administracja lub m-government nabiera coraz większego znaczenia. m-Government znacznie poprawia dostęp państw do ich obywateli i vice versa. Na przykład smartfony pozwalają policji na patrolu sprawdzać bazy danych i rejestracje pojazdów, a także wystawiać mandaty, wykroczenia, tablice rejestracyjne i raporty z kontroli. Strażacy mogą korzystać z aplikacji lokalizacyjnych do reagowania na pożary. Szkoły mogą informować rodziców o postępach ich dzieci lub ich braku. I odwrotnie, obywatele mogą uzyskiwać aktualne, zależne od czasu i aktualne informacje; przeglądać dokumenty publiczne i dokumentację medyczną; studiować alternatywne środki transportu publicznego; i ubiegać się o różne pozwolenia, licencje i rejestracje. Pomimo swojej popularności, m-government jest wciąż w powijakach, chociaż niektórzy autorzy twierdzą, że jego rozwój jest nieunikniony. m-Government wyraźnie reprezentuje kolejny etap e-administracji, uzupełniając, ale niekoniecznie zastępując, sposoby świadczenia usług publicznych przez Internet stacjonarny. Ten wpis omawia usługi m-government na całym świecie oraz zalety i wady m-government.
m-rząd w praktyce
m-Government jest zwykle bardziej rozwinięty w bogatszych krajach świata, gdzie wskaźniki penetracji Internetu i smartfonów są wyższe. Kilka amerykańskich agencji federalnych przyjęło m-rząd. Oddziały wojska oraz departamenty sprawiedliwości, energetyki i skarbu umożliwiają bezprzewodowe wprowadzanie danych do baz danych. Federalna Administracja Lotnictwa dostarcza e-mailem aktualizacje dotyczące zatorów na lotniskach. Niektóre stany USA agresywnie promują m-rząd. W 2002 roku Wirginia uruchomiła program My Mobile Virginia, który, jak twierdziła, był pierwszym w kraju bezprzewodowym portalem dostarczającym informacji i usług rządowych, w tym informacji legislacyjnych, list lobbystów, wyników wyborów i danych podatkowych. Portal internetowy stanu Kalifornia, który pomaga obywatelom w dostępie do usług rządowych, jest przyjazny dla urządzeń mobilnych i wykorzystuje technologię geoprzestrzenną do rozpoznawania lokalizacji użytkownika, umożliwiając mu dostarczanie dostosowanych informacji. Iowa wysyła przypomnienia o naruszeniach parkingowych za pośrednictwem krótkich wiadomości tekstowych (SMS). Projekt IBM Total Web-Government ułatwił wdrożenie m-government w gminach należących do National League of Cities i National Association of Counties. Bezprzewodowy portal kanadyjskiego rządu oferuje urządzenia mobilne z informacjami o paszportach, opóźnieniach na granicach, kontaktach z posłami do parlamentu, wskaźnikach ekonomicznych i wiadomościach. W Europie aplikacje m-government są zróżnicowane. Londyńska policja używa SMS-ów do ostrzegania mieszkańców o zagrożeniach bezpieczeństwa. Niemiecka policja wykorzystuje Globalny System Pozycjonowania do śledzenia ruchów podejrzanych. Austriaccy funkcjonariusze zajmujący się egzekwowaniem przepisów dotyczących parkowania używają urządzeń przenośnych do sprawdzania, czy kierowcy dokonali płatności. Irlandzkie samorządy lokalne informują mieszkańców o statusie ich praw jazdy za pomocą wiadomości SMS. W Szwecji mieszkańcy mogą używać urządzeń mobilnych do ubiegania się o stanowiska publiczne, płacenia podatków i uzyskiwania telekonsultacji medycznych; 289 szwedzkich gmin zainicjowało aplikacje pilotażowe dotyczące opieki nad osobami starszymi i niepełnosprawnymi, umożliwiając pracownikom opieki pominięcie wizyt w urzędzie centralnym. Fiński rząd używa unikalnego kodu karty SIM (modułu identyfikacji abonenta) smartfonów jako weryfikatora tożsamości. Norwegowie mogą wypełnić swoje zeznania podatkowe za pomocą wiadomości SMS. Na Malcie ludzie mogą używać urządzeń mobilnych do składania skarg, uzyskiwania odroczeń sądowych, odnawiania licencji oraz uzyskiwania aktów urodzenia, zgonu i małżeństwa. Japonia promowała m-rząd za pomocą swojego wszechobecnego programu Japonia lub u-Japonia. Japońskie usługi m-government umożliwiają użytkownikom płacenie podatków i uzyskiwanie informacji na temat turystyki, katastrof, opieki zdrowotnej i wychowywania dzieci za pomocą smartfonów. Japoński system informacji o pojazdach i komunikacji zapewnia informacje w czasie rzeczywistym i zbiera informacje z pojazdów, dzięki czemu obywatele mogą otrzymywać informacje o pogodzie i dowiedzieć się o korkach, robotach drogowych, wypadkach samochodowych i dostępności parkingów. W Seulu w Korei Południowej szkoły podstawowe używają tagów RFID (identyfikacja radiowa) do monitorowania uczniów i upewniania się, że kierowcy przestrzegają ograniczeń dotyczących zakazu prowadzenia pojazdów. Tagi RFID są również używane w Seulu do monitorowania osób z chorobą Alzheimera i powiadamiania władz, jeśli posiadacz opuści wyznaczoną strefę lub naciśnie przycisk alarmowy. W 2012 r. rząd Seulu rozpoczął dystrybucję używanych inteligentnych urządzeń wśród osób o niskich dochodach i znajdujących się w niekorzystnej sytuacji, aby pomóc im uzyskać dostęp do Internetu i korzystać z usług e-administracji. Policja w Korei Południowej używa urządzeń bezprzewodowych do znajdowania zaginionych samochodów i łapania podejrzanych. Singapur oferuje kompleksowy portal eCitizen, za pośrednictwem którego obywatele mogą sprawdzać ruch drogowy; pobierać publikacje; rejestrować urodzeń i zgonów; szukać pracy; płacić opłaty, grzywny i podatki; sprawdzić świadczenia emerytalne; zarejestrować się do głosowania; i uzyskać poradę dotyczącą opieki zdrowotnej. Wiadomości tekstowe są używane w Singapurze do udzielania zezwoleń na wyjazd za granicę. Filipiny, często nazywane "światową stolicą wiadomości tekstowych", wprowadziły usługę TXTGMA w 2001 r., umożliwiając Filipińczykom na całym świecie zgłaszanie swoich problemów bezpośrednio do ówczesnej prezydent Glorii Macapagal Arroyo. Obywatele mogą narzekać na skorumpowanych pracowników i powolne świadczenie usług za pośrednictwem usługi SMS TextCSC Komisji Służby Cywilnej. Aby ustrzec się przed "fiksatorami", którzy wystawiają podatnikom fałszywe paragony, Urząd Skarbowy uruchomił system za pomocą wiadomości SMS, który w ciągu 38 godzin dostarcza podatnikom potwierdzenie otrzymania płatności przez uprawnione banki. Rząd turecki ma program o nazwie Mobil Elektronik Sistem Entegrasyon, czyli Mobile Electronic System Integration, który umożliwia policji i funkcjonariuszom ruchu drogowego używanie tabletów do zgłaszania przestępstw oraz sprawdzania historii podejrzanych i rejestracji pojazdów. Mnożą się inne przykłady. Tajlandia opracowała inicjatywę umożliwiającą obywatelom dostęp do usług zdrowotnych za pomocą smartfona; program skierowany jest głównie do osób starszych. Kilka krajów rozpowszechnia ostrzeżenia o zbliżających się katastrofach, takich jak tsunami lub epidemie, za pośrednictwem wiadomości SMS. W krajach tak różnych, jak Pakistan, Indie, Bangladesz, Kenia, Egipt, Jordania, Katar, Irak, Arabia Saudyjska, Australia i Papua-Nowa Gwinea powstają pierwsze inicjatywy rządowe.
Korzyści i zagrożenia związane z m-Government
Korzyści z m-government są wielorakie. Mając dostęp do wielu usług rządowych za pośrednictwem smartfonów i innych urządzeń mobilnych, wielu obywateli podniosło swoje oczekiwania co do wydajności sektora publicznego. Niektórzy twierdzą, że m-rząd sprawia, że państwa są bardziej przejrzyste, elastyczne i demokratyczne oraz mniej skorumpowane. Dla firm korzystających z urządzeń mobilnych do łączenia się z rządami, m-government oznacza postęp w handlu elektronicznym między rządem a biznesem, skracając czas oczekiwania i usprawniając zarządzanie łańcuchem dostaw. Rozpowszechnienie i popularność smartfonów które posiadają potencjał zmniejszania przepaści cyfrowej i zwiększania dostępu obywateli do rządu i udziału w nim. Dla osób mieszkających na odległych obszarach wiejskich bez łączy szerokopasmowych smartfony mogą być jedynym możliwym sposobem dotarcia do przedstawicieli publicznych. Z drugiej strony osoby nieposiadające smartfonów są w gorszej sytuacji niż kiedykolwiek wcześniej, tworząc "inteligentną" przepaść cyfrową. m-Government ma szczególne znaczenie dla krajów rozwijających się, w których infrastruktura internetowa może być słabo rozwinięta. m-Government napotyka kilka przeszkód technologicznych. Ponieważ są małe, urządzenia mobilne można łatwo ukraść, narażając przechowywane na nich dane. Większość z nich ma małe ekrany, co utrudnia czytanie dokumentów. Niektóre urządzenia mobilne nie posiadają usług 3G lub 4G, które są niezbędne do korzystania z Web 2.0 i mobilnego Internetu szerokopasmowego. Urządzenia mobilne mogą nie mieć niezbędnego oprogramowania, pamięci lub mocy obliczeniowej, aby uzyskać dostęp do usług m-government. Urządzenia mobilne można stosunkowo łatwo zhakować, co budzi obawy dotyczące bezpieczeństwa i prywatności. Wreszcie istnieją bariery instytucjonalne i ekonomiczne. Wiele rządów nie starało się przenieść usług publicznych na platformy mobilne, aw niektórych krajach brakuje sprzętu, oprogramowania i wykwalifikowanego personelu, aby to zrobić. Często wdrożenie m-government wymaga radykalnej przebudowy istniejących systemów; strony internetowe muszą być często przeprojektowywane. W niektórych przypadkach prawo nie uznaje legalności dokumentów i transakcji smartfonów. W niektórych krajach opłaty za wiadomości SMS są wysokie.
Blogi i mikroblogi służą do komunikacji, zarządzania wiedzą i publikowania. Blog jest po prostu skróconą wersją webloga, zlepkiem słów "web" i "log", reprezentującym system informacyjny, który wyświetla wpisy w dzienniku online. Mikroblogi można postrzegać jako składające się z krótszych wpisów blogowych. Ten wpis dalej definiuje mikroblogi, a następnie omawia proces mikroblogowania i sposób, w jaki funkcjonuje jako środek komunikacji masowej. Akshay Java i współpracownicy opisują mikroblogowanie jako formę blogowania na małą skalę, zazwyczaj składającą się z krótkich, zwięzłych wiadomości, używaną zarówno przez konsumentów, jak i firmy do dzielenia się wiadomościami, publikowania aktualizacji statusu i prowadzenia rozmów. Opisując różnicę między blogami a mikroblogami, Jeremiah Owyang (2008) mówi, że w porównaniu z szybkim przepływem informacji na Twitterze "długie posty na blogach, takie jak ten, wydają się o wiele wolniejsze i mozolne". Informacje w społecznościach mikroblogujących ogólnie rozprzestrzeniają się bardzo szybko. Cechą wspólną blogów i mikroblogów jest chronologiczna kolejność wpisów - najnowsze wpisy są zawsze na górze - oraz ogólny charakter rozgłosu w Internecie.
Jak działa mikroblogowanie
Istnieje kilka różnych platform dla mikroblogów - na przykład Tumblr, Yammer i Instagram - ale najbardziej znaną jest Twitter. Na Twitterze każdy, kto posiada konto, może publikować wiadomości, zwane tweetami. Od końca 2017 roku każdy tweet nie może być dłuższy niż 280 znaków. Każdy użytkownik może nawiązywać połączenia na Twitterze, po prostu obserwując innych użytkowników. Osoby, które obserwują innego użytkownika, nazywane są obserwującymi. Symbol hashtagu (#) przed odpowiednim słowem kluczowym lub frazą w tweecie służy do kategoryzacji tych tweetów i upewnienia się, że są one wyświetlane, gdy użytkownik szuka tego słowa lub frazy. Hashtag można postrzegać jako rodzaj metadanych społecznościowych podawanych przez samych użytkowników. Wyszukiwanie lub filtrowanie określonych hashtagów ułatwia śledzenie wydarzenia w trakcie jego trwania. Dzięki umieszczeniu znaku @ i nazwy użytkownika w tweecie możliwe staje się publiczne zwrócenie się do innego użytkownika. Wreszcie, każdy publiczny tweet może zostać przesłany dalej lub wysłany ponownie do obserwujących innego użytkownika. Dzięki retweetowaniu możliwe jest dotarcie do bardzo szerokiej społeczności w bardzo krótkim czasie.
Komunikacja masowa poprzez mikroblogowanie
Mikroblogi można postrzegać jako formę środków masowego przekazu obejmującą znaczącą komunikację. Tweety to wiadomości wysyłane przez różnych komunikatorów (użytkowników) za pośrednictwem medium (aplikacji) do różnych odbiorców (obserwujących i/lub osób, które czytają mikroblogi, ale nie są identyfikowane jako obserwujący użytkownika). Mikroblogi są na ogół publiczne, a publikowane tweety są pośrednie i jednokierunkowe dla nieokreślonej, rozproszonej publiczności. Użytkownicy mogą być rozproszeni po całym świecie i mogą korzystać z aplikacji mikroblogowych z poziomu interfejsu mobilnego, klienckiego lub sieciowego. W przeciwieństwie do tradycyjnych środków masowego przekazu wiadomości na osi czasu mikroblogów pojawiają się w czasie rzeczywistym, a nie są przesunięte w czasie. Uważa się, że mikroblogi reprezentują komunikację jednokierunkową, ponieważ użytkownicy wysyłają wiadomości, a inni użytkownicy je otrzymują. Ale w ramach mikroblogów użytkownicy mogą w dowolnym momencie zmienić swoją rolę z komunikatora na odbiorcę iz powrotem. Zachowania komunikacyjne występujące w różnych typach mikroblogów można dostosować do podstawowych form komunikacji zdefiniowanych przez Stephena Littlejohna, w których każdy poziom komunikacji zawiera poziom pierwszy. Komunikacja masowa obejmuje komunikację interpersonalną, grupową i organizacyjną. Oznacza to, że w mikroblogach wszystkie wiadomości publiczne na platformie są komunikacją masową, ale wiadomości można podzielić na różne kategorie komunikacji.
Rozproszona publiczność mikroblogów
Mikroblogi mają swoją własną rozproszoną publiczność, co jest powszechnym pojęciem w badaniach nad mediami. W przeciwieństwie do tradycyjnych odbiorców w środkach masowego przekazu, użytkownicy mikroblogów mogą zamieniać się rolami nadawcy i odbiorcy. Wielu użytkowników jest użytkownikami pasywnymi, co oznacza, że czytają to, co piszą inni, ale nie piszą samodzielnie. Jest to zgodne z pierwszym kryterium rozproszonej opinii publicznej, to znaczy wielu różnych ludzi naraża się na informacje za pośrednictwem środków masowego przekazu. Drugie kryterium, a mianowicie brak bezpośredniej komunikacji osobistej, ma również zastosowanie do mikroblogów. Po trzecie, społeczność mikroblogów odpowiada zbiorowi oddzielnych jednostek, co pasuje do terminu "publiczność rozproszona".
Komunikacja masowa za pośrednictwem Twittera
Na Twitterze istnieją cztery czynniki: (1) użytkownik (komunikator), (2) tweet (wiadomość), (3) medium (Twitter za pośrednictwem telefonu komórkowego, klienta lub interfejsu internetowego) oraz (4) obserwujący ( odbiorca). Wszystkie te czynniki są interaktywne. W przypadku tradycyjnych środków masowego przekazu, takich jak telewizja czy gazety, komunikator składa się z reguły z kilku osób, które są zaangażowane w selekcję i prezentację przekazów. Użytkownik Twittera (w roli komunikatora) jest zazwyczaj osobą indywidualną i decyduje o treści swoich wiadomości. Wszyscy czytelnicy wiadomości na Twitterze mogą być postrzegani jako poszczególni odbiorcy lub jako kompletna strona odbiorcy. Użytkownik Twittera wybiera wypowiedzi, obserwując specjalnych użytkowników lub wyszukując je za pomocą znaku krzyżyka (#) przed interesującymi ich warunkami. Proces ten zależy teraz od jednostki, która decyduje, które wypowiedzi są czytane. Główny wpływ na ten proces decyzyjny mają istniejące interesy, opinie i postawy zaangażowanych osób. Ważne jest również, kiedy i gdzie Twitter jest używany iz jakich powodów. W badaniach zbadano intencje stojące za korzystaniem z Twittera. Oprócz indywidualnej roli, jaką pełni odbiorca tweeta, uczestniczy on w różnych relacjach społecznych w ramach rozproszonej publiczności. W rezultacie użytkownicy Twittera rozwijają określone wrażenia dotyczące innych użytkowników i mają określone wrażenia dotyczące Twittera jako medium ze względu na jego właściwości techniczne, takie jak ograniczenie liczby znaków, użycie hashtagów i praktyka śledzenia. Użytkownik Twittera, pełniąc funkcję czytelnika i odbiorcy tweetów, działa jednocześnie jako komunikator wiadomości. Pisząc i publikując tweety, użytkownik Twittera ingeruje w proces komunikacji masowej. Użytkownik Twittera zawsze będzie podlegał pewnym ograniczeniom społecznym, gdyż w swoich wypowiedziach będzie uwzględniał opinie, przekonania, normy i wartości społeczne. Bardziej niż w jakiejkolwiek tradycyjnej formie komunikacji masowej, Twitter kładzie nacisk na interakcje między członkami. Dlatego tweetowanie jest mniej jednostronnym procesem komunikacji masowej, a bardziej interaktywnym procesem komunikacji masowej. Twitter oferuje możliwość spontanicznego rozpoczynania dyskusji bez warunków wstępnych. Ta interaktywna forma komunikacji może zaowocować spontanicznymi kontaktami i długotrwałymi relacjami społecznymi. Procesy komunikacji i interakcji w ramach Twittera prowadzą użytkowników Twittera do tworzenia osobistych wrażeń o sobie nawzajem.
Zastosowania mikroblogowania
Mikroblogi są wykorzystywane w różnych scenariuszach, które można podsumować w następujący sposób: Mikroblogowanie jako narzędzie komunikacji masowej. Mikroblogi są wykorzystywane głównie do masowej komunikacji od jednej do wielu osób w celu przyciągnięcia uwagi lub wyrażenia opinii. Mikroblogowanie jako komunikacja poprzez zdarzenia. Bardzo popularnym zastosowaniem mikroblogów jest wzbogacanie wiadomości za pomocą hashtagu wydarzenia. Na przykład hashtagi były używane w wydarzeniach politycznych, takich jak #ArabSpring, w przypadku wstrząsów politycznych w świecie arabskim w 2010 i 2011 r., oraz w przypadku innych ważnych wydarzeń, takich jak #royalwedding podczas zaślubin księcia Williama i Kate Middleton w 2011 r. Mikroblogowanie jako narzędzie dokumentacji i wyszukiwania informacji. Wreszcie, mikroblogowanie może być również wykorzystywane jako narzędzie do dokumentacji i wyszukiwania informacji z ogromnej liczby tweetów poprzez formę analizy semantycznej. Mogą to również zrobić aplikacje innych firm, które umożliwiają filtrowanie i monitorowanie zapytań wyszukiwania.
Miejskie sieci szerokopasmowe przybierają różne formy w społecznościach w całych Stanach Zjednoczonych, ale wszystkie takie sieci mają wspólne podstawowe elementy składowe. Po pierwsze, dostarczają usługi szerokopasmowe, a nie dial-up. Federalna Komisja Łączności (FCC) definiuje łącze szerokopasmowe jako stałą usługę internetową z szybkością pobierania 25 Mb/s (megabitów na sekundę) i szybkością wysyłania 3 Mb/s. Ponadto sieci miejskie są tworzone przez samorząd miejski, a nie przez prywatną firmę nastawioną na zysk. Można to realizować na różne sposoby, w zależności od lokalnych potrzeb i możliwości. W niektórych przypadkach lokalnie rządy inwestują w sieci pośrednie, a następnie oferują dostęp partnerom z sektora prywatnego w ramach konkurencyjnego procesu. W innych, takich jak Chattanooga, system Tennessee o przepustowości 1 gigabita na sekundę, gminy bezpośrednio oferują usługi konsumentom. W tym wpisie omówiono strukturę miejskich sieci szerokopasmowych, przedstawiono wyzwania stojące przed takimi sieciami oraz zbadano ich potencjał do przyszłego rozwoju.
Miejskie podstawy łączności szerokopasmowej
W czerwcu 2016 roku Sąd Apelacyjny Stanów Zjednoczonych dla Okręgu Dystryktu Kolumbii podtrzymał definicję FCC szerokopasmowego dostępu do Internetu jako usługi użyteczności publicznej, a nie usługi informacyjnej lub rozrywkowej. Istniejący od dziesięcioleci paradygmat usługi powszechnej, kluczowy w operacjach komunalnych, może być kluczem do rozwiązania problemu ery cyfrowej, z którym borykają się miliony Amerykanów. Nawet w krajach rozwiniętych, takich jak Stany Zjednoczone, wielu mieszkańców obszarów wiejskich boryka się z utrzymującymi się nierównościami w dostępie szerokopasmowym, ponieważ zakłady użyteczności publicznej unikają obszarów o małej gęstości zaludnienia, starając się zmaksymalizować zwrot z inwestycji w infrastrukturę. Miejskie sieci szerokopasmowe mogą stanowić rozwiązanie tej przepaści cyfrowej. Narzędzia szerokopasmowe będące własnością gmin i przez nie obsługiwane mają już osiągnięcia w zakresie wspierania wzrostu gospodarczego, zwiększania możliwości edukacyjnych i zwiększania równości społecznej. Systemy bezprzewodowe podkreślają fakt, że sieci szerokopasmowe są tak różnorodne, jak społeczności, którym służą. Mieszkańcy metropolii Kansas City w stanie Missouri mogą uzyskać dostęp do prędkości rzędu gigabitów, łącząc się z prywatną siecią Google Fiber. Z drugiej strony mieszkańcy Brooklynu w Nowym Jorku szybko przywrócili łączność po huraganie Sandy, korzystając z bezprzewodowej sieci typu mesh, która całkowicie omija centralnego dostawcę usług internetowych. Christian Sandvig napisał, że podobnie jak rozwój infrastruktury telefonicznej na początku XX wieku, wzorzec innowacji w infrastrukturze szerokopasmowego Internetu jest szybki, chaotyczny i często praktykowany w formach niezależnych od tradycyjnych instytucji. Jednak ten wpis koncentruje się na systemach, które są własnością władz miejskich i są przez nie obsługiwane, a nie na prywatnych firmach lub spółdzielniach pozarządowych. Takie rządy mogą pomóc w obsłudze pomijanych grup użytkowników poprzez pionierskie systemy eksperymentalne zgodnie z lokalnymi potrzebami. Jedną z takich grup są Amerykanie mieszkający na obszarach wiejskich, z których ponad połowa nie ma dostępu do usług internetowych spełniających standardy FCC dla łączy szerokopasmowych. Topologia "superautostrady informacyjnej" to niewiele więcej niż abstrakcyjna ciekawostka dla tych, którzy są zbyt daleko od wjazdu, by złapać przejażdżkę. W szczególności 72% mieszkańców wsi nie ma dostępu do Internetu o prędkości większej niż 3 Mb/s. Wśród krajów Organizacji Współpracy Gospodarczej i Rozwoju Stany Zjednoczone zajmują 15. miejsce pod względem subskrypcji szerokopasmowego Internetu na mieszkańca i mają dwukrotnie wyższy współczynnik Giniego niż sąsiednia Kanada. Powolne i przestarzałe połączenia dial-up są nieproporcjonalnie często spotykane na obszarach wiejskich, podczas gdy linie światłowodowe częściej obsługują mieszkańców regionów o dużym zagęszczeniu. Według Barneya Warfa, po deregulacji amerykańskiego przemysłu telekomunikacyjnego, dostawcy usług telekomunikacyjnych unikali obszarów, w których niskie zagęszczenie ogranicza korzyści skali. Meena Chary i Stephen Aikins opisali również, w jaki sposób ekonomia rynkowa nie zapewnia silnych zachęt dla usługodawców aby wjeżdżać na tereny wiejskie. Ponieważ jednak sieci miejskie nie kierują się wyłącznie motywacją do zysku, mogą świadczyć usługi bardziej integracyjne.
Przeszłość i teraźniejszość
Chociaż łącza szerokopasmowe są stosunkowo nowe, partnerstwa sektora publicznego są czcigodnym sposobem promowania dobrobytu społeczności poprzez rozszerzanie dostępu do mediów. Na przykład wysiłki sektora publicznego promowały elektryfikację obszarów wiejskich na początku XX wieku. Administracja ds. Elektryfikacji Obszarów Wiejskich udzieliła subsydiowanych przez władze federalne pożyczek w wysokości 0,3% krajowego PKB, co pomogło podwoić liczbę gospodarstw korzystających z usług elektrycznych w latach 1935-1940. społeczności XXI wieku. Zamiast wykluczać prywatnych dostawców, stwarzają dodatkowy wybór, który stymuluje konkurencję w przestrzeni świadczenia usług szerokopasmowych. Prowadzi to do obniżonych cen, lepszych prędkości połączeń i większych wskaźników penetracji. François Bar i Namkee Park stwierdzili, że gminy są dobrze przygotowane do zapewnienia dostępu szerokopasmowego ze względu na ich istniejące prawo pierwszeństwa przejazdu i doświadczenie w świadczeniu usług użyteczności publicznej. Zarówno czynniki technologiczne, jak i polityczne wskazują drogę do świetlanej przyszłości miejskich łączy szerokopasmowych. W 2015 roku ówczesny prezydent Barack Obama wyraził poparcie dla sieci miejskich i zadeklarował sprzeciw wobec przepisów stanowych ograniczających finansowanie gmin. FCC zgodziła się z władzą wykonawczą, wydając decyzję o uchyleniu takich przepisów przy użyciu władzy federalnej. Instytucje, od Departamentu Rolnictwa Stanów Zjednoczonych po Agencję Ochrony Środowiska, stworzyły programy dotacji w celu wspierania ulepszonych lokalnych łączy szerokopasmowych. Chociaż działania federalne stanowią ważny krok naprzód we wdrażaniu sieci miejskich, działanie na poziomie lokalnym jest kluczem do ustanowienia skutecznego systemu. Na przykład sieć miejska Bristolu w stanie Tennessee rozrosła się dzięki obligacjom i grantom federalnym o wartości 21 milionów dolarów, ale dopiero po tym, jak została pierwotnie utworzona na użytek wewnętrznych władz lokalnych. Głównymi czynnikami prowadzącymi do utworzenia sieci miejskiej jest obecność miejskiego zakładu energetycznego i utworzenie intranetu dla pracowników miejskich. Dla miejskich zakładów energetycznych łączność światłowodowa jest atrakcyjną wartością, ponieważ może dostarczać informacji o przerwach w dostawie prądu i konserwacji, a także generować dodatkowe przychody. Systemy szerokopasmowe obejmujące całą społeczność często zaczynają się jako systemy na małą skalę, ograniczone do operacji miejskich. Przed publicznym wdrożeniem systemy te poprawiają komunikację w wydziałach miejskich, takich jak służby ratownicze, szpitale i biblioteki, i są wykorzystywane w systemach kontroli nadzorczej i gromadzenia danych w elektrowniach i wodociągach. Na przykład miejska sieć szerokopasmowa Chattanooga powstała w wyniku próby podłączenia inteligentnych liczników używanych przez miejskie przedsiębiorstwo energetyczne. W 2015 roku Biały Dom poinformował, że czas przerw w dostawie prądu w Chattanooga spadł o 60% po uruchomieniu inteligentnej sieci miejskiej. Sieci bezprzewodowe, które wykorzystują stacje bazowe zamontowane na istniejących obiektach miejskich, takich jak latarnie uliczne i sygnalizacja świetlna, zapewniają szczególnie opłacalny sposób świadczenia usług. Systemy te zmniejszają bariery wejścia dla gmin zainteresowanych wejściem na rynek usług szerokopasmowych. Oprócz systemów Wi-Fi (Wireless Fidelity), systemy Fi-Wi (hybrydowe Fibe r-Wireless) mogą jeszcze bardziej obniżyć koszty poprzez konsolidację niezależnych systemów. Ponadto światłowód z tworzywa sztucznego mógłby umożliwić wdrożenie światłowodu na terenach poprzemysłowych ze względu na swoją fizyczną elastyczność, wysoką tolerancję na zanieczyszczenia i niski koszt. W artykule z 2003 roku Seamus Grimes omówił, w jaki sposób cyfrowa informacja i technologie komunikacyjne mogą skutkować zmianami geograficznymi, ponieważ sieci wzajemnie powiązanych węzłów tworzą nowe relacje przestrzenne. Aby dołączyć do tych sieci, mieszkańcy społeczności o niskim zagęszczeniu muszą wykorzystać łączność szerokopasmową. Na przykład małe i średnie przedsiębiorstwa mogą korzystać z szybkiego Internetu, aby uzyskać dostęp do klientów na całym świecie. Osoby posiadające dostęp do usług szerokopasmowych mogą zdobyć więcej i bardziej wartościowych umiejętności, a zatem oferować więcej usług o wyższej wartości niż osoby bez nich. W ten sposób łącza szerokopasmowe mogą pomóc w budowaniu kapitału ludzkiego i wspieraniu mobilności społecznej. Handel internetowy może pomóc w promowaniu zrównoważonego rozwoju regionów wiejskich, zapewniając, że ich gospodarka nie jest zależna od transferów z innych regionów. Chociaż o zrównoważonym rozwoju powszechnie myśli się w kontekście ochrony środowiska, rozwój społeczny i gospodarczy stanowi dwa z trzech filarów zrównoważonego rozwoju określonych przez Komisję Brundtland ONZ. Proces, w którym finansowane przez społeczność sieci szerokopasmowe rozszerzają się na skalę, aby konkurować z systemami będącymi własnością inwestorów, jest przykładem konstrukcji teoretycznej znanej jako przejście socjotechniczne. Systemy socjotechniczne (STS) obejmują środki, za pomocą których tworzeniem, dystrybucją i wdrażaniem technologii kierują aktorzy działający w kontekście struktur społecznych. STS obejmują zarówno techniczne aspekty infrastruktury, jak i osoby pracujące w kontekście organizacyjnym. Oddziaływania specyficzne dla miejsca wpływają na tych aktorów, którzy rozumieją i zarządzają przejściami, zapewniając soczewkę, za pomocą której dyscyplina geografii może analizować rozwój STS. STS ewoluują w odpowiedzi na presję selekcyjną, która obejmuje ilościowe czynniki makroekonomiczne, a także jakościowe postawy i trendy kulturowe. Koalicje społeczne, w tym liderzy biznesowi i politycy, kształtują systemy infrastruktury w gminach. Adrian Smith, Andy Sterling i Frans Berkhout napisali, że narzędzia są kluczowymi składnikami konstruktorów reżimów socjotechnicznych. Wpływowi przywódcy w społeczności są odpowiedzialni za kształtowanie reżimów i STS w sposób promujący długoterminową stabilność. Konkursy, takie jak to, które powstaje, gdy konsumenci mogą wybierać między sieciami społecznościowymi a sieciami nastawionymi na zysk, jest formą socjotechnicznej presji selekcyjnej. Te presje selekcyjne są kluczowym motorem ogólnej zmiany. Działania podejmowane na szczeblu wspólnotowym mogą radykalnie zmienić funkcjonowanie całego ustroju.
Korzyści szerokopasmowe
Przyciąganie nowych firm i generowanie zwiększonych przychodów to dwa kluczowe cele gmin wdrażających sieci szerokopasmowe. Takie sieci mogą pomóc łączyć społeczności z dobrobytem gospodarczym, ponieważ szybki dostęp do Internetu jest powiązany ze wzrostem PKB w społecznościach amerykańskich. George Ford i Thomas Koutsky udokumentowali w 2005 r., Że zwiększone tempo wzrostu gospodarczego w hrabstwie Lake na Florydzie w porównaniu z rówieśnikami regionalnymi było związane z wdrożeniem rozległej sieci światłowodowej przez przedsiębiorstwo komunalne w hrabstwie. Nawet poza wąską miarą PKB, sieci miejskie sprzyjają szerszej równości społecznej i możliwościom gospodarczym. Powiaty, które uzyskają dostęp do łączy szerokopasmowych, odnotowują wzrost ogólnego zatrudnienia o 1,8%, a jeszcze większy wzrost widać na obszarach wiejskich. Zgłoszono, że sieć miejska Chanute w stanie Kansas generuje rocznie ponad 600 000 USD przychodów na wsparcie usług miejskich. Szybka sieć Chattanooga sprzyja rozwojowi kilku start-upów technologicznych, a także firm venture capital. W 2008 roku Bento Lobo, Andy Novobilski i Soumen Ghosh przewidywali, że system stworzy 352,4 miliona dolarów zwiększonej aktywności gospodarczej i 2600 nowych miejsc pracy do 2015 roku, jeśli zostanie wdrożony w całym hrabstwie Hamilton, w tym w Chattanooga. W 2013 roku Charlie Remy poinformował, że po tym, jak sieć Chattanooga zaczęła działać w 2010 roku, dawne borykające się z problemami miasto tekstylne przyjęło 1,3 miliarda dolarów nowych inwestycji i 6800 nowych miejsc pracy.
Wyzwania i możliwości
Bez względu na to, jak korzystne może być dla danej społeczności, tworzenie miejskiej sieci szerokopasmowej nie jest, w żargonie technologicznym, prostą operacją "podłącz i używaj". Chattanooga zbudowała swoją infrastrukturę dopiero po otrzymaniu dotacji Departamentu Energii w wysokości 111 milionów dolarów i wyemitowaniu 25-letnich obligacji komunalnych. Zakłady komunalne mogą być zaawansowanymi projektami technologicznymi, ale zależą od światłego przywództwa w takim samym stopniu, jak światłowody o prędkości światła. Miejskie sieci szerokopasmowe nie zawsze odnosiły takie sukcesy, jak obecnie. Boom technologiczny późnych lat 90. i wczesnych 2000. wywołał wiele entuzjazmu wokół sieci miejskich, z których wiele okazało się irracjonalnych. Na przykład miasto Filadelfia w Pensylwanii przyznało prywatnemu dostawcy EarthLink wyłączną licencję na obsługę sieci bezprzewodowej na początku XXI wieku. Według Erica Nulla wysiłek ten był wówczas największą tego typu
siecią w Stanach Zjednoczonych pod względem liczby użytkowników. Jednak z powodu nierozsądnej struktury planowania i finansowania ta śmiała inicjatywa wkrótce upadła. Ograniczenia dotyczące stawek i pierwszeństwa przejazdu ustanowione przez miasto uniemożliwiły osiągnięcie przez sieć zysków, co spowodowało radykalne zmniejszenie przepustowości przez EarthLink, co jeszcze bardziej zmniejszyło jego popularność i rentowność. Ostatecznie EarthLink porzucił projekt i przekazał system miastu. To studium przypadku pokazuje, że skuteczna i dalekowzroczna polityka publiczna, oprócz zaawansowanej technologii, jest niezbędna do zbudowania zrównoważonej sieci miejskiej. Jednak ze względu na wysiłki lobbingowe obecnych przedsiębiorstw użyteczności publicznej będących własnością inwestorów, niektóre stany nałożyły ograniczenia na sieci komunalno-rządowe działające w ich granicach. Na przykład Karolina Północna skutecznie zakazał takich sieci na rynku konsumenckim. Po wielomilionowym lobbingu kilku firm, Tennessee uchwalił
również ustawę chroniącą zakłady użyteczności publicznej będące własnością inwestorów przed konkurencją, zakazując miastom obsługiwanym przez te zakłady użyteczności publicznej tworzenia miejskich łączy szerokopasmowych. Vauhini Vara opisał, jak w społecznościach wiejskich w pobliżu Chattanooga, ale poza obszarem usług miejskich, rodzice zgłaszają, że zawożą swoje dzieci do McDonald′s (który oferuje bezpłatne publiczne Wi-Fi w wielu franczyzach), aby uzyskać dostęp do wystarczającej łączności do odrabiania zadań domowych online. Ta anegdota podkreśla zarówno wady napotykane przez wiejskich konsumentów Internetu, jak i przeszkody napotykane przez miejskie sieci szerokopasmowe ze względu na ich wysoki koszt początkowy, względną złożoność i wyzwanie dla ugruntowanych monopoli.
Przyszłe kierunki
Szerokopasmowy dostęp do Internetu nie jest już luksusem, ale niezbędnym elementem infrastruktury publicznej. Zakup ubezpieczenia zdrowotnego, ubieganie się o przyjęcie na studia czy czytanie e-podręczników to tylko niektóre z nowoczesnych zadań, które wymagają odpowiedniej przepustowości sieci. Gminy mogą odgrywać kluczową rolę w obsłudze wydajnych i opłacalnych systemów szerokopasmowych. Takie systemy mogą przyczynić się do poprawy jakości usług i promowania równości społecznej, zwłaszcza na obszarach wiejskich, które nieproporcjonalnie cierpią z powodu wyzwań związanych z łącznością. Perspektywa liderów miejskich zapewnia wgląd w lokalne czynniki polityczne i zarządcze, które inspirują lub hamują innowacje cyfrowe. Podejmując decyzje dotyczące technologii i polityk sieciowych, liderzy ci służą jako kluczowe ogniwa między skalą poszczególnych użytkowników a globalną skalą sieci. Nawet w erze bezprecedensowej kompresji czasoprzestrzennej gminy nadal odgrywają ważną rolę w tworzeniu zrównoważonych miejsc. Dzięki skutecznemu i innowacyjnemu zarządzaniu te same ramy użyteczności publicznej, które kilkadziesiąt lat temu dostarczały energię elektryczną odizolowanym społecznościom, mogą zapewnić gospodarczą i polityczną siłę przyszłym pokoleniom w postaci szerokopasmowego dostępu do Internetu.
Od późnych lat 90. internetowe serwisy muzyczne rzucają wyzwanie i zmieniają sposób działania przemysłu muzycznego. Przemysł muzyczny odnosi się do całej sieci wartości osób i firm zaangażowanych w cały proces, od tworzenia muzyki po jej dystrybucję. Osoby te obejmują między innymi autorów piosenek, kompozytorów i muzyków; firmy fonograficzne i wytwórnie płytowe; oraz detaliczne i internetowe sklepy muzyczne. Ten wpis opisuje rozwój różnych internetowych usług dystrybucji muzyki, sposób, w jaki Internet zmienił obieg muzyki, jak pojawiły się nowe modele biznesowe i jak coraz częściej oczekuje się, że muzycy będą wykorzystywać Internet i media społecznościowe do łączenia się z publicznością.
Historia internetowych usług dystrybucji muzyki
Usługa internetowa Napster do udostępniania plików peer-to-peer została uruchomiona w 1999 roku i umożliwia użytkownikom wyszukiwanie, udostępnianie i pobieranie muzyki w postaci plików cyfrowych przechowywanych na komputerach innych osób. Napster umożliwił użytkownikom przesyłanie i pobieranie muzyki do i od wszystkich innych użytkowników Napstera za darmo i poza ramami i modelami zarabiania w branży muzycznej. Napster był stosunkowo łatwy w użyciu, a atrakcyjność dostępu do ogromnej biblioteki współdzielonej muzyki doprowadziła do szybkiego i masowego wzrostu liczby użytkowników. Udostępnianie plików muzycznych w Napster naruszało jednak prawa autorskie, a usługa szybko upadła, zaprzestając swojej pierwotnej działalności w 2002 r. Jednak wyzwania przemysłu muzycznego związane z nielegalnym udostępnianiem plików muzycznych dopiero się zaczęły, z wieloma alternatywami dla Napstera, takimi jak LimeWire (2000-2010), Kazaa (2001-2012) i RapidShare (2002-2015). Firmy z branży muzycznej zareagowały, pozywając usługi peer-to-peer i ich użytkowników za nielegalne udostępnianie plików. Ponadto płyty kompaktowe (CD), a później cyfrowe pliki muzyczne, były chronione za pomocą technologii zarządzania prawami cyfrowymi w celu ograniczenia nielegalnego kopiowania muzyki. Branża muzyczna podjęła niewiele wysiłków w celu opracowania i uruchomienia legalnych internetowych usług dystrybucji muzyki. Zamiast tego firmy i podmioty z branży technologicznej jako pierwsze opracowały i uruchomiły usługi prawne. Najbardziej zauważalna zmiana w kierunku legalnej i atrakcyjnej komercyjnie usługi dystrybucji muzyki online rozpoczęła się wraz z wypuszczeniem przez Apple w 2001 roku iPoda, odtwarzacza MP3, początkowo zaprojektowanego głównie dla użytkowników do digitalizacji i słuchania własnych kolekcji muzycznych. Bardziej znaczące pod względem zapewnienia alternatywy dla legalnego kupowania i pobierania muzyki było uruchomienie przez Apple w 2003 roku iTunes Music Store w Stanach Zjednoczonych, a następnie w kolejnych latach na całym świecie. Chociaż iTunes Music Store stał się możliwy po podpisaniu przez Apple umów z głównymi wytwórniami płytowymi, była to usługa opracowana i obsługiwana przez firmę spoza branży muzycznej. Pojawiło się również wiele dodatkowych sklepów internetowych do kupowania i pobierania muzyki w postaci plików cyfrowych, takich jak eMusic, Amazon MP3, Bandcamp i Spinlet - różniących się pod względem artystów głównego nurtu i niezależnych oraz rynków globalnych i węższych geograficznie. Te usługi muzyczne online zostały początkowo opracowane i uruchomione jako usługi, za pośrednictwem których konsumenci muzyki mogli kupować cyfrowe pliki muzyczne, a tym samym kontynuowali stary model własności. Równolegle upowszechniał się nowy model dostępu i słuchania muzyki. YouTube (założony w 2005 roku) szybko stał się popularnym serwisem umożliwiającym również dostęp do muzyki i jej słuchanie. Usługa radia internetowego Pandora (założona w 2000 r. i dostępna tylko w Stanach Zjednoczonych, Australii i Nowej Zelandii) rozpoczęła działalność jako spersonalizowana usługa radia muzycznego, w której użytkownicy mogli uzyskiwać dostęp do muzyki i słuchać jej, ale w której żadne utwory nie są kupowane na własność. Te wzorce uzyskiwania dostępu do muzyki i słuchania jej pomogły utorować drogę nowemu modelowi dostępu opartemu na strumieniowym przesyłaniu muzyki, a nie kupowaniu, pobieraniu i posiadaniu jej. Usługi strumieniowego przesyłania muzyki stały się coraz bardziej popularne pod koniec 2000 roku. Usługi te oferują dostęp na żądanie do ogromnych bibliotek muzycznych, jako "freemium", usługa oparta na reklamach i/lub usługa premium, oparta na miesięcznym abonamencie. Start-upy technologiczne, takie jak Deezer w 2006 r. i Spotify w 2008 r., uruchomiły pierwszą z tych usług. Obie firmy stały się głównymi globalnymi graczami. Uruchomiono również wiele innych usług strumieniowego przesyłania muzyki, w tym simfy africa na rynek afrykański, KKBOX w Azji, Zvooq w Rosji i Saavn w Indiach. W ich ślady poszli przedstawiciele branży technologicznej i internetowej. Apple uruchomił streaming z Apple Music w 2015 r., Google z Google Play w 2013 r., a Amazon z Amazon Music w 2016 r.
Internet i zmiany w obiegu muzyki
Konsumenci muzyczni szybko przyjęli nowe wzorce dostępu do muzyki i słuchania jej wraz z pojawieniem się nowych serwisów muzycznych online. Rozpowszechnianiu się nielegalnych usług udostępniania plików peer-to-peer pod koniec lat 90. i na początku XXI wieku towarzyszyło zmniejszenie dochodów przemysłu muzycznego, jednak dyskutowano, w jaki sposób te tendencje były ze sobą powiązane. Dzięki legalnym serwisom muzycznym online, muzyka cyfrowa przynosi przemysłowi muzycznemu większe przychody niż sprzedaż w formacie fizycznym. Badania nad tym, jak serwisy muzyczne online zmieniają wzorce obiegu i konsumpcji muzyki, podkreślają z jednej strony zaangażowane technologie, az drugiej połączone osobiste i społeczne znaczenie muzyki jako produktu kulturowego.
Poziom technologiczny
Jeśli chodzi o usługi udostępniania plików peer-to-peer z końca lat 90. te kopie. Konsekwencje dla obiegu muzyki jako produktu kulturowego dotyczyły zatem tego, jak usługi peer-to-peer otworzyły nielegalny, wolny rynek poza i początkowo niekontrolowany przez przemysł muzyczny. Dla konsumentów muzycznych usługi te poszerzały pulę dostępnej muzyki, nawet jeśli udostępnianie plików odbywało się nielegalnie. Legalne usługi kupowania i pobierania muzyki w postaci plików cyfrowych ułatwiły wyszukiwanie i kupowanie muzyki, jednak technologie stosowane za usługami strumieniowego przesyłania muzyki są prawdopodobnie większymi zmianami w zakresie obiegu muzyki. Usługi strumieniowego przesyłania muzyki oparte na dostępie umożliwiają użytkownikom końcowym znajdowanie i odtwarzanie muzyki znajdującej się na serwerach zaplecza, z niskimi opóźnieniami i bez zacinania się. Oznacza to, że użytkownicy mogą przesyłać strumieniowo lub odtwarzać muzykę bez pobierania, z jakością dźwięku nieco gorszą niż jakość płyty CD. Ten dostęp na żądanie i obfitość dostępnej muzyki w usługach strumieniowego przesyłania muzyki zainicjowała wysiłki, aby pomóc konsumentom muzyki odkrywać i odkrywać muzykę. Usługi strumieniowego przesyłania muzyki oferują użytkownikom możliwość łączenia się z rówieśnikami i przyjaciółmi oraz udostępniania preferencji dotyczących słuchania, na przykład poprzez łączenie się ze znajomymi z Facebooka w Spotify. Większość usług strumieniowego przesyłania muzyki umożliwia użytkownikom sortowanie muzyki na listy odtwarzania, a użytkownicy mogą udostępniać te listy odtwarzania publicznie lub znajomym w sieci. Ponadto większość usług strumieniowego przesyłania muzyki zbiera dane na podstawie tego, co ich użytkownicy lubią, oznaczają jako ulubione i sortują według list odtwarzania. Następnie rywalizują o opracowanie algorytmów oferujących spersonalizowane rekomendacje. Dlatego firmy zajmujące się strumieniowaniem muzyki inwestują w rozwój technologiczny, aby muzyka znajdowała użytkowników. Implikacje algorytmicznych systemów rekomendacji dla obiegu muzyki są prawdopodobnie znaczące, z konsekwencjami dla muzyki, którą użytkownicy odkrywają i której słuchają.
Osobiste i społeczne znaczenie muzyki
Muzyka jako produkt kultury ma wyraźne znaczenie osobiste i społeczne, a Internet jako kanał dystrybucji należy rozumieć w tym niejednoznacznym kontekście osobistym i społecznym. Badania wskazują, w jaki sposób kolekcje muzyczne są postrzegane jako ujawniające ślady tożsamości, a zatem są cenione jako wyznaczniki tożsamości. Kolekcje muzyczne są powiązane z osobistymi znaczeniami i narracjami życiowymi, a doświadczenia muzyczne wiążą się z określonym czasem i miejscem, a przez to często łączą się ze wspomnieniami z przeszłości. Obfitość i dostępność muzyki w Internecie sprawia, że istotne jest zbadanie, czy i jak zmienia się osobiste znaczenie muzyki oraz jak nowe sposoby dostępu i słuchania muzyki naprawiają osobiste kolekcje muzyczne z przeszłości. Na przykład, chociaż użytkownicy streamingu nie kupują i nie są właścicielami muzyki, sortują ją i selekcjonują, zapisując utwory i albumy w bibliotekach lub tworząc listy odtwarzania w oparciu o nastroje, gatunki lub sytuacje. Słuchanie muzyki wiąże się również z kontekstami społecznymi. Widzowie muzyczni łączą się z innymi poprzez muzykę, której słuchają. Smak kulturowy to sposób identyfikowania się z innymi i budowania relacji międzyludzkich. Wyraźnie społeczne znaczenie muzyki jako środka łączenia się z rówieśnikami jest również widoczne w tym, jak przyjaciele i rówieśnicy zawsze byli wpływowymi źródłami odkrywania muzyki; we współdoświadczaniu muzyki w sytuacjach społecznych; a dokładniej w przedcyfrowej praktyce przygotowywania i udostępniania miksów. Możliwości dzielenia się muzyką (w postaci plików muzycznych lub linków do polecanej muzyki lub list odtwarzania) przez Internet są zatem zgodne z ustalonymi praktykami społecznymi, ale jednocześnie stanowią wyzwanie dla warunków doświadczania muzyki jako społeczności. Biorąc pod uwagę osobiste znaczenie muzyki, dzielenie się muzyką można rozpatrywać z perspektywy autoprezentacji. Off-line użytkownicy selektywnie wdrażają smak w różnych interakcjach i kontekstach. W konsekwencji konsumenci muzyki kontrolują równowagę między muzyką jako osobistą i społeczną. Udostępnianie muzyki online odbywa się w sieciach charakteryzujących się heterogenicznymi więziami społecznymi, które obejmują zarówno bliskich przyjaciół lub silne więzi, jak i kontakty peryferyjne lub słabe więzi. W badaniach nad samooceną i mediami społecznościowymi pojęcie załamania kontekstu jest używane do wyjaśnienia, w jaki sposób różne konteksty społeczne załamują się w mediach społecznościowych i jak takie połączenie kontekstów komplikuje samowykonanie. Podobnie badania udostępniania muzyki online wskazują, w jaki sposób użytkownicy negocjują i decydują o tym, jak udostępniane są ich kolekcje muzyczne, w zależności od tego, jak bardzo są pewni, że udostępniana przez nich muzyka jest zgodna z pożądanymi występami własnymi i jak odpowiednia jest udostępniana muzyka dla ich połączonych, heterogenicznych sieci . W konsekwencji praktyki dzielenia się słuchaczy muzyki różnią się w zależności od ich pewności siebie i/lub postrzeganych kompetencji muzycznych. Słuchacze muzyki, którzy dzielą się swoją muzyką, stają się źródłem eksploracji i odkrywania muzyki dla swoich rówieśników. Biorąc pod uwagę obfitość wyboru muzyki online, ci dzielący się rówieśnicy otrzymują status kuratorów muzycznych i zasobów wartościowych podczas odkrywania muzyki.
Nowe modele biznesowe i wyzwania
Internetowe usługi dystrybucji muzyki zrewolucjonizowały sposób funkcjonowania przemysłu muzycznego. Modele biznesowe odnoszą się do strategicznych wyborów propozycji wartości branży (co jest oferowane klientom), docelowych segmentów rynku, struktury łańcucha wartości oraz mechanizmu pozyskiwania wartości (przychodów). Wyzwania dla zasiedziałych w branży muzycznej dotyczą tego, w jaki sposób firmy spoza branży muzycznej wprowadziły technologie, które zasadniczo zmieniają propozycje wartości, a co za tym idzie także łańcuch wartości i mechanizmy przychodów. Przemysł muzyczny zareagował na wzrost nielegalnego przesyłania i pobierania muzyki cyfrowej, ścigając nielegalne usługi peer-to-peer i osoby, które nielegalnie udostępniały pliki, ale nie podjęto żadnych rzeczywistych wysiłków w celu opracowania legalnych alternatyw dla zakupu muzyki cyfrowej. Legalne usługi muzyczne, takie jak iTunes firmy Apple, oraz usługi przesyłania strumieniowego, takie jak Spotify, wymagały współpracy i zawierania umów z wytwórniami płytowymi w procesie opracowywania i uruchamiania ich usług, jednak symptomatyczne jest to, że istniejące modele biznesowe przemysłu muzycznego zostały zakwestionowane i zakłócone przez aktorów z branży technologicznej. O wpływie legalnych usług online na zakup muzyki w postaci plików cyfrowych, a następnie usług strumieniowego przesyłania muzyki, świadczy gwałtowny spadek liczby tradycyjnych sklepów z płytami oraz sprzedaży offline i online fizycznych płyt CD. Przejście od fizycznych płyt CD do muzyki w postaci plików cyfrowych oraz usług transmisji strumieniowej opartych na abonamencie i reklamach nastąpiło w stosunkowo krótkim czasie. Chociaż przychody z legalnych serwisów muzycznych online rosną na całym świecie, nadal istnieją wyzwania, zwłaszcza w odniesieniu do usług strumieniowego dostępu opartych na dostępie. Logika biznesowa i struktura przychodów serwisów streamingowych odbiegają od dotychczasowych modeli opartych na zakupie fizycznych albumów i muzyki w postaci plików cyfrowych. Zamiast stałej opłaty licencyjnej za sprzedane albumy i utwory, usługi przesyłania strumieniowego obliczają płatności dla wytwórni (i pośrednio artystów) w oparciu o system proporcjonalny. Ta logika biznesowa oznacza, że nie ma bezpośredniego związku między strumieniem muzyki poszczególnych użytkowników a przychodami generowanymi przez artystów. Zamiast tego artyści otrzymują wynagrodzenie (pośrednio za pośrednictwem swoich wytwórni) jako procent całkowitych miesięcznych przychodów z usługi treamingu (z opłat abonamentowych) zgodnie z ich udziałem w całkowitej liczbie strumieni. Nie jest jasne, w jaki sposób przychody z usług strumieniowego przesyłania muzyki mogą być dystrybuowane w uczciwy i przejrzysty sposób w złożonych sieciach wartości obejmujących konsumentów, dostawców usług strumieniowego przesyłania muzyki, wytwórnie płytowe, kompozytorów i muzyków.
Internet, muzycy i publiczność
Internet, a zwłaszcza media społecznościowe, mają również konsekwencje dla relacji między muzykami a fanami. Marketing i relacje z odbiorcami nabrały dodatkowego wymiaru. Oczekuje się, że muzycy będą korzystać z Internetu, aby być stale dostępni oraz budować i utrzymywać relacje z publicznością. Bycie w mediach społecznościowych staje się częścią opisu pracy muzyków. Nancy Baym nazywa tę "pracę relacyjną", określając, w jaki sposób muzycy są obecnie zaangażowani w ciągłą interakcję i zaangażowanie z publicznością oraz jak te wysiłki na rzecz nawiązania kontaktu z publicznością rzadko są bezpośrednio wynagradzane, ale są inwestycją w trwałą karierę. Rozwój ten wiąże się ze zmianami w branży muzycznej i modelami przychodów, w których muzyka jest coraz częściej dostępna za darmo lub po niskiej cenie.
Witryna społecznościowa Myspace, pierwotnie stylizowana na MySpace, została założona w 2003 roku przez grupę z eUniverse w Kalifornii, zmotywowaną przez serwis społecznościowy Friendster. Pierwotny pomysł zapewnienia łatwej komunikacji na zasadzie więzi przyjaźni, często odziedziczonych po ugruntowanych społecznościach off-line, zyskał światową popularność, przyciągając głównie młodych użytkowników. W okresie do 2008 r. Myspace rozwinęło się w jedną z wiodących internetowych sieci społecznościowych (OSN). Obejmuje profile użytkowników jako węzły oraz "przyjazne" linki jako skierowane krawędzie, wzdłuż których odbywa się wymiana wiadomości. Umożliwiając włączanie kontrolowanych przez użytkownika zdjęć, linków, muzyki i filmów, Myspace wywarł szczególny wpływ na popkulturę i gry online. Biorąc pod uwagę dużą widoczność większości profili i przekazywanych treści, dane o wiadomościach wymienianych za pośrednictwem Myspace w latach 2003-2008 zawierają cenne zasoby, które pozwalają na różnorodne badania ludzkich zachowań w Internecie. Od 2008 roku witryna była wielokrotnie przebudowywana, aby uwzględnić poglądy zmieniających się właścicieli, sprostać rosnącej konkurencji oraz rozwiązać problemy związane z ochroną danych i prywatnością, bezpieczeństwem, standardami sieciowymi i dostępnością. Zmiany te systematycznie zmieniały rolę Myspace i powodowały spadek jego pozycji wśród rosnącej liczby sieci społecznościowych. Niemniej jednak od 2015 r. Witryna nadal odwiedzała około 50 milionów odwiedzających miesięcznie. Ten wpis definiuje różne miary ilościowego określania ewoluującej struktury sieci, którą można wykryć na podstawie danych empirycznych dotyczących komunikacji Myspace. Omówiono w nim rozpowszechnianie wiadomości, znaczenie treści wiadomości oraz rolę wysoce aktywnych osób. Wskazuje również na pewne nowe zjawiska, które mogą pojawić się w ramach tej praktyki komunikacji online.
Pochodzenie i miary sieci społecznościowych
Dane rejestrujące interakcje międzyludzkie online stanowią odciski palców zachowań społecznych, które można poddać analizie w różnych dyscyplinach. Zazwyczaj dane te charakteryzują się dużą rozdzielczością czasową, tożsamością aktorów oraz treścią wymienianych artefaktów (wiadomości, pytania, odpowiedzi, wpisy, komentarze). Chociaż główny cel i zasady komunikacji różnią się w różnych sieciach OSN, kanałach czatu, grach wieloosobowych i innych witrynach internetowych, zgromadzone dane wykazują znaczne podobieństwo. Chociaż ich dokładna charakterystyka zależy od miejsca, systematycznie obserwuje się następujące ogólne aspekty: uniwersalne wzorce działalności człowieka; wykorzystanie treści (emocjonalnych, poznawczych) zawartych w wymienianych artefaktach; oraz pojawienie się sieci społecznościowych poprzez wielokrotnie uruchamiane połączenia komunikacyjne. Analiza danych empirycznych ujawnia, że ustalenia te odnoszą się do OSN Myspace, pomimo jego pierwotnych korzeni w społecznościach off-line. W wielu OSN-ach, w tym Myspace, poza deklarowanymi łączami umożliwiającymi wymianę wiadomości, struktura sieci ewoluuje w czasie zarówno poprzez nawiązywanie nowych połączeń, jak i, co ważniejsze, poprzez zmianę wykorzystania istniejących łączy. W ten sposób powstała struktura relacji po kilku wymianach wiadomości w Internecie, czaty, powiedzmy trwałe linki, które są wielokrotnie używane przez dłuższy czas, przypominają stabilną strukturę społeczną. Z drugiej strony, spośród istniejących więzi przyjaźni, tylko część jest wykorzystywana dość często, podczas gdy inne połączenia pozostają nieużywane przez znaczny okres. Dlatego, chociaż oryginalna sieć Myspace została zbudowana na wspólnych zasadach społecznościowych, jej forma jest podobna do innych internetowych struktur społecznościowych powstających wyłącznie poprzez interakcje, takich jak czaty online i gry wieloosobowe. Ilościowa analiza struktury powstających grafów społecznych potwierdza to podobieństwo. W szczególności strukturę Myspace opartą na dialogach można określić ilościowo za pomocą kilku parametrów sieci, zdefiniowanych matematycznie w ramach teorii grafów i algebraicznej topologii grafów. Następujące parametry charakteryzują bezpośrednie sąsiedztwo węzła (użytkownika). Stopnie wejścia i wyjścia węzła reprezentują odpowiednią liczbę połączeń, przez które wiadomości zostały odebrane i wysłane przez użytkownika w rozważanej głębokości czasu. Uśrednienie dla wszystkich użytkowników skutkuje dwoma szerokimi rozkładami, które są opisane przez różne funkcje matematyczne. Wskazują na rozszerzony zakres heterogeniczności użytkownika i niewzajemną rolę użytkowników w procesie komunikacji. Mieszanie dyssortacyjne mierzy zazwyczaj małą średnią łączność użytkowników, z którymi łączy się użytkownik w dużym stopniu. Ta funkcja wydaje się być sprzeczna z wzorcami mieszania w standardowych sieciach społecznościowych, które zazwyczaj faworyzują połączenia z podobnymi przyjaciółmi lub mieszanie selektywne. Hipoteza słabego powiązania przewiduje, że połączona para użytkowników dzieli to samo sąsiedztwo w stopniu, który koreluje w określony sposób z siłą i topologicznym znaczeniem ich powiązania. Natychmiastowe testy ujawniają jednak podobieństwo do oryginalnej sieci zbudowanej za pośrednictwem gry online (gdzie gracze wybierają przyjaciół i wrogów podczas gry i dostosować komunikację z nimi). Społeczności są identyfikowane jako gęsto połączone moduły zawierające dużą grupę użytkowników; pojawiają się głównie wokół jednego lub kilku wpływowych użytkowników i wykazują szeroki zakres rozmiarów, które są matematycznie opisane przez uniwersalne prawo. Hierarchicznie powiązane topologie poza pierwszym sąsiedztwem węzła można scharakteryzować poprzez pojawienie się trójkątów i klik wyższego rzędu, których agregaty są matematycznie zdefiniowane jako uproszczone kompleksy. Chociaż kwantyfikatory mogą zmieniać się w czasie, cechy te są solidnie widoczne w strukturze sieci na różnych głębokościach czasowych, będąc bezpośrednią konsekwencją podstawowej dynamiki społecznej i profili aktywności użytkowników. Rysunek 1 przedstawia typowy szczegół struktury linków widocznej w wiadomościach Myspace. Węzły reprezentują użytkowników, a krawędzie wskazują, że nastąpiła wymiana wiadomości na głębokości czasowej 2 miesięcy. Węzły są identyfikowane za pomocą liczby, która pokazuje kolejność pojawiania się w rozpatrywanych danych. Losowy ciąg zastępuje prawdziwą tożsamość każdego użytkownika podczas zbierania danych.
Propagacja wiadomości. Mechanizmy i znaczenie treści
Szczegółowa analiza znacznika czasu wymiany wiadomości między użytkownikami Myspace sugeruje wysoce nieliniowy proces stochastyczny z cechami samoorganizacji. Cechy te przejawiają się w okazjonalnych wybuchach aktywności, skutkujących dużą liczbą wiadomości i spójnym w czasie dostosowaniem działań obejmujących wielu użytkowników. Zasilany zewnętrznymi wejściami i pojawieniem się nowych użytkowników, ten stochastyczny proces ma silny trend odzwierciedlający cykle dobowe codziennej aktywności człowieka. Wykazuje również szeroki rozkład czasów interaktywności, kolejny schemat ludzkiej dynamiki, który jest systematycznie obserwowany w danych online. W porównaniu z dynamiką blogów, czatów internetowych czy Twittera interaktywność użytkowników Myspace jest przeciętnie dużo większa. Powolnie zanikająca funkcja rozkładu czasów interaktywności implikuje duże opóźnienie między dwiema kolejnymi czynnościami dla znacznej części użytkowników. Innymi słowy, dynamika społecznościowa w Myspace jest znacznie wolniejsza niż w witrynach zajmujących się głównie treścią informacyjną, takich jak witryny z pytaniami i odpowiedziami, tematycznie dostosowane czaty online lub blogi z sekcjami komentarzy naładowanymi emocjami. Emocjonalna treść wiadomości wymienianych w Myspace odgrywa znaczącą rolę. Analiza tekstu tych komunikatów ujawnia obecność różnych emocji, sklasyfikowanych zgodnie z modelem cyrkulacyjnym Russella, który rozróżnia emocje jako rozmieszczone w dwuwymiarowej przestrzeni kołowej ze względu na poziom pobudzenia (od wysokiego do niskiego) i wartościowość (od przyjemności do niezadowolenia). ). W szczególności przeważają emocje pozytywne, w psychologii uznawane za zachwycone, rozbawione, wyczekujące, zainteresowane, namiętne i entuzjastyczne, w obszarze "działania" modelu z daszkami wydają się być w większości, po których następują "spokojne" emocje pozytywne, takie jak jako pod wrażeniem, pewny siebie, pełen nadziei i pełen miłości. Nieproporcjonalnie mała część wiadomości zawiera emocje negatywne, takie jak frustracja, podejrzliwość, nieufność i niecierpliwość w obszarze "niepokój" oraz emocje niskoenergetyczne, takie jak rozczarowanie, wstyd, niezadowolenie i zmartwienie. Treść emocjonalna odgrywa szczególną rolę we wzorcach propagacji. Wpływa nie tylko na stan emocjonalny odbiorcy, ale także na jego natychmiastowe zachowanie. Podczas gdy wiadomości zawierające pozytywne emocje są przekazywane znajomym o podobnym statusie (na podstawie liczby połączeń na wykresie), wiadomości o negatywnych emocjach są najczęściej przekazywane sąsiadowi, którego łączność jest znacznie słabsza. Wzorzec propagacji wiadomości jest szczególnie dobrze zwizualizowany za pomocą drzewa maksymalnego przepływu, drzewiastej reprezentacji sieci, w której każdy węzeł utrzymuje tylko najbardziej istotne połączenie, aby dołączyć do drzewa. W danych z wiadomości z Myspace drzewo maksymalnego przepływu obejmujące warstwę sieciową przenoszącą głównie negatywne emocje znacznie różni się od drzewa, w którym w tym samym okresie przepływają głównie pozytywne emocje. Ten dowód, oparty na dostępności danych online i modelowaniu kierowanym przez agentów, ujawnia kolejną szczególną cechę ludzkich zachowań online.
Rola nadpobudliwości. Jednostki i ich kapitał społeczny
Bazując na danych z wiadomości Myspace, heterogeniczność użytkowników jest duża pod względem liczby działań. Niewielki ułamek użytkowników ma liczbę wiadomości znacznie przekraczającą średni poziom aktywności w danych. Tych nadaktywnych użytkowników można zidentyfikować na wykresie społecznościowym jako węzły centralne na rysunku 1 z dużą liczbą połączeń używanych w danej głębokości czasu. (Analiza nie obejmuje profilu znanego jako "Tom", który pierwotnie odnosił się do Toma Andersona, współzałożyciela Myspace, który jest automatycznie przypisywany jako pierwszy znajomy nowych użytkowników). Ich rola w rozpowszechnianiu wiadomości jest krytyczna. Dane pokazują, że w przeciwieństwie do większości użytkowników, ich wzorce aktywności składają się z krótkiego czasu interakcji i skomplikowanego schematu połączeń, w tym użytkowników z obu warstw. Hierarchiczne sekwencjonowanie wykresu społecznościowego Myspace ujawnia dwa typy tych centrów. konkretnie, "informatorzy" pojawiają się jako centra gwiezdnych struktur, w których sąsiednie węzły nie mają ze sobą bezpośrednich połączeń. Z drugiej strony "pośrednicy" to węzły łączące dużą liczbę mniejszych struktur, takich jak trójkąty i czworościany, z większą zwartą strukturą. W obu przypadkach węzły te posiadają znaczny pośrednik w kapitale społecznym i mają tendencję do jego zwiększania czasu.
Otwarte pytania do dalszych badań
Praktyka korzystania z sieci społecznościowych Myspace potencjalnie prowadzi do nowych zjawisk, którym można zaradzić, analizując dane z dialogów online. Niektóre konkretne przykłady są następujące:
Kompaktowanie sieci: stale rosnące wzajemne powiązania użytkowników prowadzą do jeszcze krótszych ścieżek na wykresie społecznościowym, co może jeszcze bardziej ułatwić procesy rozprzestrzeniania się; pokrewnym problemem może być pojawienie się "nie do zniesienia" struktury hierarchicznej w zwartej topologii. Obecność robotów (botów) i ich rola w tej społeczności internetowej: Biorąc pod uwagę doświadczenia z niektórymi konkretnymi witrynami internetowymi, na których boty służą do określonego zadania, oraz ograniczone eksperymentalne i teoretyczne badania botów "emocjonalnych", ich zdolności do wpływania na zachowanie użytkowników i zaskakująca jest ich akceptacja przez użytkowników.
Inny wymiar "przyjaźni": poza wspomnianą wcześniej zmienioną topologią internetowego grafu społecznościowego w porównaniu z konwencjonalnymi strukturami, pewne psychologiczne aspekty komunikacji w Myspace (i podobnych sieciach społecznościowych) można poznać z treści wiadomości. W związku z tym wiadomości kierowane w sposób ciągły na profil zmarłego użytkownika mogą ujawnić nieznane jeszcze aspekty zachowań społecznych człowieka.
Zwiększony eskapizm: biorąc pod uwagę dominację pozytywnych przekazów emocjonalnych, Myspace był używany jako obszar rozrywki z dala od rutyny prawdziwego życia.
Molestowanie seksualne w różnych środowiskach interpersonalnych, takich jak miejsce pracy, związki intymne czy placówki oświatowe, jest uznawane za ważny problem społeczny ze względu na dużą powszechność i niekorzystne skutki w krótkim i długim okresie. W ostatnich latach technologie informacyjno-komunikacyjne (ICT) są coraz częściej wykorzystywane w molestowaniu seksualnym. Molestowanie seksualne w Internecie lub molestowanie seksualne online odnosi się do wszelkiego rodzaju nacisków za pośrednictwem ICT, takich jak telefony komórkowe, w celu uzyskania niechcianej współpracy lub kontaktu seksualnego, takiego jak udostępnianie informacji seksualnych, wysyłanie obrazów o treści seksualnej lub robienie coś wbrew woli ofiary. Molestowanie seksualne może również obejmować upokorzenia, niechciane komentarze o charakterze seksualnym lub zwracanie uwagi w Internecie. Badanie zjawisk, takich jak przymus seksualny w Internecie, uwodzenie dzieci w Internecie, cybernękanie i cybernękanie, które mogą mieć również charakter seksualny, wykazało, że molestowanie seksualne i wykorzystywania w Internecie nie należą do rzadkości. W przeciwieństwie do agresji off-line, brak ograniczeń czasowych i geograficznych, anonimowość postrzegana przez Internet, pośredni charakter agresji online oraz większe prawdopodobieństwo łatwego nawiązania kontaktu za pośrednictwem Internetu z nieznanymi osobami to cechy, które mogą ułatwić molestowanie. Ten wpis bada rodzaje molestowania seksualnego w Internecie i ich rozpowszechnienie. W tym wpisie omówiono dalej znane czynniki ryzyka i strategie zapobiegania.
Rodzaje molestowania seksualnego w Internecie
Istnieją trzy główne kategorie molestowania seksualnego: (1) molestowanie ze względu na płeć, (2) niechciana uwaga seksualna oraz (3) przymus seksualny. Molestowanie ze względu na płeć obejmuje szereg seksistowskich zachowań wobec osoby tej samej lub przeciwnej płci, związanych z płcią ofiary, które mają na celu wywołanie u ofiary negatywnych emocji i reakcji. Seksistowskie zachowania werbalne, w tym niechciane żarty, uwagi lub pytania o charakterze seksualnym, to jeden z najczęstszych przypadków molestowania ze względu na płeć. Molestowanie ze względu na płeć może mieć miejsce nie tylko na forach i czatach, ale także w sieciach społecznościowych (np. Twitter, Facebook). Niepożądana uwaga seksualna odnosi się do niepożądanych zachowań, które wyrażają seksualne intencje lub pragnienia skierowane do innej osoby. Ten rodzaj molestowania seksualnego wymaga bezpośredniej interakcji werbalnej między sprawcą a ofiarą; może być skierowany zarówno do kobiet, jak i do mężczyzn i może występować między osobami przeciwnej lub tej samej płci. Niechciana uwaga seksualna może obejmować niepożądane pytania dotyczące czynności seksualnych, narządów płciowych, lub preferencje seksualne. Przymus seksualny odnosi się do stosowania psychicznego lub fizycznego nacisku na osobę w celu nawiązania współpracy seksualnej. Ważne jest, aby odróżnić psychologiczny (lub werbalny) przymus seksualny, który obejmuje zachowania niefizyczne (np. naleganie lub grożenie zainicjowaniem kontaktu seksualnego wbrew woli ofiary), od seksu wymuszonego fizycznie. Psychologiczny i słowny przymus seksualny to najczęstsze wzorce w środowiskach internetowych. Psychologiczny przymus seksualny może również przybrać formę przekupstwa lub oszustwa w celu uzyskania treści seksualnych lub wyników seksualnych (np. obrazy o charakterze seksualnym lub aktywność za pośrednictwem kamer internetowych). Pokrewnym konstruktem jest cyberstalking, który może mieć charakter seksualny. Cyberstalking odnosi się do wykorzystywania technologii informacyjno-komunikacyjnych w celu spowodowania emocjonalnego cierpienia lub wyrządzenia krzywdy innej osobie. Zachowania związane z cyberstalkingiem obejmują grożenie, monitorowanie ofiary, kradzież tożsamości, nagabywanie seksualne lub zbieranie danych osobowych ofiary w celu nękania lub zawstydzenia ofiary. Cyberstalking może obejmować dystrybucję lub rozpowszechnianie przez sprawcę obrazów lub informacji seksualnych związanych z ofiarą wbrew jej woli. Molestowanie seksualne w Internecie może dotyczyć również nieletnich. Nagabywanie seksualne nieletnich definiuje się jako prośby online ze strony osoby dorosłej o zaangażowanie się w rozmowy lub czynności seksualne lub podanie osobistych informacji seksualnych. Nagabywanie seksualne nieletnich w Internecie może przejść od próśb seksualnych do jawnych interakcji (np. Seks przez kamerę internetową) do spotkań offline (np. Spotkania osobiste w celu nawiązania kontaktu seksualnego), podczas których osoba dorosła wykorzystuje nieletniego. Zarówno nagabywanie seksualne, jak i interakcje mogą być częścią procesu uwodzenia online. Uwodzenie dzieci online to proces, w ramach którego osoba dorosła, za pośrednictwem technologii informacyjno-komunikacyjnych, uzyskuje dostęp do dziecka i zaufanie do niego w celu utrzymania pewnego rodzaju interakcji seksualnych z nieletnim w trybie online, offline lub w obu przypadkach. Uwodzenie dzieci w Internecie jest formą molestowania seksualnego i wykorzystywania nieletnich. Uwodzenie może trwać od minut do miesięcy, w zależności od dynamicznego związku między celami sprawcy a reakcjami nieletniego. Może obejmować subtelne strategie perswazji, oszustwo (dotyczące wieku lub wyglądu), łapówki (np. pieniądze, prezenty) lub groźby.
Pomiar i rozpowszechnienie molestowania seksualnego w Internecie
Pomimo wagi tego problemu, nie ma zwalidowanego kwestionariusza o odpowiednich właściwościach psychometrycznych do oceny molestowania seksualnego w Internecie, co znacznie ogranicza badanie i zrozumienie tego zjawiska. Do tej pory badania obejmowały tylko kilka pytań w bardziej ogólnych ankietach dotyczących wiktymizacji, a właściwości psychometryczne nie zostały zgłoszone. Chociaż badania empiryczne dostarczyły cennych informacji na temat rozpowszechnienia molestowania seksualnego w internecie, bardziej wszechstronna analiza i pomiar molestowania seksualnego w internecie są niezbędne do pogłębiania wiedzy w tej dziedzinie. Potrzebne są zatwierdzone instrumenty do analizy związku z powiązanymi zmiennymi, takimi jak czynniki ryzyka i czynniki ochrony, negatywne konsekwencje wiktymizacji seksualnej w Internecie oraz skutki programów profilaktycznych. Jeśli chodzi o problemy z pomiarami, niewiele wiadomo na temat rozpowszechnienia molestowania seksualnego w Internecie. W badaniu z 2001 roku Patricia Goodson, Deborah McCormick i Alexandra Evans podały, że 15,8% studentów (24,4% kobiet i 8% mężczyzn) w ich próbie czuło się molestowanych seksualnie podczas rozmowy online. Niedawno Suzanne Baumgartner, Patti M. Valkenburg i Jochen Peter (2010) podali, że 4,6% mężczyzn i 6,7% kobiet w ich próbie było namawianych seksualnie online w ciągu ostatnich 6 miesięcy. Manuel Gámez-Guadix, Carmen Almendros, Erika Borrajo i Esther Calvete (2015) stwierdzili, że mniej więcej jedna trzecia osób w wieku od 18 do 60 lat doświadczyła molestowania seksualnego w Internecie. Wydaje się, że molestowanie seksualne w Internecie jest również bardziej powszechne wśród młodych dorosłych; zmniejszał się stopniowo z 43% u dorosłych w wieku od 25 do 34 lat do 37% i 21% odpowiednio u dorosłych w wieku od 35 do 44 lat i powyżej 45 lat. Jeśli chodzi o molestowanie seksualne i nagabywanie nieletnich, szacuje się częstość występowania w ciągu ostatnich 12 miesięcy wynosić od 5% do 9%.
Czynniki ryzyka molestowania seksualnego w Internecie
Jak zauważono, nękanie w internecie jest nowym problemem o wielkim znaczeniu ze względu na jego powszechne występowanie i możliwe szkodliwe konsekwencje dla jego ofiar. Z tego powodu badanie czynników ryzyka molestowania seksualnego i wiktymizacji w Internecie może mieć wielką wartość przy opracowywaniu strategii zapobiegania i leczenia. Bycie kobietą jest czynnikiem ryzyka stania się ofiarą molestowania seksualnego w Internecie. Kobiety wydają się być ofiarami częściej niż mężczyźni. Ten wzorzec jest zgodny z danymi z wielu badań, z których wynika, że kobiety częściej niż mężczyźni doświadczają wiktymizacji seksualnej offline. Również osoby o orientacji nieheteroseksualnej (homoseksualiści i biseksualiści) są bardziej narażone na doświadczenie molestowania seksualnego. Internet to miejsce, w którym homoseksualiści i biseksualiści częściej niż heteroseksualni szukają partnerów seksualnych; w rezultacie te mniejszości seksualne mogą zwiększyć swoją ekspozycję na zagrożenia związane z Internetem, w tym molestowanie seksualne. Seksting został również uznany za czynnik ryzyka wiktymizacji molestowania seksualnego w Internecie. Seksting obejmuje tworzenie i dostarczanie treści seksualnych (tj. informacji lub obrazów o charakterze seksualnym), które mogą zostać wykorzystane do szantażu lub wyrządzenia krzywdy ofierze (np. poprzez rozpowszechnianie treści). Seksting może zwiększać narażenie uczestników na nękanie ze strony potencjalnych sprawców. Po wysłaniu treści seksualnych kontakt między nadawcą a odbiorcą może przerodzić się w inne problematyczne kontakty między nimi, takie jak żądania otrzymania dodatkowych treści seksualnych lub prośby o spotkanie offline. Ponadto te same cechy technologiczne, które umożliwiły wysłanie treści seksualnych do ofiary, umożliwiają również przekazanie ich innym osobom bez zgody ofiary. W związku z tym molestowania może dopuścić się nie tylko osoba, która pierwotnie otrzymywała treści seksualne, ale także inne osoby, które później uzyskują dostęp do treści. Amalgamat czynników może przyczynić się do popełnienia molestowania seksualnego w Internecie. Czynniki obejmują zarówno zmienne kontekstowe, jak i osobiste. Czynniki kontekstowe obejmują między innymi postrzeganą anonimowość, postrzeganą bezkarność w Internecie, przystępność cenową i brak bezpośrednich barier społecznych, które w przeciwnym razie mogłyby zapewnić jednostce ochronę. Pewne cechy osobowości, takie jak tendencje psychopatyczne (np. brak empatii, bezduszność emocjonalna i impulsywność), zostały powiązane z agresywnym zachowaniem w Internecie. Ponadto mechanizmy moralnego wycofania się i postawy, które usprawiedliwiają przemoc, mogą zwiększać prawdopodobieństwo, że sprawca będzie agresywny w Internecie wobec innych, w tym molestowania seksualnego. Badanie przeprowadzone w 1996 roku przez Alberta Bandurę, Claudio Barbaranellego, Giana V.Caprarę i Conchettę Pastorelli zasugerowało kilka mechanizmów moralnego wycofania się, które były konsekwentnie powiązane ze zwiększonym agresywnym zachowaniem w Internecie; mechanizmy te obejmują moralne uzasadnienie, eufemistyczne etykietowanie, korzystne porównanie, przemieszczenie i rozproszenie odpowiedzialności, lekceważenie szkodliwych konsekwencji i odczłowieczenie ofiary. Ponadto doświadczenia krzywdzenia dzieci mogą predysponować maltretowane dziecko do popełniania agresji seksualnej lub molestowania seksualnego w Internecie jako nastolatek lub osoba dorosła. Historia zaniedbań może przyczynić się do mniejszej internalizacji moralnej i mniejszej samokontroli, w tym kontroli agresji. Fizyczne i psychiczne znęcanie się w dzieciństwie może przyczynić się do późniejszego stosowania przez maltretowane dziecko agresji i znęcania się w celu kontrolowania zachowania innej osoby. Ponadto historia wykorzystywania seksualnego dzieci może stanowić przykład przymusu w celu uzyskania seksu.
Zapobieganie i interwencja w przypadku molestowania seksualnego w Internecie
Aby walczyć z molestowaniem seksualnym w Internecie, edukacja na temat korzystania z Internetu i potencjalnej wiktymizacji jest pierwszym krokiem w kierunku samoobrony. Profilaktyka oparta na edukacji może kształtować właściwe postawy wobec agresji i szacunku dla innych w środowisku internetowym, rozwijać umiejętności radzenia sobie ze stresem oraz dostarczać wiedzy na temat technologii informacyjno-komunikacyjnych w celu eliminacji czynników ryzyka. Ponieważ molestowanie seksualne zdarza się przez całe życie, nieletnich i dorosłych w każdym wieku należy informować o możliwych zagrożeniach i edukować w zakresie odpowiedzialnego i ostrożnego korzystania z technologii informacyjno-komunikacyjnych. Szczególną uwagę należy zwrócić na populacje o zwiększonym ryzyku wiktymizacji, takie jak kobiety i osoby nieheteroseksualne. Aby pomóc ofiarom molestowania seksualnego, rodzice, pedagodzy i specjaliści ds. zdrowia psychicznego powinni skupić się na dwóch głównych aspektach. Pierwszą strategią jest pomoc ofierze w zakończeniu sytuacji nękania w Internecie. W tym celu można podjąć różne kroki w zależności od stopnia nękania. W niektórych przypadkach konieczne jest poinstruowanie ofiary, aby poinformowała sprawcę, że zachowanie nękające jest sprawą poważną i może stanowić przestępstwo. Ponadto wskazane może być zerwanie kontaktu ze sprawcą i rezygnacja z bardziej agresywnych zachowań w stosunku do sprawcy, gdyż sytuacja może się pogorszyć. W innych przypadkach może okazać się konieczne zasugerowanie ofierze, że molestowanie należy zgłosić organom ścigania. Po drugie, ważne jest, aby leczyć objawy związane z wiktymizacją przez molestowanie seksualne w Internecie, w tym bezradność, izolację, niepokój, depresję, stres pourazowy oraz zmniejszone wyniki w nauce lub pracy. Dlatego specjalista ds. zdrowia psychicznego powinien być świadomy możliwej obecności tych objawów i poinformować ofiarę, że może być potrzebna pomoc psychologiczna.
Istniejące i przyszłe badania
Istnieje bardzo niewiele badań dotyczących rodzajów, korelatów i skutków molestowania seksualnego w Internecie. Wiele z istniejących badań koncentrowało się na cybernękaniu i cyberstalkingu, które mogą mieć komponenty seksualne, ale nie na konkretnych badaniach dotyczących molestowania seksualnego w Internecie. Kluczową potrzebą naukowców jest opracowanie instrumentów do pomiaru tego konstruktu w wielowymiarowy, kompleksowy sposób. Ponadto, ponieważ znaczna liczba zachowań związanych z molestowaniem seksualnym w Internecie polega na wywieraniu nacisku na utrzymywanie kontaktów poza siecią, ważne jest, aby przeanalizować, w jaki sposób molestowanie w Internecie jest czynnikiem ryzyka wiktymizacji seksualnej offline. Większość dotychczasowych badań ma charakter przekrojowy; należy przeprowadzić więcej badań podłużnych dotyczących czynników ryzyka i skutków molestowania seksualnego w Internecie, aby zbadać kolejność zmiennych w czasie. Wreszcie, potrzebne są dalsze badania w celu opracowania i zbadania skuteczności programów edukacyjnych i profilaktycznych.
Media społecznościowe to internetowe formy komunikacji, za pośrednictwem których użytkownicy mogą udostępniać treści w ramach sieci jednostek i grup. Platformy te umożliwiają wymianę pomysłów, osobistych wiadomości, zdjęć i filmów, otwierając użytkownikom możliwości tworzenia i rozpowszechniania treści oraz współpracy z innymi użytkownikami. Korporacje, organizacje i całe społeczeństwo są pod silnym wpływem platform mediów społecznościowych, takich jak Facebook, Foursquare, Instagram i Twitter. Ten wpis zawiera najpierw przegląd mediów społecznościowych i ich rozwoju. Następnie omówiono podstawowe pojęcia leżące u podstaw mediów społecznościowych i przedstawiono klasyfikację różnych typów aplikacji społecznościowych, ze szczególnym uwzględnieniem szczególnych cech interfejsów mobilnych. Facebook, założony w 2004 roku, łączy miesięcznie około 2 miliardów aktywnych użytkowników na całym świecie, czyli bazę użytkowników, która stanowi około jednej czwartej światowej populacji. Foursquare, mobilna aplikacja społecznościowa wrażliwa na lokalizację, uruchomiona w 2009 roku, ma w niektórych miejscach swoje oficjalne święta: duże miasta, takie jak Nowy Jork, Singapur i Toronto, ogłosiły 16 kwietnia Dniem Foursquare, ponieważ kwiecień jest czwartym miesiącem a liczba 16 jest równa czterem do kwadratu. Powstały w 2010 roku Instagram może poszczycić się pół biliona zdjęć, które do tej pory udostępniono jego użytkownikom; a na Twitterze, założonym w 2006 roku, codziennie publikowanych jest około 500 milionów tweetów. W ostatnich latach mobilne interfejsy technologii mediów społecznościowych stały się bardzo widoczne, tak że stanowią integralny aspekt każdej dyskusji na temat mediów społecznościowych. Ogromna atrakcyjność aplikacji społecznościowych dowodzi nie tylko, że są one istotne dla młodszych pokoleń, ale także, że wpływają na wszystkie warstwy społeczeństwa. Indywidualni użytkownicy, firmy, organizacje i rządy nieustannie pracują nad określeniem najlepszego sposobu zastosowania różnych technologii mediów społecznościowych. Wielu uznało je za niezbędne do autopromocji. W sektorze muzycznym gwiazdy takie jak Rihanna, Justin Bieber i Britney Spears zbudowały swoje strategie komunikacyjne i marketingowe całkowicie wokół mediów społecznościowych. Również rządy i jednostki administracji publicznej odkryły przydatność mediów społecznościowych. Do podmiotów tych należy Unia Europejska, która za pośrednictwem Twittera i innych kanałów stara się stworzyć poczucie tożsamości europejskiej wśród swoich pół miliarda obywateli.
Historia mediów społecznościowych
Pierwsze aplikacje społecznościowe, choć jeszcze się tak nie nazywały, zaczęły pojawiać się prawie cztery dekady temu. Kluczowym kanałem komunikacji w tym okresie była sieć o nazwie Usenet, która powstała już w 1980 roku. Usenet umożliwiał swoim użytkownikom publikowanie i czytanie wiadomości w stylu forum w różnych kategoriach, zwanych grupami dyskusyjnymi, które koncentrowały się na tematach takich jak nauka , fantastyka i fizyka. Podobnie jak dzisiejsze fora dyskusyjne, te grupy dyskusyjne szybko stały się wpływowymi środkami umożliwiającymi indywidualnym użytkownikom dzielenie się między sobą treściami tworzonymi przez użytkowników. Mniej więcej w tym samym okresie wynaleziono pierwszą internetową grę fabularną dla wielu graczy (MMORPG). Ta gra, zwana Multi-User Dungeon, obracała się wokół zdobywania punktów (np. poprzez zabijanie rzeczy), aż do osiągnięcia tak zwanej rangi Czarodzieja, która zapewniała postaci nieśmiertelność i specjalne moce. Multi-User Dungeon można postrzegać jako bezpośredniego
poprzednika wirtualnych światów gier, takich jak EverQuest czy World of Warcraft. Począwszy od połowy lat 90. firmy, które miały stać się internetowymi tytanami, takie jak Amazon i eBay, zaczęły odgrywać znaczącą rolę. W efekcie korporacyjne strony główne i obecność w sieci różnych przedsiębiorstw doprowadziły do marginalizacji internetowej aktywności społecznościowej indywidualnych użytkowników. Chociaż taka aktywność nadal istniała, stała się znacznie mniej widocznym aspektem przestrzeni internetowej. Jednak pod koniec lat 90. i na początku 2000. korporacyjny podbój cyberprzestrzeni został poważnie uderzony wraz z pęknięciem tzw. bańki internetowej. Na przykład akcje Amazona spadły do 7 USD ze szczytowej wartości 107 USD. Firma ostatecznie odzyskała siły i ostatecznie przekroczyła swój szczyt bańki internetowej. Obecnie akcje Amazona są wyceniane na ponad 700 USD za akcję. Mniej więcej w tym samym czasie, co upadek dot-comów, zaczęły pojawiać się kanały mediów społecznościowych, które są obecnie
postrzegane jako centralne dla Internetu. W 2001 roku Wikipedia rozpoczęła swoją działalność od tych prostych wiadomości: Witaj, świecie. Rozbaw mnie. Idź tam i dodaj mały artykuł. Zajmie to całe pięć lub dziesięć minut. Dziś Wikipedia jest ogromnym internetowym źródłem informacji, składającym się z ponad 40 milionów artykułów w ponad 290 różnych językach, generującym około 20 miliardów odsłon i 500 milionów unikalnych użytkowników każdego miesiąca. Jako taka, Wikipedia jest bez wątpienia kluczowym dostawcą informacji w Internecie. Wkrótce po Wikipedii pojawiły się dodatkowe serwisy społecznościowe, które również stały się gigantami: MySpace (obecnie stylizowany na Myspace) powstał w 2003 r., Facebook w 2004 r., YouTube w 2005 r. i Twitter w 2006 r. Wkrótce po tym rozpowszechnieniu się serwisów społecznościowych rozpoczęło się, firmy stojące za tymi witrynami zaczęły oferować wersje aplikacji na smartfony na swoich platformach. Ponadto w tym okresie powstały nowe platformy mediów społecznościowych, takie jak Foursquare, które zostały zaprojektowane specjalnie do użytku mobilnego. Foursquare włączył do swojej funkcjonalności wrażliwość na lokalizację i zwiększoną wrażliwość na czas, zapewniając korporacjom i organizacjom wiele nowych możliwości. Były prezydent Barack Obama był wczesnym zwolennikiem Foursquare; przyjął aplikację 8 sierpnia 2011 r. z zamiarem, aby pracownicy Białego Domu korzystali z usługi do publikowania wskazówek z miejsc, które odwiedził prezydent. Interfejsy mobilne szybko zmieniły aplikacje mediów społecznościowych, które wcześniej były oparte na komputerach PC, w klasyki, pomimo ich młodego wieku. Mobilne aplikacje społecznościowe mają potencjał oferowania użytkownikom dalekosiężnych możliwości; na przykład porównując zdjęcia wykonane przez użytkownika z obrazami dostępnymi w mediach społecznościowych oraz wykorzystując technologię rozpoznawania twarzy, aplikacja może być w stanie dostarczyć użytkownikom szczegółowe informacje (np. imię i nazwisko oraz adres e-mail) o nieznanych osobach, które napotkają w prawdziwy świat.
Charakterystyka mediów społecznościowych. Podstawowe pojęcia w mediach społecznościowych
Media społecznościowe mogą służyć jako zbiorcze określenie aplikacji mobilnych i internetowych, które ułatwiają tworzenie i wymianę treści generowanych przez użytkowników. Aplikacje te są czasami określane jako Web 2.0. W rzeczywistości w wielu przypadkach terminy "treść generowana przez użytkowników" i "Web 2.0" są używane jako synonimy mediów społecznościowych, ale są to odrębne pojęcia. Według Organizacji Współpracy Gospodarczej i Rozwoju treści generowane przez użytkowników muszą posiadać następujące trzy cechy: treść musi (1) być publicznie dostępna, (2) wykazywać pewien stopień kreatywności oraz (3) zostać stworzona poza praktyk zawodowych. Z kolei Web 2.0 odnosi się do zdolności do ciągłej modyfikacji treści internetowych w podejściu opartym na współpracy. Termin ten nie odzwierciedla faktycznego postępu technologicznego w World Wide Web przed rozwojem Web 2.0, kiedy składał się on z mniej lub bardziej statycznych stron internetowych tworzonych przez osoby prywatne i firmy, ale raczej reprezentuje nowy sposób korzystania z sieci. Innymi słowy, treści generowane przez użytkowników to dane wyjściowe generowane przez użytkowników podczas korzystania z mediów społecznościowych, a Web 2.0 opisuje platformy hostujące te treści. Koncepcja mediów społecznościowych jest ściśle powiązana z dwoma dodatkowymi koncepcjami: (1) świadomości otoczenia i (2) marketingu wirusowego. Świadomość otoczenia można określić jako "świadomość tworzoną poprzez regularny i stały odbiór i/lub wymianę fragmentów informacji za pośrednictwem mediów społecznościowych" (Kaplan, 2012, s. 132). Dzięki świadomości otoczenia dwie osoby, które regularnie śledzą swoje działania w mediach społecznościowych, mogą już być świadome swojego życia bez faktycznej fizycznej obecności podczas rozmowy. Marketing wirusowy definiuje się jako "elektroniczną pocztę pantoflową, w której jakaś forma przekazu marketingowego związanego z firmą, marką lub produktem jest przekazywana w sposób wykładniczo rosnący, często za pośrednictwem aplikacji społecznościowych" (Kaplan i Haenlein, 2011b). , s. 255). Aby odnieść sukces, inicjatywa marketingu wirusowego musi przekazywać właściwy komunikat za pośrednictwem właściwego komunikatora i we właściwym środowisku.
Klasyfikacja mediów społecznościowych
Stosując teorie i koncepcje z dziedziny nauk o mediach i komunikacji, w tym dotyczące ujawniania się, autoprezentacji, bogactwa mediów i obecności w mediach, media społecznościowe można podzielić na sześć następujących klas:
1. Wspólne projekty (np. Wikipedia)
2. Blogi i mikroblogi (np. Twitter)
3. Społeczności treści (np. YouTube)
4. Portale społecznościowe (np. Facebook)
5. Wirtualne światy gier (MMORPG, np. World of Warcraft)
6. Wirtualne światy społecznościowe (np. Second Life)
Różne kategorie aplikacji społecznościowych różnią się stopniem, w jakim wymagają ujawnienia się, czyli świadomego lub nieświadomego ujawnienia danych osobowych, które są zgodne z wizerunkiem, jaki dana osoba chciałaby o sobie pokazać. Różnią się także charakterem autoprezentacji użytkowników, czy też sposobem, w jaki użytkownicy mogą kontrolować wrażenia, jakie wywierają na nich inni ludzie. Ponadto różnią się one bogactwem medialnym, czyli ilością informacji, które pozwalają na przekazanie w określonym przedziale czasu, oraz intensywnością obecności społecznej, czy też ułatwianego przez nie kontaktu akustycznego, wizualnego i fizycznego. Tabela 1 zawiera szczegółową prezentację charakterystyki sześciu kategorii mediów społecznościowych. Blogi zawierają wpisy opatrzone datą w odwrotnej kolejności chronologicznej, podczas gdy mikroblogi, takie jak Twitter i Tumblr, umożliwiają użytkownikom dzielenie się krótkimi wiadomościami, pojedynczymi obrazami lub linkami do filmów. Elementy treści prezentowane na mikroblogach są zazwyczaj mniejsze niż te prezentowane na tradycyjnych blogach. Aplikacje projektowe do współpracy to platformy, które pozwalają wielu użytkownikom na jednoczesne tworzenie treści związanych z wiedzą; ta kategoria obejmuje aplikacje mediów społecznościowych, takie jak wiki, strony z zakładkami społecznościowymi, fora internetowe i witryny z recenzjami. W serwisach społecznościowych poszczególni użytkownicy zakładają swoje profile osobiste i łączą się z innymi użytkownikami, umożliwiając im przeglądanie i ewentualnie odpowiadanie na ich profile. Społeczności treści, takie jak YouTube i Flickr, umożliwiają udostępnianie zdjęć, filmów i innych form multimediów kilku osobom. Wirtualne światy gier i wirtualne światy społecznościowe to dwie podgrupy światów wirtualnych lub symulowanych środowisk internetowych, za pośrednictwem których użytkownicy mogą wchodzić w interakcje ze sobą w postaci awatarów. Podczas gdy wirtualne światy społecznościowe pozwalają swoim użytkownikom na swobodne działanie i zasadniczo prowadzenie wirtualnego życia jako przedłużenia ich prawdziwego życia, wirtualne światy gier zmuszają ich awatary do działania zgodnie z pewnymi zasadami w zakresie gry online. W porównaniu z głównie komputerowymi aplikacjami mediów społecznościowych, mobilne interfejsy mediów społecznościowych są ściślej powiązane z rzeczywistymi działaniami ich użytkowników. Na przykład, podczas gdy komputerowa wersja Facebooka zwykle dostarcza tylko informacji o "statusie" znajomych, aplikacja mobilna Facebooka może wyświetlać lokalizację znajomych w czasie rzeczywistym, co może umożliwić spotkanie z nimi w prawdziwym życiu, jeśli ktoś jest blisko przez. Mobilne aplikacje społecznościowe można podzielić na cztery odrębne grupy, biorąc pod uwagę wrażliwość na lokalizację (niezależnie od tego, czy aplikacja uwzględnia lokalizację użytkownika) oraz wrażliwość na czas (czy treść medialna jest pozyskiwana i przetwarzana natychmiastowo, czy z opóźnieniem):
1. Ani lokalizacja, ani czas nie są wrażliwe: Slow-timery; przeniesienie tradycyjnych aplikacji społecznościowych na urządzenia mobilne, np. czytanie wpisu w Wikipedii na telefonie komórkowym
2. Wrażliwe na lokalizację, ale nie na czas: lokalizatory kosmiczne; wymiana wiadomości związanych z jedną konkretną lokalizacją, które są przypisywane do określonego miejsca i czytane później przez innych, na przykład recenzje na Yelp
3. Wrażliwe na czas, ale nie na lokalizację: Quicktimery; przeniesienie tradycyjnych aplikacji społecznościowych na urządzenia mobilne w celu zwiększenia natychmiastowości poprzez, na przykład, publikowanie wiadomości na Twitterze
4. Zarówno lokalizacja, jak i czas są wrażliwe: czasomierze kosmiczne; wymiana wiadomości mających znaczenie dla jednej konkretnej lokalizacji w jednym określonym momencie, na przykład zameldowanie się w lokalizacji w Foursquare Swarm
Na najszerszym poziomie mapowanie internetowe odnosi się do przechwytywania, przechowywania, produkcji i reprezentacji danych przestrzennych przez Internet. Przestrzenny komponent takich danych wprowadza wyjątkowe przeszkody w standardowym zarządzaniu danymi i wizualizacji w porównaniu z technologiami internetowymi, a wraz ze wzrostem wszechobecności usług opartych na lokalizacji mapowanie internetowe staje się podstawowym sposobem oceny wzorców i obserwowania relacji między zbiorami danych . Tak szeroka definicja jest konieczna z jednej strony ze względu na zakres technologii dostarczania mapy online, az drugiej ze względu na zakres praktyk przestrzennych, jakie stosuje się przy tworzeniu mapy online. Inkluzywne zrozumienie mapowania Internetu łączy uwagę na jego technologie składowe z tymi względami społecznymi i praktycznymi. W tym wpisie dokonano syntezy tych rozważań, najpierw przedstawiając kontekst historyczny dla tworzenia map internetowych, a następnie omawiając obecny stan tej dziedziny wraz ze spekulacjami na temat ważnych przyszłych zmian. Na koniec wpis obejmuje pilne wyzwania badawcze i obawy, które pojawiają się podczas eksploracji tej dziedziny.
Przeszłość
Już w latach 80. badacze akademiccy, twórcy technologii, wojsko i administracja publiczna dostrzegli wyjątkowe wyzwania, jakie geografia stawia przed transmisją i reprezentacją danych w Internecie, i zaczęli tworzyć infrastrukturę techniczną oraz wspierać nowe praktyki w tym zakresie. Dostęp do danych i korzystanie z nich w różnych lokalizacjach było wyzwaniem, ale tak było , były też unikalne sposoby zarządzania, analizowania i wizualizacji danych przestrzennych. Aby sprostać temu drugiemu wyzwaniu, opracowano systemy informacji geograficznej (GIS), a wczesne technologie internetowe dostosowano do syntezy wszystkich wyzwań. Rozproszony GIS - czyli wiele połączonych systemów w różnych lokalizacjach - służył tym celom i usprawniał proces tworzenia i manipulowania danymi przestrzennymi z urządzeń mobilnych obsługujących globalny system pozycjonowania (GPS). Takie podejście do GIS obejmowało ścisłą definicję mapowania internetowego, ponieważ dostęp do licencji i danych GIS był często uzyskiwany za pośrednictwem zdalnych serwerów File Transfer Protocol, a nie tylko przez sieć WWW; jednak era ta nadal charakteryzowała się niezgodą co do analitycznego i koncepcyjnego nakładania się między internetowym GIS, mobilnym GIS i mapowaniem internetowym. Postępy w infrastrukturze technologicznej towarzyszyły zarówno rozwojowi przemysłu geograficznego, którego symbolem były prywatne firmy Esri i Intergraph, jak i zwiększonemu dostępowi i zainteresowaniu siecią WWW. Strony internetowe, takie jak Mapquest i National Weather Service w Stanach Zjednoczonych, udostępniły ważne wczesne przykłady internetowych map, które spotkały się z dużym zainteresowaniem opinii publicznej. Dość często opierały się one na zastrzeżonym oprogramowaniu Esri do tworzenia map internetowych, ArcIMS, które dopracowywało standardowe poziomy prezentacji, logiki biznesowej i zarządzania danymi dla konkretnych danych przestrzennych. Mimo to wczesne internetowe platformy mapujące cierpiały z powodu stosunkowo statycznego charakteru witryn internetowych w tamtym czasie. Dla każdego polecenia użytkownika, na przykład przesunięcia lub powiększenia mapy, cała witryna musiałaby zostać ponownie załadowana, aby wyświetlić obrazową reprezentację żądanych danych przestrzennych. Wprowadziło to dwa źródła nieefektywności: (1) przeładowanie strony i (2) żądanie nowych danych tylko na żądanie użytkownika. Na początku XXI wieku kilka możliwych trajektorii rozwoju mapowania Internetu zawęziło się w odpowiedzi na ważne zmiany socjotechniczne. Po pierwsze, w 2000 roku rząd USA przerwał program selektywnej dostępności w swoim GPS, który ograniczał dokładność cywilnych jednostek GPS poprzez szyfrowanie sygnału. Zaprzestanie selektywnej dostępności zachęciło do powszechnego przyjęcia technologii GPS i umożliwiło laikom tworzenie danych przestrzennych, które później zostały włączone do technologii smartfonów. Po drugie, możliwości asynchronicznego przesyłania danych w większości przeglądarek znacznie się rozszerzyły, co oznacza, że nowe dane można było pobierać i wyświetlać bez konieczności ponownego ładowania strony internetowej. Spośród technologii umożliwiających tę zmianę najpopularniejsze stały się asynchroniczny JavaScript i XML (extensible markup language; AJAX). AJAX umożliwił aplikacjom internetowym, takim jak Mapy Google, pobieranie danych sąsiadujących z bieżącym widokiem mapy użytkownika, co znacznie przyspiesza proces nawigacji przestrzennej. Ta interaktywność, zwana śliskimi mapami, umożliwiała zmianę ramki mapy w przeglądarce za pomocą myszy użytkownika. Przeciąganie myszą powodowałoby dynamiczne przesuwanie mapy w ramce mapy, zamiast konieczności ponownego ładowania całej strony. W ten sposób mapa "ślizga się" myszką. Po trzecie, AJAX rozpowszechnił się jednocześnie z przemieszczeniem Web Mapping Services i Web Feature Services do stosunkowo małych, połączonych ze sobą obrazów danych zwanych "kafelkami mapy". Ponieważ ten pierwszy wymagał pobrań dużych plików graficznych przekraczających zasięg widoczny dla użytkownika, drugi sprawił, że nawigacja po mapie była bardziej wydajna w pobieraniu danych. Ta wydajność stała się później kluczowa dla wczesnego korzystania ze smartfonów. Czwartą zmianą socjotechniczną było odkrycie przez duże instytucje gromadzące dane, takie jak Facebook, Twitter i Flickr, że mogą z zyskiem dzielić się ograniczonym dostępem do swoich zbiorów danych i usług za pośrednictwem interfejsów programowania aplikacji (API). Udostępniając pewne wykorzystanie swoich platform i danych twórcom stron internetowych, firmy posiadające duże zbiory danych przestrzennych przyciągnęły więcej szerokie wykorzystanie ich platform i umożliwiło kreatywne ponowne przywłaszczenie, ostatecznie umożliwiając nowe cyfrowe formy generowania zysków. Większość historii map internetowych ma tendencję do podkreślania tych innowacji technicznych przy względnym lekceważeniu zmian społecznych i politycznych, które leżały u podstaw tych zmian. Jak zasugerowano powyżej, wydanie interfejsów API sygnalizowało coś więcej niż zmiany techniczne; odzwierciedlał ekonomię polityczną, w której prywatne firmy szukały nowych dróg zysku. Rozwój przestrzennej sieci Web 2.0 (nazywanej "geoweb") zbiegł się w czasie z przekazaniem przez państwo większej części odpowiedzialności za produkcję danych "tłumowi" i firmom prywatnym, jednocześnie wprowadzając nowe regulacje i ramy generowania zysków sektora prywatnego z tych nowych zajęcia. Od początku XXI wieku media społecznościowe w coraz większym stopniu integrują komponent przestrzenny, tworząc nowe (duże) zestawy danych do mapowania Internetu, jednak dane te odzwierciedlają nowe podziały cyfrowe, ponieważ adopcja, dostęp, wykorzystanie i umiejętności znacznie się różnią na całym świecie. Innymi słowy, mapowanie w Internecie jest zjawiskiem społecznym i politycznym oprócz zmiany w środowisku technologicznym.
Treaźniejszość
Oba konceptualne podejścia do rozumienia Internetu - to znaczy techniczne i społeczne - stanowią przyczynę niedawnego zainteresowania mapowaniem dużych zbiorów danych. Ponieważ coraz więcej danych jest tworzonych, rozpowszechnianych i reprezentowanych w Internecie, badacze zrównoważyli uwagę na szybkość, prawdziwość, objętość i różnorodność danych ("cztery V") z uwzględnieniem wpływu dużych zbiorów danych na produkcję wiedzy. Takie postępowanie pomaga wyjaśnić rozbieżności w tym, kto mapuje jakie rodzaje danych, wyraźnie podkreślając nierówności w mapowaniu Internetu. Ten program badawczy zapożycza pomysły i zasady z krytycznego, partycypacyjnego i feministycznego GIS, aby argumentować, że takie dysproporcje tworzą nierówne szanse dla reprezentowania danych przez Internet, ostatecznie uprzywilejowując osoby w krajach i miastach o wysokich dochodach. Jeśli chodzi o stronę technologiczną, twórcy stron internetowych zareagowali na duże zbiory danych, pisząc nowe biblioteki JavaScript, takie jak D3, które pomagają przestrzennie, analizować i wizualizować duże zbiory danych w Internecie. Inne najnowsze biblioteki JavaScript zostały wykorzystane nie tylko do wizualizacji dużych zbiorów danych, ale także do standardowych technik mapowania; przykłady obejmują Leaflet i OpenLayers. Warto zauważyć, że chociaż prędkość przesyłania danych wzrosła, ulepszona moc obliczeniowa komputerów osobistych oznaczała, że wiele z tych innowacji technicznych przesunęło mapowanie Internetu do przetwarzania w większym stopniu po stronie klienta. Oznacza to, że wiele - jeśli nie większość - mapowania Internetu opiera się teraz w większym stopniu na JavaScript, HTML5 (hipertekstowy język znaczników 5) i CSS (kaskadowy arkusz stylów), niż na historycznie bardziej powszechnych aplikacjach po stronie serwera wykorzystujących PHP lub ASP. INTERNET. Mapowanie Internetu po stronie klienta powoduje większe obciążenie obliczeniowe przeglądarek i urządzeń użytkowników, ale może poprawić interaktywność i wydajność nawigacji. Innowacje w przetwarzaniu po stronie serwera obejmują jednak frameworki do tworzenia stron internetowych JavaScript i Python po stronie serwera, z których oba miały duży wkład w dostarczanie zamkniętych danych do internetowych platform mapowania. Wyjątkiem są instytucje i osoby, które udostępniają do Internetu własne dane przestrzenne. Zwykle wymaga to, poza standardowym serwerem WWW, serwera GIS do obsługi żądań danych przestrzennych, a także serwera bazy danych GIS umożliwiającego dostęp do samych danych. Można je filtrować za pomocą pewnego rodzaju pliku konfiguracyjnego, takiego jak "dokument mapy" firmy Esri, w celu renderowania specyfikacji. Mapowanie internetowe pełni ważne funkcje dla badaczy, prywatnych przedsiębiorstw, administracji publicznej i ogółu społeczeństwa. Naukowcy akademiccy otrzymują nowe źródła danych, ponieważ coraz więcej osób zarejestrowało się jako czujniki w geosieci. Interfejsy API zapewniają inne źródło danych przestrzennych, takie jak media społecznościowe, dane demograficzne i społeczne, dane dotyczące środowiska i udostępnianie danych pierwotnych. Obecne trendy technologiczne wskazują, że kartografowie stają przed wyzwaniami związanymi z nowymi konwencjami i najlepszymi praktykami kartograficznymi w zakresie skutecznego przekazywania złożonych danych i wizualizacji w Internecie; wyzwania te mają implikacje zarówno dla praktyków, jak i dla studentów nauczania w szkolnictwie wyższym. Prywatne przedsiębiorstwa skorzystały na przyspieszonych prędkościach pobierania danych przestrzennych, a także na umacniającym się trendzie w kierunku otwartości i współdzielenia danych przestrzennych. Na przykład prywatna firma Socrata z siedzibą w Seattle opracowuje otwarte platformy danych, w tym niektóre dane z komponentem przestrzennym, dla rządów w różnej skali, przenosząc większość danych na prywatne i rozproszone serwery i usługi sieciowe. To z kolei jednoczy dla całej jednostki rządowej to, co w przeciwnym razie mogłoby być rozproszonymi zbiorami danych, usprawniając dostęp do danych i ich wyszukiwanie dla administratorów publicznych i obywateli. Dane, które nie są udostępniane publicznie, są nadal często udostępniane pracownikom rządowym za pośrednictwem protokołów internetowych. Ogół społeczeństwa obecnie zarówno tworzy, jak i konsumuje dane przestrzenne za pośrednictwem internetowych platform kartograficznych, ponieważ wzrosła dostępność, interoperacyjność i integracja różnych zestawów danych. Platformy Geoweb, takie jak Google Earth, Strata i Yelp, na przykład, służą jako platformy nie tylko do tworzenia danych przestrzennych, ale także do tworzenia map internetowych. Ich integracja z codziennym życiem oznacza, że duże zbiory danych dostarczają nowego, częściowego i różnorodnego spojrzenia na procesy społeczne. Oznacza to również, że społeczeństwo w większym stopniu uczestniczy w internetowych praktykach tworzenia map. Oznacza to, że przy niewielkiej wiedzy technicznej członkowie społeczeństwa mogą teraz zostać twórcami map internetowych, a ich liczba jest obecnie znacznie wyższa niż na początku XXI wieku. Dzięki większym umiejętnościom technicznym społeczeństwo ma teraz swobodny dostęp do operacji analizy przestrzennej, takich jak bufory i analiza sieci, poprzez otwarte biblioteki Python i JavaScript.
Przyszłość
Krajobraz map internetowych zmienia się szybko, a wszelkie stwierdzenia dotyczące aktualnych trendów prawdopodobnie będą nieaktualne, zanim dotrą do prasy drukarskiej. Jednak trzy postępy socjotechniczne wydają się najbardziej obiecujące pod względem długowieczności, powszechnego przyjęcia i przyszłego rozwoju. W przeciwieństwie do pobierania i wizualizacji danych rastrowych i obrazowych, kafelki wektorowe łączą wiele małych selekcji danych wektorowych dla użytkownika. Działa to podobnie do kafelków rastrowych, ponieważ dane dostarczane użytkownikowi mogą być skalowane do wielu rozdzielczości i jest wydajnym sposobem przenoszenia danych przestrzennych do map internetowych. Ponieważ jednak dane pozostają w formacie wektorowym, są one na ogół mniejsze, a tym samym szybsze do pobrania i wyświetlenia. Kafelkowanie zestawu danych dodatkowo eliminuje potrzebę pobierania i wyświetlania całych zestawów danych wektorowych w pełnej rozdzielczości, znacznie poprawiając wydajność w porównaniu ze standardowymi modelami danych wektorowych. Zazwyczaj kafelki wektorowe są wyodrębniane z serwera przy użyciu informacji osadzonych w adresie strony internetowej lub adresie URL. Ten schemat wyodrębniania adresów URL był również powszechny w przypadku kafelków rastrowych. Format jest zgodny z podejściem zoom/x/y. W tym przypadku powiększenie to liczba zwykle od 1 do 20, gdzie 1 oznacza skalę globalną, a 20 może oznaczać zaledwie kilka stóp kwadratowych. Tak więc, aby wyświetlić sąsiedztwo, może wystarczyć liczba od 16 do 14, a aby wyświetlić cały obszar miejski, od 10 do 13. X i y reprezentują wartości szerokości i długości geograficznej, zakodowane jako stopnie dziesiętne (zamiast stopni-minut-sekund ). Ta para wartości razem określa położenie środka mapy. Wraz z wartością powiększenia serwer kafli wektorowych określa zasięg wektora danych do dostarczenia użytkownikowi. Od 2017 roku MapBox Studio jest często używaną platformą kafelków wektorowych do mapowania Internetu. Open-StreetMap obsługuje również kafelki wektorowe swoich danych za pomocą serwera danych wektorowych zwanego silnikiem Mapnik. Po wyodrębnieniu tych danych kilka dostępnych usług może stylizować i renderować kafelki wektorowe przed wyświetleniem ich użytkownikowi. MapBox oferuje tę usługę renderowania jako część swojego oprogramowania, wykorzystując zastrzeżoną specyfikację stylu Mapbox GL (potomek innego standardu, CartoCSS) oraz Mapzen i Stamen Designs, renderując specyfikacje przy użyciu bardziej otwartych formatów. Po drugie, twórcy stron internetowych, naukowcy społeczni i naukowcy zajmujący się danymi znajdują nowe sposoby kodowania danych geograficznych w celu wydajniejszego przesyłania, przechowywania i wyświetlania, a format TopoJSON wydaje się mieć coraz większą wartość i wykorzystanie. TopoJSON to struktura danych zbudowana na JavaScript Object Notation (JSON), wykorzystująca pary klucz-wartość w celu zapewnienia wysokiej czytelności dla człowieka. JSON pojawił się, aby zastąpić XML w kodowaniu i przesyłaniu danych i jest łatwo analizowany w JavaScript. Rozszerzenie GeoJSON JSON ma na celu stworzenie standardów kodowania jawnie danych przestrzennych w formacie JSON, ale GeoJSON cierpi z powodu dużych rozmiarów plików. Jego czytelność i rozszerzalność bledną w porównaniu z długimi czasami pobierania i wyświetlania. Rozmiar tych obiektów różni się oczywiście w zależności od ziarnistości/rozdzielczości zestawu danych i zawartych w nim atrybutów, ale dla porównania, oficjalny plik kształtu spisu ludności Kalifornii z 2015 r. GeoJSON, to około 8,9 MB. Specyfikacja TopoJSON została zaprojektowana w celu rozwiązania tego problemu. Zamiast pojedynczych wierzchołków i linii dla każdej granicy obiektu, TopoJSON przechowuje łuki wspólne dla funkcji. W ten sposób zbieżne granice nie są powielane: granica między Kanadą a Stanami Zjednoczonymi byłaby przechowywana raz jako wspólny łuk, a nie jako dwie oddzielne granice obiektów. Ponadto dzięki takiemu podejściu użytkownicy zachowują spójność topologiczną i mniejsze rozmiary plików. Wspomniany plik w formacie GeoJSON jest o 75% mniejszy po zakodowaniu w formacie TopoJSON i waży około 2,25 MB. Ponieważ TopoJSON jest stosunkowo nowym standardem, konwersja między plikami shape, GeoJSON i TopoJSON pozostaje przeszkodą w adopcji i użytkowaniu. Podobnie jak w przypadku innych internetowych technologii tworzenia map, użytkownicy muszą łączyć się z zewnętrznymi bibliotekami, aby poprawnie wyświetlać pliki. Po trzecie, rosnąca tendencja do rozpowszechniania zbiorów danych przestrzennych do nieograniczonego użytku publicznego obejmuje ruch otwartych danych. Platformy otwartych danych są coraz bardziej powszechne na wielu szczeblach administracji, w tym w miastach, regionach i krajach. Motywacje i przejawy różnią się znacznie w zależności od kontekstu, ale w dużej mierze wynikają z wysiłków na rzecz promowania przejrzystości rządu, efektywności udostępniania danych i przedsiębiorczości publicznej oraz poszerzania odkrywania wiedzy. Rozprzestrzenianie się platform otwartych danych w XXI wieku otworzyło zalew zestawów danych przestrzennych dla twórców map internetowych, otwierając szersze możliwości analizy przestrzennej i produktów kartograficznych. Co ważne, pod wieloma względami ruch ten stanowi subtelną zmianę w stosunku do wcześniejszego myślenia i stosowania w infrastrukturze danych przestrzennych, ponieważ oba promują bogatsze zbiory wspólnych zestawów danych przestrzennych na obszarze geograficznym. Debaty te w dużej mierze koncentrowały się na tym, jak zwiększyć udział społeczeństwa i publiczny dostęp, i zaproponowano różnorodne rozwiązania. Obejmowały one pogląd, że dane finansowane ze środków publicznych powinny być udostępniane bezpłatnie opinii publicznej lub że należy wprowadzić program zwrotu kosztów w celu odzyskania kosztów wytworzenia danych. Jednak w przypadku ruchu otwartych danych dyskursy wydają się skupiać na postaci aktywistów danych obywatelskich (zwanych także "haktywistami") oraz rodzajach przejrzystości promowanych przez publiczne zbiory danych. Ruch otwartych danych stawia przed naukowcami i decydentami koncepcyjne i praktyczne wyzwania, które obecnie są przedmiotem wielu debat. Po pierwsze, jako konceptualizacje tego, co cyfrowe podziały w coraz większym stopniu integrują rozbieżności w umiejętnościach cyfrowych i zdolności licencjonowania oprogramowania, ważne staje się rozważenie, komu faktycznie pomaga ruch otwartych danych. Dostępność danych z pewnością zawsze ograniczała rodzaje analiz, które mogli przeprowadzać badacze i osoby zaangażowane społecznie, ale skuteczne wykorzystanie wielu zestawów danych wymaga zestawu umiejętności, którego nie posiada ogół społeczeństwa. Ta nierówność odnosi się zarówno do zawiłości analizy przestrzennej, jak i do solidnych zasad kartografii internetowej, jak również do technicznych GIS i umiejętności tworzenia map internetowych. Ponadto licencje na oprogramowanie i sprzęt stanowią ogromną przeszkodę w powszechnym mapowaniu i analizie otwartych zasobów danych. Po drugie, należy krytycznie ocenić korzyści płynące z przejrzystości, a jak dotąd wyraźnie brakuje empirycznych studiów przypadku, które mogłyby stanowić dowód na twierdzenia o przejrzystości. Instytucje tworzące i utrzymujące otwarte platformy danych zachowują prerogatywy do udostępniania zbiorów danych lub nie, a polityka wokół tych decyzji pozostaje nieprzejrzysta. Po trzecie, niewielka liczba prywatnych firm nastawionych na zysk rozwija i utrzymuje większość platform otwartych danych na dużą skalę. Rodzi to pytania o to, w jaki sposób czynnik motywujący zysk kształtuje rodzaje danych udostępnianych publicznie oraz w jaki sposób strony trzecie powinny być pociągane do odpowiedzialności. Po czwarte, decydenci powinni dokładnie rozważyć rodzaje zestawów danych, które mogłyby poprawić przejrzystość i ocenić publiczny dostęp oraz zdolność do ich analizowania i mapowania. Jest to pytanie koncepcyjne o silnym wpływie materialnym. Można na przykład rozważyć, czy należy udostępnić zestawy danych o wydatkach wyborczych i finansowaniu kampanii, czy też zestaw danych powinien zostać udostępniony do wizualizacji map, a nie tylko jako plik shapefile do pobrania. Decydenci polityczni poruszają dalsze kwestie związane z ochroną prywatności w ruchu otwartych danych.
Ostrożne postępowanie
Tak jak krytyczne debaty na temat GIS w latach 90. i 2000. wysuwały na pierwszy plan procesy i instytucje, które kształtują ludzką wiedzę, tak samo badacze i praktycy powinni być ostrożni wobec sposobu, w jaki mapowanie Internetu w coraz większym stopniu określa sposób, w jaki ludzie postrzegają świat. W krytycznych debatach na temat GIS prywatna firma GIS Esri stanowiła główny obiekt antagonizmu, ponieważ badacze kwestionowali udział firmy - i GIS - w militaryzmie, korporacyjnych ingerencjach w sektor publiczny i naiwnym realistycznym podejściu do nauki. Teraz, w przypadku map internetowych, te pytania mogą zostać skierowane do prywatnych firm, takich jak MapBox, Socrata (firma zajmująca się otwartymi danymi) i inne. Istnieją pilne pytania dotyczące sposobów, w jakie te prywatne firmy i oprogramowanie, które oferują społeczeństwu lub klientom, wyznaczają formy przesłuchań i produkcji wiedzy, które mogą być wykonywane w mapowaniu Internetu. Takie badanie może być szerzej sformułowane w trosce o sposoby poznania, które są zamknięte lub zmarginalizowane w mapowaniu internetowym. Porównanie zasięgu danych OpenStreetMap z Google Maps dla miejsc na globalnym Południu - na przykład Strefy Gazy lub Dhaki w Bangladeszu - ilustruje jedną potencjalną formę, w jakiej może przejawiać się ta obawa. Wczesne badania sugerują, że wiele zaobserwowanych wcześniej nierówności technologicznych utrzymuje się, ale wymaga to nowego materiału koncepcyjnego, aby uwzględnić odrębne środowisko technologiczne. Innym sposobem, w jaki takie długotrwałe debaty pojawiają się ponownie w mapowaniu Internetu, jest utrzymywanie się projekcji Mercatora. Zoptymalizowana pod kątem sieci wersja Mercatora nadal jest de facto standardową projekcją używaną w mapach internetowych. Projekcja Mercator zachowuje lokalne kąty i dlatego dobrze nadaje się do nawigacji i wyznaczania tras sieciowych, do których często jest wykorzystywana w aplikacjach internetowych. Jednak kartografowie od dawna zauważają, że projekcja z epoki kolonialnej, oglądana w małej skali, wyolbrzymia obszary bliżej biegunów i odwrotnie, minimalizuje rozmiary krajów globalnego Południa w pobliżu równika. To skutecznie sprawia, że kraje europejskie i amerykańskie są bardziej dominujące wizualnie, a co za tym idzie, przedstawia je jako potężniejsze, zróżnicowane i ważniejsze. Web Mercator wzmacnia te relacje władzy w mapowaniu Internetu. Możliwości techniczne rozwijają się jednak dość szybko, a strony internetowe, takie jak "Map Projection Transitions" Jasona Daviesa, pokazują innowacyjne sposoby integracji różnych projekcji z internetowymi platformami mapowania w celu obejścia problematycznych reprezentacji ziemi. W przeszłości niektóre popularne platformy eksperymentowały również z innymi projekcjami. Dziedzina potrzebuje obecnie szerszego repertuaru kreatywnych rozwiązań do rozwiązywania złożonych problemów społecznych i matematycznych związanych z projekcjami. Zwolennicy big data nadal podchodzą do gromadzenia danych w Internecie tak, jakby dane te reprezentowały całe społeczeństwo, zaniedbując uporczywą przepaść cyfrową i nierówności reprezentacji społecznej. Fakt ten ma wpływ na sposób, w jaki ludzie myślą o internetowych mapach. Wśród wielu źródeł big data pozostają rażące luki: ci, którzy rezygnują z mediów społecznościowych, ci, którzy nie mieszkają w miejscach z czujnikami środowiskowymi lub społecznymi, "białymi plamami" na cyfrowej mapie Internetu, ci, którzy aktywnie ukrywają swoją cyfrową aktywność i nie tylko . Tak jak poprzednio, obserwacja globalnego zasięgu Google StreetView ilustruje przestrzenne zróżnicowanie danych i pokrycie map. Rozwijający się program badawczy (z którego pochodzą niektóre cytaty powyżej) koncentruje się wokół pytania, w jaki sposób ta przepaść cyfrowa prezentuje się w nowy sposób we współczesnym społeczeństwie. Twórcy map internetowych dobrze by zrobili, pamiętając o tych nierównościach i rozumiejąc częściową naturę dużych zbiorów danych. Te trzy poprzednie akapity na pewnym poziomie odwoływały się do ram etycznych kierujących badaniami i wykorzystaniem map internetowych, ale mapowanie internetowe stawia również nowe wyzwania dla zasad etycznych wyraźnie zapisanych w kodeksach prawnych. Kwestie dotyczące prywatności należą do tych rozważań etycznych, ponieważ mapowanie internetowe wprowadza nowe sposoby triangulacji wielu źródeł danych, potencjalnie naruszając w ten sposób standardowe oczekiwania w zakresie ochrony prywatności. Nowe praktyki, takie jak geotagowanie, obecność cyfrowa i tworzenie profili, zmniejszają bariery dla naruszeń prywatności. Te nowe wyzwania i kwestie obejmują kontrolę nad wykorzystaniem i dostępnością danych osobowych i informacji umożliwiających identyfikację osób. Zgoda jest uwzględniana w tych rozmowach, ponieważ chociaż niektórzy mogą zgodzić się na publiczne opublikowanie swoich informacji, nieokreślony charakter rozwoju map internetowych oznacza, że mogą pojawić się przyszłe zastosowania danych, których użytkownik nie może przewidzieć. Użytkownik mógł nie wyrazić świadomie zgody na wszystkie możliwe przyszłe sposoby wykorzystania danych, dlatego być może należy ponownie zabezpieczyć zgodę na nowe cele i zastosowania. Wybitnym tego przykładem jest aplikacja Girls Around Me, która przez krótki okres (2011-2012) wyświetlała użytkowników mediów społecznościowych zidentyfikowanych jako kobiety w pobliżu lokalizacji użytkownika. Aplikacja zbierała informacje publiczne z usługi odprawy FourSquare opartej na lokalizacji i łączyła je z publicznymi profilami na Facebooku; krytycy zadali jednak pytania o stopień, w jakim ci użytkownicy mediów społecznościowych byli świadomi takiego wykorzystania ich danych. Podobne obawy wzbudziła aplikacja Please Rob Me, która przesyła strumieniowo te same źródła danych do wyświetlania, gdy kogoś nie ma w miejscu zamieszkania. Potrzebne są dalsze badania, aby wyjaśnić, w jaki sposób te zasady, koncepcje i zasady odnoszą się do sfery mapowania Internetu. Bardziej podstępne implikacje pojawiają się w kontekście wrażliwych populacji, takich jak praca humanitarna, zarządzanie kryzysowe lub wokół mniejszości etnicznych lub seksualnych. American Association for the Advancement of Science prowadzi obecnie badania nad sposobami, w jakie media społecznościowe i dane przestrzenne pozyskiwane w ramach crowdsourcingu mogą być bezpiecznie i skutecznie wykorzystywane do dostarczania pomocy humanitarnej i łamania praw humanitarnych. Ta praca jest częścią niewielkiego, ale rosnącego zbioru prac poświęconych sposobom ochrony użytkowników technologii przestrzennych, a szerokie implikacje rozciągają się od polityki Facebooka dotyczącej prawdziwych nazwisk po humanitaryzm cyfrowy w strefach konfliktów oraz od wykorzystania nieodpłatnej pracy cyfrowej przez Mapy Google do nadzoru Inteligentne miasta. Chociaż innowacje technologiczne umożliwiły tworzenie map internetowych, jest to z natury zjawisko społeczne. Pilne potrzeby badawcze koncentrują się wokół sposobów, w jakie ludzie korzystają z internetowych map i sposobów, w jakie kształtują one naszą wiedzę o świecie i naszym miejscu w nim. Nowe podejście do danych przestrzennych umożliwia praktyki i eksploracje, które wcześniej wykraczały poza zakres GIS dla komputerów stacjonarnych dla jednego użytkownika.
Memy internetowe to cyfrowe teksty - werbalne, wizualne lub dźwiękowe - które mają wspólne cechy i podlegają zmianom wielu użytkowników. Tworzone są ze świadomością siebie nawzajem i wymagają wcześniejszej znajomości do właściwej produkcji i konsumpcji, ponieważ powtarzalny (lub memetyczny) element tekstu często zawiera zakodowane informacje kulturowe niezbędne do właściwej interpretacji. Termin mem został przypisany powtarzalnemu składnikowi tych tekstów, każdej wersji opartej na tym stałym składniku lub całemu korpusowi tekstów składającemu się na różne wersje. Chociaż termin ten wyprzedził swoje internetowe wcielenie o kilka dekad, Internet (w szczególności Web 2.0) stanowi podatny grunt dla rozprzestrzeniania się praktyki memetycznej. Ten wpis otwiera krótki przegląd etymologiczny ewolucji terminu memy internetowe, po którym następuje opis jego popularnych i akademickich zastosowań. Kończy się omówieniem istotnej dialektyki między praktyką memetyczną a Internetem oraz społecznej roli memów internetowych w kulturze partycypacyjnej.
Ewolucja terminu
Termin mem został ukuty przez Richarda Dawkinsa w jego przełomowej książce The Selfish Gene z 1976 roku. Wyprzedził popularne użycie tego terminu w Internecie o ponad trzy dekady i odnosił się do jednostek kulturowych, które rozprzestrzeniają się z osoby na osobę poprzez naśladownictwo. Ich manifestacja obejmowała zakres od popularnych melodii po koncepcję boga. Termin pochodzi od greckiego słowa mimema, oznaczającego "coś naśladowanego", a także nawiązuje zarówno do francuskiego meme (oznaczającego "to samo"), jak i do angielskiej pamięci. Dawkins zaadaptował je tak, aby przypominały słowo gen (stąd ja ja). Według Dawkinsa memy są kulturowymi odpowiednikami genów. Przechodzą procesy zmienności, konkurencji, selekcji i retencji. W związku z tym mem przetrwa i propaguje się, jeśli jest zgodny z kulturą, w której działa, i podlega trwałym rewizjom w czasie i społeczeństwach z korelacją ze zmianami w jego podłożu kulturowym. Jako koncepcja teoretyczna mem został przyjęty przez niektórych uczonych i oczerniany przez innych. Główne spory toczyły się wokół niejednoznaczności tego terminu, bliskiej analogii, jaką sugeruje między biologią a kulturą, oraz osłabienia ludzkiej sprawczości w procesach, na które wskazuje. Ale wraz z pojawieniem się Web 2.0, aw szczególności mediów społecznościowych (zwłaszcza Facebooka, Twittera i YouTube), poprawiona wersja tego terminu zyskała nową popularność. Przechodząc od dyskursu akademickiego do popularnego, termin mem przekształcił się, w swoim nowym wcieleniu jako mem internetowy, z raczej dwuznacznej metafory w konkretny gatunek tekstowy. Typowe dla procesów memetycznych, niektóre z wcześniejszych cech tego terminu zostały zachowane, podczas gdy inne zostały zaniedbane.
Manifestacje memów internetowych
Termin mem był szeroko stosowany przez internautów w pierwszej dekadzie XXI wieku, głównie w celu opisania powtarzających się obrazów lub filmów, których użytkownicy tworzyli wiele odmian. Teksty te zazwyczaj zawierają w sobie zakodowane zaproszenie do twórczego zaangażowania - na przykład wykorzystanie znanego już tekstu memetycznego jako podstawy, stworzenie prostego tekstu, który można łatwo naśladować, lub wybór platformy partycypacyjnej, która zapewnia aktywny kontakt z tekstem. Efektem tego zaangażowania są warianty oryginalnego tekstu, w tym zmieniające się komunikaty werbalne (np. obrazy "Grumpy Cat" lub filmy "Hitler Rants"), remiksy i parodie (np. filmy "Gangnam Style") oraz inne sposoby manipulacji przeprowadzane na oryginalne teksty. Wiele z tych tekstów zawiera centralną humorystyczną postawę, albo ze względu na czystość rozrywki lub jako środek do przekazania poważnej, krytycznej wiadomości. Na przykład obrazy "gliniarza z gazem pieprzowym" i "#cosbymeme" były odgórnymi próbami zainicjowania tworzenia humorystycznych treści memetycznych przejętych przez użytkowników w celu przekazania wywrotowej krytycznej wiadomości. Jak wynika z tych przykładów, treści memetyczne mogą różnić się od popkultury do krytyki politycznej. Co więcej, chociaż popularny dyskurs najczęściej używa terminu mem w odniesieniu do tekstów humorystycznych, uczeni rozszerzyli jego użycie na inne rodzaje powtarzalnych tekstów cyfrowych, takie jak partycypacyjne kampanie internetowe, takie jak "ALS Ice Bucket Challenge", "It Gets Better Project" i "Jesteśmy 99%". Memy internetowe mogą być wykorzystywane zarówno do potwierdzania, jak i do obalenia porządku społecznego, a typowe dla oddolnych sposobów komunikacji rzeczywiście spełniają jedno i drugie.
Memy i kultura partycypacyjna
Technologie cyfrowe ogólnie, a Internet w szczególności, ułatwiają tworzenie, rozpowszechnianie i konsumpcję memów. W przeciwieństwie do treści wirusowych, memy są nie tylko rozpowszechniane, ale także modyfikowane przez użytkowników. Wymagają zatem twórczego zaangażowania i znajomości wcześniejszych tekstów, stosunkowo dostępnych na cyfrowych arenach internetowych. Jeśli chodzi o produkcję takich tekstów, technologie cyfrowe umożliwiają manipulację oryginalnym tekstem (np. powielanie, dodawanie tekstu słownego i edycję), dzięki czemu tworzenie odmian nie wymaga wysokich umiejętności technicznych. Jeśli chodzi o dystrybucję i konsumpcję memów internetowych, wyszukiwarki, takie jak Google, a także platformy partycypacyjne, takie jak media społecznościowe, umożliwiają zarówno wyświetlanie, jak i łatwy dostęp do tych tekstów, zarówno jako pojedynczych tekstów, jak i grup. Agregacja tekstów w grupy sprzyja kolektywizacji memów internetowych i wzmacnia ich obecność w sieci. Co jednak ważne, praktyka memetyczna nie jest jedynie przypadkowym produktem ubocznym internetowych afordancji cyfrowych. Wynika to również iw pewnym sensie konstruuje logikę społeczną kultury partycypacyjnej. Limor Shifman w swojej książce Memes in Digital Culture sugeruje, że chociaż memy internetowe powstają i rozpowszechniane są na poziomie mikro, działają na poziomie makro, projektując dyskurs społeczny, a nawet uczestnicząc w konsolidacji zbiorowości. Pomysł ten nawiązuje również do jej argumentacji dotyczącej kulturowego podłoża obecnego rozpowszechnienia się internetowych memów. Oprócz możliwości, jakie dają media cyfrowe i Internet w zakresie łatwego tworzenia, rozpowszechniania i konsumowania memów internetowych, logika kulturowa mediów partycypacyjnych jest głęboko skorelowana z praktyką memetyczną. Praktyka ta ułatwia z jednej strony ekspresję oryginalności i kreatywności, z drugiej poczucie przynależności do zbiorowości kulturowej. W tym sensie praktyka memetyczna spełnia zarówno postulat indywidualizmu, jak i charakterystyczną dla kultury partycypacyjnej tęsknotę za przynależnością. Sukces memów na tej arenie kulturowej rzeczywiście jest zgodny z Dawkinsowską logiką kompatybilności społeczno-kulturowej (a w tym przypadku także technologicznej), a zatem w pewnym sensie praktyka memetyczna przekazuje metaprzesłanie o kulturowej logice kultury partycypacyjnej. Aktywność memetyczna stała się istotnym czynnikiem w pracy nad tożsamością zbiorową i konsolidacji społeczności w ramach kultury partycypacyjnej Web 2.0. Ogólna umiejętność czytania i pisania, zarówno w przypadku konsumpcji, jak i produkcji memów internetowych, często działa jako wyznacznik przynależności kulturowej (np. memy "LOLCats"). Ponadto negocjowanie norm społecznych odbywa się często poprzez wybory imitacji i wariacji, manifestowane przez memy internetowe (np. projekt "It Gets Better"). Efektem takich negocjacji może być korpus memetyczny, podkreślający kontury istniejących i powstających wspólnot kulturowych. Tak więc, chociaż termin mem poprzedza Internet, jego odnowiona aktualność w kulturze partycypacyjnej Web 2.0 odzwierciedla wzajemną zgodność z tym kulturowym podłożem i wskazuje na żyzną dialektykę między memami a Internetem.W rezultacie memy internetowe zarówno rozprzestrzeniają się, jak i odgrywają znaczącą rolę społeczną na tej arenie kulturowej.