Niepełnosprawność nadal zyskuje coraz większą uwagę zarówno w teorii, jak iw badaniach. W przeszłości niepełnosprawność była postrzegana przede wszystkim jako upośledzenie i postrzegana jako sprawa indywidualna, podlegająca profesjonalnej (czyli medycznej) interwencji. W XXI wieku niepełnosprawność zaczęła być postrzegana obok rasy, klasy, płci i orientacji seksualnej jako konstruowana społecznie koncepcja i lokalizacja tożsamości, często powiązana z pozbawieniem praw wyborczych. Została również uznana za główne źródło nierówności cyfrowych. Ten wpis analizuje status społeczny niepełnosprawności, cyfrową przepaść niepełnosprawności, niektóre sposoby, w jakie osoby niepełnosprawne korzystają z Internetu, rozwój technologii wspomagających opartych na Internecie oraz inicjatywy polityczne mające na celu zlikwidowanie cyfrowej przepaści niepełnosprawności .
Niepełnosprawność jako status społeczny
Tym, co czyni niepełnosprawność szczególnie godną uwagi jako kategoria społeczna, jest względna płynność jej członkostwa. Podczas gdy granice innych upośledzonych statusów, takich jak rasa lub płeć, nie są w żaden sposób nieprzekraczalne, niepełnosprawność jest szczególnie uderzająca w sposobie, w jaki ludzie mogą wejść lub wyjść ze statusu w ciągu swojego życia. Mówi się, że niepełnosprawność to jedyny upośledzony status, którego każda osoba może się spodziewać w pewnym momencie swojego życia, pod warunkiem, że żyje wystarczająco długo. Kolejną komplikacją związaną z niepełnosprawnością jest różnorodność definicji i miar określających, czy dana osoba posiada dany status, czy też nie. W zależności od tego, czy jest to do celów zarządzania administracyjnego, leczenia klinicznego, rzecznictwa czy badań, można mieć niepełnosprawność w jednym sensie, ale nie w innym. Weźmy na przykład pod uwagę, że dana osoba może zostać zdefiniowana jako niepełnosprawna w celu poddania się leczeniu, ale jednocześnie nie kwalifikuje się do świadczeń z tytułu niezdolności do pracy od pracodawcy lub rządu. Niezależnie od tego, jak jest mierzona, niepełnosprawność jest związana z niekorzystną sytuacją, dyskryminacją i wykluczeniem. PWD mają tendencję do zajmowania innych upośledzonych statusów społecznych, takich jak niski status społeczno-ekonomiczny i zaawansowany wiek, i częściej są mniejszości rasowe/etniczne. W ten sposób podlegają uprzedzeniom i dyskryminacji, jakich doświadczają osoby zajmujące te statusy. Oprócz tego jednak osoby niepełnosprawne doświadczają negatywnego traktowania z powodu samej niepełnosprawności, ze skutkami dla ich zdrowia i majątku.
Cyfrowa przepaść niepełnosprawności
Nierówność ze względu na status niepełnosprawności jest widoczna w Internecie; Osoby niepełnosprawne konsekwentnie pozostają w tyle za osobami bez niepełnosprawności w dostępie do Internetu. Korzystając z danych z US Current Population Survey z 2011 r., raport National Telecommunications & Information Administration z 2013 r. wykazał, że 53% osób z niepełnosprawnościami miało komputer, 48% korzystało z Internetu, a 46% miało dostęp do szybkiego szerokopasmowego Internetu. Były one daleko w tyle za liczbami osób bez niepełnosprawności: 79% posiadało komputery, 76% miało dostęp do Internetu, a 73 miało dostęp szerokopasmowy. Podobnie William H. Dutton i współpracownicy stwierdzili, że w 2009 r. 41% osób z niepełnosprawnościami w Wielkiej Brytanii stwierdziło, że korzysta z Internetu, w porównaniu z 71% osób bez niepełnosprawności. Osoby niepełnosprawne w trybie online również zgłaszają, że są mniej wykwalifikowane i bardziej boją się komputerów. Osoby niepełnosprawne nieproporcjonalnie znajdują się w innych statusach znajdujących się w niekorzystnej sytuacji, a status ten zapewnia częściowe wyjaśnienie nierówności cyfrowych według statusu niepełnosprawności. Jednak badania, które kontrolują status społeczno-ekonomiczny, rasę, płeć i inne czynniki demograficzne, pokazują, że PWD nadal pozostaje w tyle w korzystaniu z Internetu. Tylko osoby z wadą słuchu nie pozostają w tyle za osobami bez niepełnosprawności w korzystaniu z Internetu przy kontrolowanych danych demograficznych.
Odrębne zainteresowania i działania
Osoby niepełnosprawne korzystające z Internetu mają pewne unikalne zainteresowania i działania online. Niektóre badania wykazały, że osoby z niepełnosprawnościami nieproporcjonalnie szukają informacji na tematy związane ze zdrowiem w Internecie, podczas gdy inne nie stwierdzają znaczących różnic w wyszukiwaniu informacji o zdrowiu online. W ramach projektu Digital Nation amerykańskiej Narodowej Administracji Telekomunikacji i Informacji zebrano dane na temat 11 różnych działań online, stwierdzając, że osoby z niepełnosprawnością intelektualną były znacznie mniej skłonne do angażowania się w 9. Jedyne 2 działania, dla których nie było znaczących różnic ze względu na niepełnosprawność w 2015 r., to "Badania informacji zdrowotnych Online" i "Dostęp do elektronicznej dokumentacji medycznej lub dokumentacji ubezpieczeniowej lub rozmów w Doc Online" (National Telecommunication and Information Administration, 2016). Mówiąc bardziej ogólnie, Internet może pełnić wiele przydatnych funkcji dla osób niepełnosprawnych. Ponieważ niepełnosprawność wiąże się z wykluczeniem społecznym i inwalidztwem, szczególnie godne uwagi jest to, w jaki sposób osoby niepełnosprawne wykorzystują sieć do tworzenia i utrzymywania kontaktów z innymi ludźmi online, relacji, które mogą być mniej powszechne lub niemożliwe w trybie offline. Szczególnie pomocna dla osób z niepełnosprawnością intelektualną jest możliwość znalezienia i komunikowania się z osobami, które dzielą ich niepełnosprawność lub problemy zdrowotne. Niezależnie od tego, z kim wchodzą w interakcje, komunikacja online może również pozwolić osobom z pewnymi niepełnosprawnościami na wybór, kiedy ujawnić swoje upośledzenia, zamiast bycia na czele interakcji. Osoby niepełnosprawne również korzystają z Internetu, aby ich głos był słyszany. Korzystając z danych z Pew Internet & American Life Project, w badaniu z 2010 roku Susannah Fox i Kristen Purcell odkryły, że chociaż osoby z chorobami przewlekłymi rzadziej miały komputer lub dostęp do Internetu, znacznie częściej zgłaszały pracę nad blog, publikowanie postów na blogach i uczestniczenie w dyskusjach online, listservach lub innych grupach internetowych. Jedno z badań wykazało, że po uwzględnieniu cech socjodemograficznych osoby z niepełnosprawnością intelektualną częściej niż osoby sprawne zgłaszały udział w szeregu czynności, w tym publikowanie na blogach, przesyłanie recenzji produktów i usług oraz udostępnianie własnych treści online. Korzyści płynące z Internetu dla osób z niepełnosprawnością są widoczne w wielu badaniach, które pokazują wzrost pozytywnych uczuć związanych z korzystaniem z Internetu. Osoby z niepełnosprawnością fizyczną, wzroku i/lub słuchu zgłaszają lepsze samopoczucie i jakość życia podczas korzystania z Internetu. Starsi dorośli (którzy są bardziej narażeni na upośledzenie), którzy korzystają z Internetu, mają lepsze samopoczucie psychiczne i mniejsze ryzyko stanów depresyjnych. Nawet jeśli interakcje online odbywają się z profesjonalistami, osoby z wyniszczającymi chorobami psychicznymi uzyskują wymierną poprawę objawów, gdy szukają leczenia online, a nie osobiście.
Paradoksy technologii
Technologie informacyjno-komunikacyjne (ICT) odgrywają paradoksalną rolę w nierównościach cyfrowych dla osób niepełnosprawnych. Z jednej strony postęp technologiczny może prowadzić do innowacji, które oferują osobom niepełnosprawnym większe włączenie społeczne lub możliwość konstruowania alternatywnych przestrzeni zapewniających włączenie, którego brakuje w szerszym świecie. W dziedzinie zatrudnienia technologie informacyjno-komunikacyjne mogą zapewnić osobom niepełnosprawnym skuteczniejsze sposoby na bezpieczne zatrudnienie dzięki zwiększonemu kapitałowi społecznemu, tworzeniu treści i możliwościom komunikacyjnym, a także zdolności do pokonywania fizycznych barier w zatrudnieniu poprzez możliwość telepracy i "telepracy". Podobny potencjał istnieje w edukacji online. Idąc tym samym tropem, Internet przedmiotów oferuje więcej niż środek do większej wygody dla ogółu społeczeństwa; może służyć jako środek integracji osób niepełnosprawnych. Coraz częstsze korzystanie ze smartfonów, tabletów i innych urządzeń mobilnych może być korzystne dla osób z wieloma rodzajami niepełnosprawności, np. upośledzenie słuchu, mowy i intelektualne. Z drugiej strony nowe technologie nie są często opracowywane z myślą o PWD, a co za tym idzie są projektowane w sposób niedostępny. Następnie następuje opóźnienie, w którym rozwiązania dostępności są opracowywane po fakcie, czasami po tym, jak technologia, którą udostępniają, sama zbliża się do przestarzałości. W związku z tym często skupia się na dostępności modernizacji, a nie na uniwersalnym projektowaniu lub uniwersalnej użyteczności, w których produkty są tworzone tak, aby mogły być używane przez wszystkich od samego początku. Dodatkowe rozwiązania sprzętowe i programowe obejmują takie elementy, jak czytniki ekranu dla osób z upośledzeniem wzroku i programy zamiany mowy na tekst oraz inne alternatywne urządzenia wejściowe dla osób z upośledzeniem ruchowym. Modyfikowanie orientacji przez firmy może prowadzić do wielu innych problemów dla użytkowników niepełnosprawnych, w tym do wzrostu kosztów dodatków do technologii wspomagających, problemów ze zgodnością, gdy technologia wspomagająca stworzona dla jednej platformy nie działa na innej platformie oraz do utraty funkcjonalności, gdy technologia wspomagająca jest używany.
Polityka
Zmiany w polityce rządu i biznesu są kluczem do poprawy dostępności ICT dla osób niepełnosprawnych. W Stanach Zjednoczonych poprawka z 1998 r. do sekcji 508 ustawy Workforce Rehabilitation Act, która została przyjęta przez Kongres i podpisana przez prezydenta Clintona, nakłada na agencje federalne obowiązek zapewnienia dostępu do technologii informacyjno-komunikacyjnych niepełnosprawnym pracownikom i członkom społeczeństwa. Pomimo tych przepisów badania udokumentowały problemy z dostępnością na stronach internetowych rządu federalnego. Ponadto przedsiębiorstwa prywatne nie są objęte tym rozporządzeniem. Ustawa o osobach niepełnosprawnych obejmuje dostępność "miejsc publicznych" i została zastosowana do organizacji, które mają zarówno lokalizacje stacjonarne, jak i strony internetowe, ale podmioty działające wyłącznie w Internecie nie zostały wyraźnie uznane za objęte tym przepisem. W lipcu 2010 roku Departament Sprawiedliwości USA wydał zarządzenie ,Zaawansowane zawiadomienie o proponowanych przepisach stwierdzające, że zamierza zmienić przepisy Ustawy o niepełnosprawnych Amerykanach, aby uwzględnić wytyczne dla niektórych prywatnych witryn internetowych. Publikacja regulaminu po wielu opóźnieniach nadal nie została wydana. Międzynarodowe standardy dostępności ICT można znaleźć w wytycznych World Wide Web Consortium dotyczących dostępności treści internetowych (W3C, 2008). Wytyczne były krytykowane za niewystarczające uwzględnienie potrzeb osób z niektórymi rodzajami niepełnosprawności, na przykład z niektórymi niepełnosprawnościami intelektualnymi. Ponadto, biorąc pod uwagę, że standardy są dobrowolne, ich wdrażanie może być problematyczne i nierówne. Firmy bardzo różnią się pod względem dbałości o dostępność swoich produktów i portali internetowych. Nawet jeśli ci, którzy je projektują, uznają dostępność za ważną, wyzwaniem może być zapewnienie szkoleń i edukacji, zasobów oraz biznesowego imperatywu uwzględnienia dostępności na samym początku. Chociaż może nie poświęca się jej tyle uwagi, co innym statusom społecznym, niepełnosprawność jest coraz ważniejszym miejscem nierówności społecznych i cyfrowych. Wraz ze starzeniem się populacji w wielu krajach większa część populacji będzie musiała stawić czoła upośledzeniu. W związku z tym osoby odpowiedzialne za zarządzanie i konsekwencje tych zmian, a także osoby, które zatrudniają i wytwarzają produkty używane przez te osoby, mają obowiązek zwracać uwagę na ich preferencje i potrzeby. Takie postępowanie sprawiłoby, że dostępność w sferze cyfrowej i poza nią znalazłaby się na pierwszym planie, czyniąc z niej istotną cechę wszystkich decyzji politycznych i biznesowych.
Podczas gdy niektóre podziały cyfrowe (np. płeć w Stanach Zjednoczonych) znacznie się zmniejszyły, a nawet odwróciły od lat 90. XX wieku, te, które można przypisać przynależności do grup rasowych i etnicznych, utrzymują się. W Stanach Zjednoczonych pierwsi użytkownicy Internetu byli przeważnie biali. Chociaż różne analizy danych zebranych od około 2007 do 2013 roku pokazują, że mniejszości rasowe i etniczne uzyskały dostęp do Internetu, nadal pozostają w tyle za białymi. Badania mniejszości rasowych i etnicznych w Stanach Zjednoczonych w dużej mierze koncentrują się na czarnych i Latynosach w porównaniu z białymi. Jeśli dostępni są respondenci z innych ras lub grup etnicznych, można ich przypisać do kategorii "Inne", ponieważ stanowią stosunkowo mniejszy odsetek respondentów w badaniu. Oznacza to, że jest stosunkowo mało informacji na temat innych grup mniejszości rasowych i etnicznych w Stanach Zjednoczonych poza Czarnymi i Latynosami. Istnieją jednak badania dotyczące innych mniejszości rasowych i etnicznych, które ogólnie stwierdzają, że na przykład wskaźniki dostępu do Internetu i korzystania z niego przez Azjatów są podobne do wskaźników białych. Inne badania, które są wyjątkami od ogólnego trendu, badają aspekty etniczności poza powszechnie używanymi wskaźnikami przynależności kategorycznej. W badaniu analizującym trendy w Stanach Zjednoczonych w latach 1997-2003 Hiroshi Ono i Madeline Zavodny stwierdzili, że różnice w używaniu między imigrantami a tubylcami, niezależnie od ich przynależności rasowej lub etnicznej, w rzeczywistości pogłębiły się w tym okresie. Przypisywali tę różnicę słabszym umiejętnościom anglojęzycznym imigrantów. Ogólnie rzecz biorąc, wciąż pozostaje wiele do nauczenia się na temat wzorców podziałów rasowych i etnicznych w Stanach Zjednoczonych. Wiele wczesnych badań nad przepaściami cyfrowymi koncentrowało się na Stanach Zjednoczonych, z większym uznaniem obecności przepaści w innych krajach na przełomie XXI i XXI wieku. Cyfrowe podziały ze względu na rasę i pochodzenie etniczne istnieją również w tych innych krajach. Z nielicznymi wyjątkami mniejszości rasowe i etniczne danego kraju pozostają w tyle za grupami większościowymi pod względem dostępu do Internetu i korzystania z niego. Ten wpis analizuje podziały pod względem dostępu i użytkowania, bada przyczyny utrzymywania się podziałów cyfrowych oraz analizuje zarówno badania, jak i politykę społeczną dotyczącą przepaści cyfrowych.
Dzieli dostęp i użytkowanie
Samo uzyskanie dostępu do Internetu i innych technologii informacyjno-komunikacyjnych nie wyrównuje szans, ponieważ korzystanie z nich jest dynamiczne i może się różnić w zależności od osoby, co jest przedmiotem wielu badań analizujących podziały rasowe i etniczne w użytkowaniu. Ogólnie rzecz biorąc, badania pokazują, że te same mniejszości rasowe i etniczne, które pozostają w tyle za grupami większościowymi pod względem dostępu, również pozostają w tyle pod względem używania, ale zdarzają się odstępstwa od trendu. Jednym z takich odstępstw jest korzystanie z Twittera, utworzonego w 2006 roku serwisu mikroblogowego, który umożliwia użytkownikom publikowanie postów odpowiadających na pytanie "Co robisz?" które są następnie transmitowane do innych użytkowników usługi. Tradycyjnie posty - zwane tweetami - nie mogą być dłuższe niż 140 znaków. Osoby fizyczne mogą również używać hashtagów, czyli znaku krzyżyka (#), po którym bezpośrednio następuje ciąg znaków poprzedzony w tweetach, aby oznaczyć znacznik tematyczny, sposób dodania kontekstu lub główną ideę, którą inni użytkownicy mogą zobaczyć i zaakceptować . Platforma daje użytkownikom możliwość wprowadzenia hashtagów, które stają się popularnymi tematami, śledzenia ich aktualnych zainteresowań (np. wiadomości rozrywkowych) oraz śledzenia celebrytów, którzy są członkami Twittera (np. Oprah Winfrey). Do korzystania z Twittera nie jest potrzebne połączenie z Internetem, a jedynie urządzenie mobilne (telefon komórkowy lub tablet). To sprawia, że platforma jest niemal równie popularna w krajach rozwijających się i rozwiniętych, mimo że istnieje duża dysproporcja w dostępie do Internetu między tymi dwoma typami krajów. Z podobnych powodów wyjątkiem od podziału rasowego i etnicznego w Stanach Zjednoczonych jest korzystanie z Twittera. Eszter Hargittai i Eden Litt odkryli w swoim badaniu z 2011 r., że czarni najczęściej korzystali z Twittera (37,2%), następnie biali (20,8%), następnie Azjaci (13,7%), a na końcu Latynosi / Latynosi (10,1%). Te procenty trochę się zmieniają z badaniem Maeve Duggan i Joanny Brenner z 2013 r., w którym wykorzystano dane Pew Research Center, aby stwierdzić, że 26% i 19% użytkowników Twittera w Stanach Zjednoczonych to odpowiednio Czarni i Latynosi, w porównaniu z białymi na poziomie 14%. Twitter działa jako przestrzeń cyfrowa służąca bardzo konkretnym celom grup marginalizowanych, takich jak mniejszości rasowe i etniczne. Hargittai i Litt twierdzili, że czarni częściej niż biali dołączają do Twittera, aby otrzymywać wiadomości o celebrytach i rozrywce. Czasami Twitter działa również jako środek do mobilizowania oporu i kultywowania zbiorowej przestrzeni cyfrowej dla zmarginalizowanych grup rasowych i etnicznych, być może również przyczyniając się do jego popularności wśród tych grup w Stanach Zjednoczonych w celu powstrzymania deportacji nieudokumentowanych młodych ludzi (poniżej 16 roku życia ), którzy ostatecznie uczęszczali do college'u lub wstąpili do wojska; cztery nieudokumentowane osoby korzystały z serwisów mikroblogowych, takich jak Twitter, aby udokumentować swoją wyprawę do Waszyngtonu, aby opowiadać się za uchwaleniem ustawy DREAM Act (ustawa o rozwoju, pomocy i edukacji dla nieletnich cudzoziemców). Połączyli taktykę protestów offline i online, aby zwrócić uwagę na problem społeczny i przewidzieć go. Inne zastosowania polegają na hashtagach, które łączą doświadczenia i wsparcie dla zmarginalizowanych grup rasowych i etnicznych. W 2015 roku Estee Hernández wezwała doktorantów Latynosów do używania hashtagów na Twitterze w celu zbierania wiadomości, rozwijania społeczności cyfrowej oraz wspierania Latynosów/Latynosów i innych marginalizowanych grup, aby przeciwdziałać ich potencjalnie niewygodnemu dopasowaniu do zdominowanych przez białych mężczyzn wydziałów akademickich. Jak pokazuje Hernández, hashtagi mogą być używane przez mniejszości rasowe i etniczne do cyfrowego gromadzenia się, zwracania się i omawiania ważnych dla nich tematów. Hashtag #MyAsianAmericanStory został opracowany w podobny sposób nawiązać dialog, w ramach którego Azjaci mogliby wspólnie rzucić światło na swoje życie i doświadczenia za pośrednictwem Twittera w odpowiedzi na to, że Jeb Bush nazwał Azjatów "dziećmi z kotwicy", co uznano za równie lekceważące, jak użycie słowa "obcy" lub "nielegalny". Czarni wyrzeźbili również przestrzeń dla społeczności i oporu w tworzeniu i używaniu "Czarnego Twittera", w którym rozwijane są hashtagi wokół dominujących kulturowo tematów, które są omawiane i docierają do szerokiej dyskusji. Jednym z wyróżniających się przykładów linków do Czarnego Twittera jest użycie hashtagu #BlackLivesMatter, który został opracowany w 2013 r., aby pokazać potrzebę powstrzymania urasowionej dewaluacji życia. W ten sposób mniejszości rasowe i etniczne, które przyjęły platformę Twittera, mogą w rzeczywistości używać narzędzi cyfrowych, takich jak hashtagi, do gromadzenia i komunikowania się z podobnymi ludźmi, jednocześnie narażając odmienne osoby na tematy rasowe i kulturowe. Z Twittera i innych portali społecznościowych korzystają również uczniowie z krajów takich jak Chiny, Indie i Hiszpania, uczęszczający do szkół w Stanach Zjednoczonych, aby lepiej zakorzenić się w kulturze USA, utrzymując więzi i komunikację z krajami pochodzenia. Wychodząc poza granice Stanów Zjednoczonych, raport Pew Research Center z 2015 roku ujawnił, że 86% użytkowników Internetu w krajach rozwijających się i wschodzących (np. Filipiny, Kenia, Wenezuela) korzysta z platform społecznościowych, takich jak Twitter. Średnia liczba użytkowników sieci społecznościowych w tych krajach rozwijających się i wschodzących korzystała z serwisów takich jak Twitter, aby dzielić się swoimi poglądami na temat muzyki i filmów (72%), sportu (56%), używanych produktów (37%), polityki (34%) i religii (30%). Sposobem na zrozumienie wyjątku Twittera od podziału rasowego i etnicznego jest rozważenie, że jest to jeden z przykładów szerszej kategorii tworzenia treści online, która obejmuje nie tylko działania takie jak korzystanie z Twittera, ale także inne działania, takie jak blogowanie i przesyłanie osobistych zdjęć lub wideo. Badania badające wzorce w tej szerszej kategorii również stwierdzają brak lub odwrócenie podziału. Badając szeroki wachlarz danych z kilku krajów, David Brake odkrył, że różnice w tworzeniu treści online obejmują wiek, wykształcenie i dochody. Jeśli chodzi o rasę i pochodzenie etniczne, pierwsi użytkownicy na ogół pochodzili z grup większościowych, ale ogólnie wskaźniki aktywności były porównywalne między grupami mniejszościowymi i większościowymi, a czasami nawet faworyzowały grupy mniejszościowe. W 2013 roku Grant Blank uzyskał podobne wyniki, porównując tworzenie treści online między grupami mniejszościowymi i większościowymi na próbie brytyjskiej.
Skrzyżowania z rasą i pochodzeniem etnicznym
W ramach grup rasowych i etnicznych istnieją dodatkowe podziały według innych wskaźników demograficznych, takich jak wiek i płeć. Różnice w posiadaniu komputerów i dostępie do Internetu między dwiema grupami mniejszościowymi - Czarnymi i Latynosami/Latynosami - a białą większością w Stanach Zjednoczonych są znacznie większe wśród dzieci niż wśród dorosłych. Wśród osób starszych - osób w wieku 50 lat lub starszych - różnice rasowe i etniczne w dostępie do Internetu są stałe niezależnie od wieku. To samo badanie wykazało jednak, że luki te zwiększały się wraz z wiekiem, gdy badano wskaźniki dostępu do serwisów społecznościowych. Ten ostatni trend można interpretować na dwa sposoby. Po pierwsze, różnice rasowe w użytkowaniu, przynajmniej w odniesieniu do korzystania z portali społecznościowych, mogą się pogłębiać wraz ze starzeniem się populacji. Alternatywnie, te podziały w użytkowaniu mogą być tylko pokoleniowe i mogą zniknąć w kolejnych kohortach populacji. Potrzebne są dalsze badania, aby śledzić stopień, w jakim występuje jedno lub oba. Analiza trendów w dostępie do Internetu w latach 2007-2012 w Stanach Zjednoczonych daje wgląd w to, jak płeć przecina się z trzema grupami rasowymi i etnicznymi: (1) czarnymi, (2) Latynosami/Latynosami i (3) białymi. W 2007 roku czarnoskórzy mieli najniższy dostęp do internetu spośród wszystkich badanych grup. Analiza wykazała również, że podział ze względu na płeć w 2012 r. - który generalnie faworyzował mężczyzn we wczesnych latach Internetu - występował tylko wśród białych, a nie wśród czarnych czy Latynosów/Latynosów. Brak podziału na płeć wśród Murzynów w 2012 roku wynikał z faktu, że dostęp czarnoskórych mężczyzn do Internetu znacznie wzrósł w ciągu 5-letniego okresu objętego analizą.
Przyczyny utrzymywania się podziałów rasowych i etnicznych
Jednym z ważnych powodów utrzymywania się podziałów rasowych i etnicznych jest to, że podziały te są wynikiem głęboko zakorzenionych różnic ekonomicznych między grupami rasowymi i etnicznymi. Na przykład brak komputera w domu jest często głównym powodem, dla którego grupy mniejszościowe w różnych krajach nie są w stanie uzyskać dostępu do Internetu i konsekwentnie z niego korzystać. W podobny sposób różnice w dochodach również przynajmniej częściowo wyjaśniają niektóre różnice w dostępie. Jednak nawet po uwzględnieniu tych barier finansowych inne badania wykazały, że podziały rasowe i etniczne pozostają, co skłoniło badaczy do poszukiwania dodatkowych przyczyn. Inne badania koncentrują się na różnicach w kapitale ludzkim, na przykład wynikających z różnic w poziomie wykształcenia. W omówionym wcześniej badaniu zastosowano porównywalną logikę. Ono i Zavodny stwierdzili, że różnice w dostępie do Internetu między imigrantami a tubylcami w Stanach Zjednoczonych były w dużej mierze spowodowane różnicami w umieję
tności mówienia po angielsku. Badacze zajmujący się nierównością cyfrową coraz częściej dostrzegają, że szeroko rozumiana lokalizacja społeczna wpływa na dostęp do Internetu i korzystanie z niego. Odwołują się do koncepcji habitus Pierre′a Bourdieu, aby dokładniej wyjaśnić, w jaki sposób społeczne warunki strukturalne wpływają na korzystanie z Internetu i postawy wobec niego. Habitus jest zbiorem dyspozycji, które ukierunkowują jednostki na określone praktyki i gusta w oparciu o doświadczenia życiowe, w szczególności pozycje społeczno-ekonomiczne. Dostęp i korzystanie z technologii informacyjno-komunikacyjnych przez mniejszości rasowe i etniczne jest częściowo uzależnione od posiadania przez nie warunków strukturalnych (konfiguracja rasowa i status społeczno-ekonomiczny) sprzyjających kontaktowi z tymi technologiami oraz habitusu, który będzie ich ukierunkowywał na korzystanie z technologii. Zatem bez habitusu, który zapewnia mniejszościom rasowym upodobanie do korzystania z technologii i praktyk, które pozwalają na korzystanie z technologii informacyjnych i komunikacyjnych, ich działania mogą nieumyślnie jeszcze bardziej przyczynić się do podziału rasowego. Warunkiem strukturalnym, który przyczynia się do różnicowania doświadczeń, są doświadczenia zawodowe. Zróżnicowane przyporządkowanie do zawodów może wyjaśniać utrzymywanie się podziałów ze względu na rasę i pochodzenie etniczne, ponieważ doświadczenia zawodowe przyczyniają się do indywidualnych różnic w orientacji na technologie informacyjne i komunikacyjne. Członkowie grup większościowych częściej niż członkowie mniejszości częściej wykonują zawody, które narażają ich na kontakt z komputerami i Internetem, co rodzi pozytywne nastawienie do tych technologii. Niektóre osoby mogą nie mieć dostępu do Internetu nie z powodu braku zasobów ekonomicznych, ale dlatego, że po prostu nie chcą mieć do niego dostępu (tj. "niepotrzebne informacje"). Nierówność terytorialna to kolejne podejście do zrozumienia, w jaki sposób warunki strukturalne przyczyniają się do przepaści cyfrowej. Ponieważ mniejszości rasowe i etniczne częściej mieszkają w dzielnicach o słabych zasobach i odseparowanych od białych, nadal pozostają w tyle za białymi pod względem dostępu i użytkowania. Istnieją również istotne różnice w sposobie, w jaki grupy rasowe i etniczne uzyskują dostęp do Internetu, co z kolei może przyczyniać się do powstawania podziałów. Brak dostępu do komputera w domu iw pracy sprawia, że zasoby na poziomie społeczności są ważniejsze dla mniejszości rasowych i etnicznych niż dla białych. Inni mogą mieć zasoby ekonomiczne, ale nie zasoby społeczne, co implikuje strukturę sieci jednostki, jak również jej strukturalną lokalizację w sieci jako przyczynę przepaści cyfrowej. Osoby mają tendencję do posiadania w swoich sieciach osób podobnych do siebie, co określa się mianem uprzedzeń homofilnych. W przypadku adopcji Internetu przekłada się to na to, że ktoś, kto nie ma dostępu do Internetu, jest bardziej skłonny do posiadania w swojej sieci społecznościowej osób, które również nie mają dostępu do Internetu, niż osób, które mają dostęp. W konsekwencji jest mało prawdopodobne, aby osoby w sieci osoby, która nie ma dostępu do Internetu, nie zachęciły jej do jego adopcji. Jest to bardziej prawdopodobne w przypadku czarnych niż białych w Stanach Zjednoczonych, co sprawia, że uprzedzenia homofilne stanowią barierę w zmniejszaniu luki w dostępie do Internetu między tymi dwiema grupami. Podobnie, chociaż nie jest to przedmiotem jej badań, wzorce w ustaleniach Wenhong Chen sugerują, że czarni w Stanach Zjednoczonych mają niższy wskaźnik dostępu do Internetu niż biali, częściowo dlatego, że mają również dostęp do mniej bogatych zasobów za pośrednictwem swoich sieci społecznościowych niż biali. Żaden pojedynczy powód jasno nie wyjaśnia utrzymywania się tych podziałów. Mniejszości rasowe i etniczne znajdują się w niekorzystnej sytuacji, jeśli chodzi o dostęp do Internetu i korzystanie z niego z wielu powodów, które często wzajemnie się wzmacniają. Fakt, że przyczyny te są ze sobą nierozerwalnie związane, prawdopodobnie przyczynia się do utrzymywania się podziałów.
Uwagi dotyczące czytania badań naukowych
Czytając badania analizujące różnice w użyciu, często określane jako drugi poziom przepaści cyfrowej, ważne jest, aby zastanowić się, w jaki sposób błąd selekcji może wpływać na wyniki. Ogólnie rzecz biorąc, jest nieprawdopodobne, aby badacze zadawali pytania wszystkim. Błąd selekcji występuje wtedy, gdy cecha respondentów prowadzi do włączenia ich do próby, której zadaje się pytania, i ta sama cecha jest związana z wynikiem zainteresowania, w tym przypadku użyciem. Badania, w których pyta się internautów o to, jak z niego korzystają, zadają pytanie tylko tym osobom, które odpowiedziały twierdząco na wstępne pytanie, czy mają dostęp do internetu. Zaletą tej praktyki jest to, że badacze nie chcą przeciążać respondentów pytaniami, które ich nie dotyczą. Istnieje jednak kilka ważnych punktów, które należy wziąć pod uwagę przy interpretacji tych badań. Biorąc pod uwagę badania nad przepaścią cyfrową w dostępie, prawdopodobne jest, że znacznie mniej mniejszości rasowych i etnicznych jest pytanych o użytkowanie niż o dostęp. Co więcej, mniejszości, którym zadaje się pytania dotyczące używania, prawdopodobnie znacznie różnią się od szerszej populacji mniejszości, ponieważ przezwyciężyły szereg czynników opisanych wcześniej, które podtrzymują podziały w dostępie ze względu na rasę i pochodzenie etniczne. Mogą na przykład częściej niż przeciętna mniejszość rasowa i etniczna w szerszej populacji mieszkać w dzielnicach o korzystnych zasobach lub wykonywać zawody, które kultywują pozytywne nastawienie do technologii komputerowej. W związku z tym interpretacje badań nad użytkowaniem powinny być ostrożne i nie zakładać, że obserwowane wzorce byłyby widoczne, gdyby szersza populacja mniejszości uzyskała dostęp do Internetu. Innym ważnym punktem, o którym należy pomyśleć podczas czytania i oceny badań, jest sposób pomiaru rasy i pochodzenia etnicznego w badaniu, co jest pouczające przy podejmowaniu decyzji, w jakim stopniu wyniki odzwierciedlają szerszą populację. Konstrukcja niektórych ankiet może nie pozwalać na kompleksową ocenę heterogeniczności w ramach jednej grupy. Na przykład ankiety wykorzystane w niektórych badaniach w Stanach Zjednoczonych. Stany były niedostępne w języku hiszpańskim, co ogranicza możliwość badania wzorców internetowych wśród hiszpańskojęzycznych Latynosów/Latynosów. Co więcej, bardzo niewiele badań, w których badano Latynosów/Latynosów, ma wystarczająco duże rozmiary próbek, które pozwalają na dezagregację tej grupy etnicznej w ich kraju pochodzenia.
Uwagi dotyczące polityki społecznej
Wraz z początkowym wzrostem adopcji i wykorzystania Internetu pojawiły się konkurencyjne spekulacje, że Internet może niwelować lub pogłębiać istniejące podziały, co jest ważnym punktem do rozważenia przy projektowaniu, ocenie i wdrażaniu polityki społecznej. W miarę jak usługi z wielu sektorów - nastawione na zysk, organizacje non-profit i instytucje rządowe - w coraz większym stopniu przechodzą na formaty online, możliwość zrozumienia i śledzenia różnic cyfrowych będzie nadal zyskiwać na znaczeniu. Te współczesne trendy w kierunku digitalizacji usług są tak ważne dla zrozumienia, że niektórzy sugerują, aby przepaść cyfrową rozpatrywać wzdłuż innych tradycyjnych osi różnic, takich jak rasa i pochodzenie etniczne, płeć i klasa. Rozważmy jako przykład polityki społecznej zachęty finansowe zapewniane w Stanach Zjednoczonych, aby zachęcić do zastąpienia dokumentacji medycznej w formie papierowej formatami komputerowymi. Te zachęty są sposobami zachęcania pacjentów do elektronicznego dostępu do ich osobistych informacji zdrowotnych zawartych w dokumentacji, z oczekiwaniem, że takie zachowanie poprawi dostępność i jakość opieki zdrowotnej. Ponieważ mniejszości rasowe i etniczne generalnie doświadczają większych barier w dostępie do opieki zdrowotnej i częściej otrzymują suboptymalną opiekę niż biali w Stanach Zjednoczonych, ta innowacja ma na celu wyrównanie dysproporcji w opiece zdrowotnej i ogólnym stanie zdrowia. Jednak jak to możliwe biorąc pod uwagę rasowe i etniczne przepaści cyfrowe? Wiele z powyższych punktów ma znaczenie dla oceny tej polityki zdrowotnej. Podczas gdy nacisk kładziony jest tutaj na Stany Zjednoczone, inne kraje, takie jak Francja i Wielka Brytania, a także kraje rozwijające się, takie jak Indie, również dążą do skomputeryzowania dokumentacji medycznej. Kwestią do rozważenia jest to, czy korzystanie z technologii doprowadzi do powstania przepaści cyfrowej ze względu na rasę i pochodzenie etniczne, takiej jak w przypadku dostępu. Ogólny trend w literaturze sugeruje, że należy się spodziewać, że mniejszości rasowe i etniczne będą mniej skłonne niż biali do korzystania z tej nowej technologii w opiece zdrowotnej. Przeglądy pacjentów, którzy uzyskują elektroniczny dostęp do swoich osobistych informacji zdrowotnych zawartych w dokumentacji medycznej, pokazują, że tak jest. Mówiąc inaczej, ogólna tendencja sugeruje, że polityka, która opiera się na dostępie do cyfrowych technologii informacyjnych i korzystaniu z nich, jak ma to miejsce w amerykańskiej opiece zdrowotnej, może powielać lub powiększać istniejące przepaści rasowe i etniczne, takie jak dysproporcje w zdrowiu i opiece zdrowotnej. Pomimo bezpośrednich dowodów, które sugerują coś innego, inne podejście do polityki, takie jak ta, prezentuje bardziej optymistyczne spojrzenie, oparte na dowodach, że mniejszości rasowe i etniczne mogą w rzeczywistości odnieść większe korzyści z takiej polityki niż członkowie grup większościowych. Na przykład jedno z badań wykazało, że czarnoskóra młodzież z klasy średniej polega na Internecie, aby przezwyciężyć deficyty w swoich mniej uprzywilejowanych, odizolowanych dzielnicach w Chicago w stanie Illinois. Mniejszości mogą również wykorzystywać Internet do zwiększania dostępu do osób z innych grup rasowych i etnicznych, co zakłóciłoby niekorzystne dla nich procesy homofilii. Istnieją pośrednie dowody na to, że polityka informatyzacji dokumentacji medycznej i oferowania pacjentom elektronicznego dostępu może być korzystna dla mniejszości rasowych i etnicznych. Osoby te często uzyskują dostęp online do informacji - takich jak informacje o stanie zdrowia - które w innym przypadku nie byłyby dla nich dostępne w sieciach społecznościowych offline. Sposoby, w jakie mniejszości uzyskują dostęp do Internetu i ich działania w nim, również wskazują na potencjał wykorzystania Internetu do niwelowania różnic. Na przykład niektórzy analitycy polityki opieki zdrowotnej sugerują, że ponieważ mniejszości rasowe i etniczne w Stanach Zjednoczonych częściej niż biali mają dostęp do Internetu za pośrednictwem smartfonów, sugeruje to potencjał wykorzystania aplikacji mobilnych w celu dotarcia do tej niedostatecznie obsługiwanej populacji. W związku z tym zaoferowanie pacjentom możliwości elektronicznego dostępu do ich danych osobowych zawartych w rejestrze za pośrednictwem aplikacji mobilnej może stłumić powstawanie przepaści cyfrowej. Innymi słowy, rosnące znaczenie Internetu może zniwelować dysproporcje między mniejszościowymi i większościowymi grupami rasowymi i etnicznymi w zakresie zdrowia i opieki zdrowotnej. Jednak ta perspektywa musi uwzględniać podniesioną wcześniej kwestię błędu selekcji w badaniach nad użytkowaniem, co może prowadzić do zbyt optymistycznych oczekiwań. Przepaści cyfrowe w dostępie i korzystaniu z technologii informacyjno-komunikacyjnych ze względu na rasę i pochodzenie etniczne należą do najbardziej trwałych. Śledzenie podziałów w nadgodzinach będzie miało kluczowe znaczenie dla monitorowania implikacji rosnącego znaczenia Internetu w wielu dziedzinach. Tendencje mogą albo poprawić, albo przyczynić się do niedogodności, z którymi borykają się już mniejszości rasowe i etniczne. Istnieją również ważne kwestie metodologiczne, które należy wziąć pod uwagę podczas śledzenia tych podziałów.
Badania pokazują, że kobiety w krajach rozwijających się zazwyczaj mają niższy wskaźnik uczestnictwa w technologiach niż mężczyźni. Jest to po części wynikiem głęboko zakorzenionych społeczno-kulturowych postaw dotyczących roli kobiet w społeczeństwie. Ten wpis zawiera przegląd przepaści cyfrowej ze względu na płeć, ze szczególnym uwzględnieniem wyzwań stojących przed kobietami w krajach rozwijających się w zakresie dostępu do świata online i uczestnictwa w nim.
Definiowanie przepaści cyfrowej
Przepaść cyfrowa została zdefiniowana zarówno jako luka w umiejętnościach, jak i luka w fizycznym dostępie do technologii informacyjnej, a te dwie luki mogą wzajemnie na siebie oddziaływać w przyczynowości okrężnej. Jeden potrzebuje dostępu technologii w celu rozwijania umiejętności technicznych, a jednak dostęp do technologii bez umiejętności korzystania z niej jest bezcelowy. Ponad dwie dekady temu pozorne nierówności w dostępie do Internetu budziły obawy, że technologia może w rzeczywistości zaostrzyć nierówność. W rezultacie naukowcy zaczęli koncentrować się na luce między tymi, którzy mają dostęp do technologii informacyjnej, a tymi, którzy go nie mają. Zdaniem naukowców, istnieją cztery czynniki regulujące dostęp do zasobów cyfrowych:
1. Dostęp psychologiczny, gdy użytkownik jest mało zainteresowany uzyskaniem dostępu lub ma negatywny stosunek do technologii
2. Dostęp materialny, który wiąże się z posiadaniem infrastruktury fizycznej
3. Dostęp do umiejętności, w przypadku gdy użytkownik nie posiada umiejętności korzystania z technologii cyfrowych, aby skutecznie działać w Internecie
4. Dostęp do użytkowania, gdy dana osoba nie ma czasu ani możliwości dostępu do informacji cyfrowych, niezależnie od poziomu umiejętności
Oprócz teoretyków "posiadających i nieposiadających", wysunięto inne hipotezy wyjaśniające przepaść cyfrową ze względu na płeć. Hipoteza luki w wiedzy sugeruje, że osoby o wysokim statusie społeczno-ekonomicznym mają przewagę, ponieważ jako pierwsze dowiadują się o nowych źródłach informacji i mogą pozwolić sobie na dostęp do nich, gdy są nowe. Z drugiej strony teoretycy definicji celu biorą pod uwagę zmienne, takie jak autonomia użytkowania, wsparcie społeczne i powody korzystania z Internetu, aby wyjaśnić podział. W każdej z tych definicji przepaść cyfrowa jest rozumiana jako brak umiejętności technicznych i/lub fizyczne ograniczenie dostępu. Początkowo termin dostęp odnosił się do tego, czy dana osoba może łączyć się z Internetem, ale później stał się synonimem używania. W tamtych czasach możliwości i wybór były ze sobą powiązane, ponieważ badania wykazały, że więcej osób miało dostęp do Internetu niż tych, którzy z niego korzystali. Jest to szczególnie prawdziwe w krajach rozwijających się, gdzie dostęp do technologii informacyjno-komunikacyjnych (ICT) utrwala lub wzmacnia nierówności płci.
Nierówności społeczne, z jakimi borykają się kobiety w krajach rozwijających się
Kraje rozwijające się to te o niższym średnim poziomie życia i niskim wskaźniku rozwoju społecznego w porównaniu z innymi krajami. W przeciwieństwie do krajów uprzemysłowionych, w których dostęp kobiet do Internetu i korzystanie z niego często przewyższa mężczyzn, w krajach rozwijających się dominuje przepaść cyfrowa ze względu na płeć. Większość kobiet (szacunkowo 4 na 5) mieszka w krajach rozwijających się i często doświadcza większej dyskryminacji ze względu na płeć niż kobiety w krajach rozwiniętych; są bardziej narażeni na bezrobocie i mają mniejsze możliwości zatrudnienia i edukacji. Statystyki ONZ wskazują, że 60% kobiet w krajach rozwijających się często nie posiada umiejętności cyfrowych, aby móc wykonywać inne zawody. Sposób, w jaki definiowane są role kobiet, może również przyczynić się do tego, dlaczego kobiety nie wykorzystują w wystarczającym stopniu technologii. Na przykład w południowych Indiach kobiety są definiowane jako źródło wsparcia dla ich rodzin, podczas gdy w Ghanie tradycyjne role płciowe zmuszają nieproporcjonalną liczbę kobiet do pracy w sektorze nieformalnym, gdzie możliwości dostępu do technologii cyfrowych są ograniczone. Odsetek kobiet korzystających z Internetu pozostaje w tyle za odsetkiem mężczyzn korzystających z Internetu we wszystkich grupach wiekowych. Godnym uwagi wyjątkiem są wykształcone kobiety w krajach rozwijających się, które podobno korzystają z Internetu równie często jak mężczyźni. Badania nad przepaścią cyfrową ze względu na płeć w sześciu krajach frankofońskich w Afryce Zachodniej (Benin, Burkina Faso, Kamerun, Mali, Mauretania i Senegal) nie ujawniły różnic między płciami w zakresie łączności lub korzystania wśród kobiet z wykształceniem na poziomie szkoły średniej i wyższych. Edukacja jest potężnym narzędziem w walce z przepaścią cyfrową ze względu na płeć, ponieważ rozpowszechnianie i korzystanie z technologii cyfrowych ma tendencję do podążania za istniejącymi konturami podziałów dochodowych i ekonomicznych, przy czym ubodzy są marginalizowani lub wykluczani.
Dostęp do Internetu dla kobiet w krajach rozwijających się
W ostatnich dziesięcioleciach ICT stały się niezastąpionym narzędziem w społeczeństwie, a dla wielu osób łączność cyfrowa jest integralną częścią codziennego życia. Niewiele statystyk dotyczących płci i korzystania z ICT są dostępne, ponieważ wiele rządów nie gromadzi statystyk ICT, a jeśli to robią, rzadko są one segregowane według płci. Indeks możliwości cyfrowych ma na celu śledzenie postępów w niwelowaniu przepaści cyfrowej poprzez ocenę infrastruktury na podstawie danych gospodarstw domowych. Jednak Cyfrowy Wskaźnik Możliwości zakłada równy dostęp dla wszystkich członków gospodarstwa domowego, ignorując niektóre podstawowe ograniczenia dostępu i korzystania z ICT dla wielu kobiet. Dlatego trudno jest określić zakres przepaści cyfrowej ze względu na płeć w krajach rozwijających się ze względu na brak rozróżnienia między możliwościami dostępu a faktycznym korzystaniem z Internetu w istniejących badaniach. Badania, które próbowały zająć się Internetem w szczególności odkryli, że kobiety w krajach rozwijających się rzadziej korzystają z Internetu niż mężczyźni: kobiety stanowią 25% lub mniej użytkowników Internetu w Afryce, 22% w Azji, 38% w Ameryce Łacińskiej i zaledwie 6% na Bliskim Wschodzie . Ponadto mniej niż 10% użytkowników Internetu w Gwinei i Dżibuti to kobiety, mniej niż 20% w Nepalu i mniej niż 25% w Indiach. Około 20% użytkowników w Grecji i 25% w Portugalii to kobiety. Podobnie firma Intel przeprowadziła badanie, które wykazało, że 25% kobiet w krajach rozwijających się nie ma dostępu do Internetu, a liczba ta wzrosła do 45% w Afryce Subsaharyjskiej. Istnieją dwa czynniki, które wpływają na to, czy kobiety mogą uzyskać dostęp do Internetu: (1) dostępność i (2) przystępność cenowa. W krajach rozwijających się połączenie internetowe może kosztować nawet 40% dochodu na mieszkańca, w porównaniu z 1,7% w bogatszych krajach. Chociaż bariery dotyczą obu płci, przeszkadzają kobietom bardziej niż mężczyznom, ponieważ inne przeszkody kulturowe potencjalnie potęgują problem. Na przykład kawiarenki internetowe oferują sposób na dostęp do Internetu, ale często są niepraktyczne dla kobiet, które nie mogą opuścić domu z powodów religijnych i kulturowych i/lub ponieważ są onieśmielające dla kobiet z powodu postrzeganego braku wiedzy technicznej lub poczucia wspólnoty niepożądany.
Bariery w dostępie do Internetu dla kobiet w krajach rozwijających się
Wykluczenie z edukacji technologicznej i projektowania
Dostęp do edukacji stanowi większą barierę dla kobiet niż dla mężczyzn, ponieważ około dwie trzecie światowej populacji analfabetów to kobiety. W krajach rozwijających się 75% kobiet posiada umiejętność czytania i pisania w porównaniu z 88% mężczyzn. Jednak w Indiach 51% kobiet potrafi czytać i pisać w porównaniu z 75% mężczyzn, a bez tej podstawowej umiejętności Internet i korzyści płynące ze świata online pozostaną poza zasięgiem. Co więcej, 90% treści online jest w języku angielskim, ale tylko jedna trzecia użytkowników na całym świecie posługuje się nim. Może to stwarzać bariery dla osób nie mówiących po angielsku, z których wiele to kobiety mieszkające na obszarach wiejskich i oddalonych.
Ograniczony czas wolny
Kobiety ponoszą nieproporcjonalny ciężar obowiązków domowych i rodzinnych, co zmniejsza ilość czasu dostępnego na korzystanie z internetu, zakładając, że dostęp jest możliwy. W wielu społeczeństwach uważa się, że rola żony, matki i gospodyni domowej jest zajęciem pełnoetatowym. Kobieta, która spędza czas online, może być postrzegana jako zaniedbująca swoje podstawowe obowiązki domowe.
Normy społeczne faworyzujące mężczyzn
Ponieważ kobiety na całym świecie mają mniej możliwości edukacyjnych i zawodowych i często podlegają restrykcyjnym normom dotyczącym płci, trudno się dziwić, że większość z dwóch trzecich światowej populacji, która nie ma dostępu do Internetu, to kobiety. Różnice w wykorzystaniu technologii informacyjnych w wymiarze demograficznym i społeczno-ekonomicznym odzwierciedlają skalę różnic w innych obszarach gospodarki i nauki. Posiadanie dostępu do Internetu niekoniecznie oznacza korzystanie z niego. Użyj domniemanego dostępu, ale nie odwrotnie. Czynniki społeczne i kulturowe mogą ograniczać dostęp kobiet do wspólnych obiektów ICT, takich jak telecentra, które często stają się miejscami spotkań młodych mężczyzn i które dodatkowo zniechęcają kobiety do korzystania z ICT. Telecentra mogą nie być otwarte dla kobiet lub korzystanie z tych udogodnień i publiczne interakcje z mężczyznami są mile widziane, jeśli nie są aktywnie odradzane.
Inicjatywy na rzecz zmniejszenia przepaści cyfrowej ze względu na płeć
Na świecie żyje około 1,4 miliarda ludzi, którzy zarabiają mniej niż 1,25 dolara dziennie. Większość z tych osób, około 70%, mieszka na obszarach wiejskich, na których infrastruktura dostępu do Internetu jest ograniczona lub nie istnieje. Koszt zapewnienia tej infrastruktury w wielu przypadkach przekracza możliwości finansowe lub wolę polityczną samorządu. Firmy takie jak Google, Facebook i SpaceX Elona Muska zobowiązują się do sfinansowania taniego, szybkiego dostępu do Internetu dla niedostatecznie obsługiwanej połowy światowej populacji, która nie ma dostępu do Internetu w 2017 r. Działania te nie mają charakteru czysto filantropijnego. Są to komercyjne przedsięwzięcia mające na celu przyciągnięcie miliardów nowych klientów online, gdzie będą generować przychody. Jednak większym deklarowanym celem tych projektów jest zapewnienie równego dostępu, z całym potencjałem poprawy jakości życia, co oznacza to dla miliardów, które obecnie nie mają dostępu. Dopełnieniem obrazu jest nowa generacja tanie smartfony, kosztujące zaledwie kilka dolarów, które pozwolą ludziom łączyć się bezprzewodowo podczas codziennych zajęć. Umożliwienie dostępu do edukacji. Samo posiadanie dostępu niekoniecznie oznacza, że ludzie będą mieli dostęp. Z powodów omówionych wcześniej wiele kobiet nadal nie będzie miało dostępu do Internetu. Edukacja jest kluczem do zmiany tego stanu rzeczy. Wykształcone kobiety mają dostęp do Internetu z szybkością porównywalną do mężczyzn. Dzięki bogactwu zasobów edukacyjnych dostępnych teraz bezpłatnie, częściowo z najlepszych uniwersytetów na świecie, kobiety pragnące się uczyć będą mogły uzyskać dostęp do edukacji, której pragną. Dostęp do edukacji on-line przyniesie znaczne korzyści lokalnym społecznościom w postaci poprawy jakości życia i być może małych przedsiębiorstw typu start-up prowadzonych przez kobiety dostarczające towary i usługi, tworząc miejsca pracy i dobrobyt w miejscach, w których ludzie utrzymują się z kilku dolarów dziennie. Z czasem może to służyć zmniejszeniu nierówności między płciami poprzez zmianę pozycji kobiet w społeczeństwie, aby stać się płatnikami netto wspólnego bogactwa społeczności. W tym w pisie omówiono kilka czynników przyczyniających się do niskich wskaźników uczestnictwa kobiet w technologiach na obszarach rozwijających się. Tę dysproporcję we wskaźnikach uczestnictwa można scharakteryzować jako przepaść cyfrową, w której czynniki społeczno-kulturowe, które ograniczają dostęp kobiet i zniechęcają do technologii, łączą się z fizycznymi ograniczeniami niewielkiej infrastruktury fizycznej lub jej braku, aby wspierać dostęp do technologii. Edukacja możliwa dzięki ulepszeniom infrastruktury technologicznej na obszarach rozwijających się umożliwi kobietom pragnącym się uczyć dostęp do wysokiej jakości bezpłatnej edukacji. Jeśli uda się przezwyciężyć bariery społeczno-kulturowe, takie kobiety mogą stać się bardziej proaktywne w budowaniu społeczności poza tradycyjnymi obowiązkami domowymi, które obecnie wykluczają je z życia publicznego.
Chociaż dla ogromnej liczby ludzi Internet stał się oczywistym wymiarem codziennego życia, dla wielu innych - zwykle ludzi biednych, starszych, słabiej wykształconych i mniejszości etnicznych - cyberprzestrzeń jest sferą niedostępną. Dla tych, którzy nie mają środków na zakup komputera, nie mają umiejętności korzystania z niego lub nie mają dostępu do Internetu w szkole lub w pracy, cyberprzestrzeń oferuje niewiele korzyści. Rzeczywiście, dla osób pozbawionych informacji może to kosztować ich możliwości, takie jak możliwość poszukiwania pracy. Ludzie żyjący w świecie obfitości informacji to ci, którzy mają swobodny dostęp do Internetu; dla tych, którzy nie mają lub nie mogą uzyskać dostępu do cyberprzestrzeni, korzyści z tego płynące są niejasne. Kapitalizm od końca XX wieku wszedł w fazę, w której umiejętności poznawcze i przetwarzanie informacji są ważniejsze niż kiedykolwiek; pozbawieni dostępu do Internetu płacą ogromną cenę za utracone możliwości. Termin dostęp ma wiele różnych definicji. Ogólnie przyjmuje się, że oznacza dostęp do komputera podłączonego do Internetu w domu, pracy, szkole lub bibliotece publicznej. Jednak inne wymiary, takie jak ograniczenia fizyczne i zdolności techniczne, są również ważne. Równie ważne jak dostęp jest to, co użytkownicy robią z Internetem, ponieważ prosty dostęp nie prowadzi do niego automatycznie zostać użytkownikiem Internetu. Z tych powodów, a nie jako prostą dychotomię, dostęp powinien być konceptualizowany jako wielowymiarowe kontinuum. Szerokopasmowy staje się coraz bardziej centralnym elementem dostępu do Internetu. Ponieważ tak duża część treści w Internecie składa się z dużych plików graficznych (np. Rzeczywiście, wielu obserwatorów przepaści cyfrowej zauważa, że ma ona tyle samo wspólnego z dostępem do łączy szerokopasmowych i różnymi sposobami korzystania z Internetu, co z prostą kwestią możliwości (lub nie) zalogowania się. Tym samym szerokopasmowa przepaść cyfrowa stała się główną cechą nierównego dostępu do Internetu. Przepaść cyfrowa ma jednocześnie charakter społeczny, ekonomiczny i polityczny. Jest to również głęboko geograficzne i istnieje obszerna literatura geograficzna na temat przepaści cyfrowej i jej skutków , przejawy przestrzenne. Dostęp do Internetu jest głęboko uwarunkowany miejscem przebywania, co z kolei odzwierciedla relacje bogactwa i władzy. Długotrwałe kategorie centrum i peryferii, takie jak podziały na kraje rozwinięte i słabiej rozwinięte lub na miasta i obszary wiejskie, są aż nazbyt widoczne w cyberprzestrzeni. Systemy elektroniczne jednocześnie odzwierciedlają i przekształcają istniejące topografie klas, płci, pieniędzy i etniczności, tworząc i odtwarzając hierarchie miejsc odzwierciedlone w przestrzennej architekturze sieci komputerowych. Systemy takie jak Internet, dalekie od eliminowania różnic między miejscami, umożliwiają wykorzystywanie ich różnic. W tym wpisie przeanalizowano wymiary geograficzne przepaści cyfrowej w trzech etapach. Po pierwsze, zaczyna się od przeglądu przestrzenności globalnej przepaści cyfrowej, która w dużej mierze odzwierciedla planetarną skalę nierównomiernego rozwoju przestrzennego. Po drugie, zwraca uwagę na głębokie różnice między miastem a wsią w dostępie do Internetu w większości krajów. Po trzecie, odnosi się do przestrzennych aspektów przepaści cyfrowej w Stanach Zjednoczonych.
Globalne podziały cyfrowe
Chociaż korzystanie z Internetu wzrosło bardzo szybko, obejmując obecnie mniej więcej połowę światowej populacji, nadal istnieją znaczne różnice geograficzne w dostępie. W dużej mierze różnice te odzwierciedlają globalne wzorce bogactwa i ubóstwa, które same są produktami nieustannej produkcji nierówności przestrzennych przez kapitalizm. Istnieją głębokie różnice w dostępie do Internetu w około 200 stanach na całej planecie. Szczególny niepokój budzi podział w dostępie między krajami rozwiniętymi i rozwijającymi się na świecie. Wskaźniki penetracji Internetu są na poziomie ponad 90% w niektórych częściach świata, w tym w Japonii, Korei Południowej, Skandynawii, Holandii i Wielkiej Brytanii. Są one również dość wysokie w innych częściach Europy Zachodniej, a także w Ameryce Północnej, Australii i Nowej Zelandii. Drugorzędny poziom krajów, ze wskaźnikami wahającymi się od 60% do 80%, obejmuje Rosję i Europę Południową. Trzecia grupa, składająca się z większości krajów Azji (zwłaszcza Chin i Indii) oraz znacznej części Ameryki Łacińskiej, wykazuje wskaźniki penetracji między 30% a 55%. Wreszcie, kraje najmniej połączone, ze wskaźnikami penetracji Internetu poniżej 30%, obejmują większość Afryki Subsaharyjskiej i państwa zubożałe, takie jak Afganistan. Szybki wzrost liczby internautów na świecie rozkłada się nierównomiernie na całym świecie (wykres 1). Niewiele technologii doświadczyło takiego tempa wzrostu, z wyjątkiem telefonów komórkowych. Najszybszy wzrost koncentrował się w miejscach o niskim wskaźniku penetracji w 2000 r. Warto zauważyć, że praktycznie cała Afryka, Bliski Wschód i większość Azji były świadkami gwałtownego wzrostu, przy stopie wzrostu w niektórych krajach przekraczającej 217 milionów procent (od mała baza) w latach 2000-2017. W krajach rozwiniętych stopy wzrostu były znacznie skromniejsze, co wskazuje na pewien stopień nasycenia. Szybki rozwój Internetu, który przyciągnął miliardy ludzi do sieci, wskazuje, że przepaści cyfrowe szybko się zmieniają, a wraz z poprawą dostępu dla wielu dotychczas marginalizowanych grup, przepaści te mogą z czasem powoli się zmniejszać.
Podziały cyfrowe miejsko-wiejskie
Na całym świecie użytkownicy Internetu koncentrują się głównie w miastach, podczas gdy obszary wiejskie są często niedostatecznie obsługiwane. W Stanach Zjednoczonych według danych Pew Research Center w 2015 r. 85% mieszkańców miast korzystało z Internetu, podczas gdy tylko 78% mieszkańców wsi. Znacznie większe luki miejsko-wiejskie stwierdzono na całym świecie, w krajach takich jak Chiny, Brazylia, RPA i Rosja. Rozbieżności te są jeszcze większe, gdy weźmie się pod uwagę wyłącznie mobilnych użytkowników Internetu. W spowodowaniu tej ostrej dychotomii miasto-wieś działa kilka sił. Rządy często ignorują obszary wiejskie na rzecz miast bardziej powiązanych politycznie, zwłaszcza tych o globalnych powiązaniach. W krajach o zderegulowanym i sprywatyzowanym sektorze telekomunikacyjnym dostawcy usług internetowych generalnie niechętnie obsługują obszary wiejskie, których niska gęstość zaludnienia pozbawia ich korzyści skali i których typowo starsze, gorzej wykształcone i o niższych dochodach populacje nie stanowią rentownego rynku usług internetowych . W związku z tym prędkości połączeń internetowych na obszarach wiejskich są zwykle znacznie niższe niż w obszarach miejskich, a łącza szerokopasmowe są mniej powszechne. W Stanach Zjednoczonych, zgodnie z raportem Broadband Progress Report 2016 Federalnej Komisji Łączności, tylko 4% mieszkańców miast nie ma dostępu do szerokopasmowego internetu, podczas gdy 39% mieszkańców wsi nie ma dostępu do szerokopasmowego internetu. Te podziały wiejsko-miejskie mają poważne konsekwencje dla ludzi żyjących na obszarach wiejskich. Szkoły wiejskie rzadziej mają dostęp do Internetu niż szkoły miejskie. Biorąc pod uwagę niską gęstość zaludnienia obszarów wiejskich, odległości do miejsc pracy i sklepów są zwykle większe, a osoby nieposiadające dostępu do Internetu nie mogą korzystać z e-handlu ani usług e-administracji. Krótko mówiąc, ci, którzy żyją w środowiskach o najmniejszej ilości informacji, mogą najbardziej ucierpieć z powodu przepaści cyfrowej. Wiele rządów ma programy opracowane specjalnie w celu zlikwidowania przepaści między obszarami wiejskimi a miejskimi. Na przykład Chiny starały się zwiększyć dostęp do Internetu na odległych obszarach wiejskich i promowały tam mobilny Internet. Podobnie Japonia ma swój "Program całkowitego rozwiązania geograficznych obszarów podziału cyfrowego". Inne przykłady obejmują projekt Community Cyber Point w Hongkongu, krajowe strategiczne ramy Malezji na rzecz pokonywania przepaści cyfrowej, singapurski CitizenConnect, 700 e-centrów na Filipinach oraz program globalnych centrów wiedzy na Sri Lance. W Indiach przepaść cyfrowa na obszarach wiejskich została skonfrontowana z tysiącami wiejskich telekiosków i różnymi projektami telecentrów. Kazachstan, Kirgistan i Afganistan polegają na zagranicznych darczyńcach. Kilka rządów Ameryki Łacińskiej dotowało telecentro, czyli publiczne punkty dostępu do Internetu. Skuteczność programów mających na celu zlikwidowanie przepaści cyfrowej między wsią a miastem jest bardzo zróżnicowana. W krajach o niskim wskaźniku umiejętności czytania i pisania oraz obsługi komputera mogą one mieć niewielki znaczący wpływ bez wskazówek i pomocy. Dostawy energii elektrycznej są często problematyczne. Warto zauważyć, że szybki rozwój smartfonów i mobilnego Internetu może zdziałać więcej niż inicjatywy rządowe. W wielu krajach rozwijających się większość internautów używa telefonów do łączenia się z Internetem.
Przepaść cyfrowa w USA
Z 286 milionami użytkowników Internetu w 2016 roku, Stany Zjednoczone zajmują trzecią co do wielkości populację internautów na świecie (po Chinach i Indiach). Średnie wskaźniki penetracji Internetu - w tym dostęp w domu, pracy lub szkole - wzrosły ponad pięciokrotnie w latach 1995-2014, z 14% do 87%, czyli znacznie powyżej średniej światowej. Wszystkie grupy społeczne odnotowały wyraźny wzrost wskaźników korzystania z Internetu, niezależnie od tego, czy mierzony był dochodem, pochodzeniem etnicznym czy poziomem wykształcenia. Podobnie jak w przypadku reszty świata, amerykańska przepaść cyfrowa szybko się zmienia. Trwałym podłożem przepaści cyfrowej w Stanach Zjednoczonych są ogromne różnice społeczno-ekonomiczne, szczególnie te w edukacji i dochodach gospodarstw domowych, które skutecznie służą jako wyznaczniki klas. Rozbieżności w dostępie do Internetu odzwierciedlają szersze procesy, które odtwarzają nierówności w czasie i przestrzeni, w tym rynek pracy i nacisk rządu federalnego na deregulację. Ponieważ rasa i klasa są nierozerwalnie stopione w Stanach Zjednoczonych przepaść cyfrowa jest szczególnie widoczna między białymi a mniejszościami, zwłaszcza Afroamerykanami. Istnieją głębokie nierówności między białymi a mniejszościami etnicznymi pod względem dochodów, możliwości edukacyjnych i zatrudnienia, a nierówności te stanowią znaczną część rasowej przepaści cyfrowej. Przepaść cyfrowa w szkołach ma silnie rasistowski wydźwięk: biali uczniowie znacznie częściej niż uczniowie z mniejszości korzystają z Internetu w klasie lub w szkolnej bibliotece. Wśród Afroamerykanów korzystanie z Internetu jest zwykle skoncentrowane wśród młodych osób z wyższym wykształceniem. Podobnie populacja Latynosów jest daleka od jednorodności, a między różnymi podgrupami utrzymują się znaczne rozbieżności w dostępie do Internetu i korzystaniu z niego; wskaźniki użytkowania są zwykle znacznie wyższe wśród dwujęzycznych Latynosów niż wśród tych, którzy mówią tylko po hiszpańsku. Wśród Latynosów z dominacją anglojęzyczną wskaźniki korzystania z Internetu są identyczne jak wśród białych. Korzystanie z Internetu w Stanach Zjednoczonych odzwierciedla długotrwałe przestrzenne zróżnicowanie dochodów gospodarstw domowych i poziomów wykształcenia. Korzystanie z Internetu jest zwykle najwyższe wśród stosunkowo zamożnych, dobrze wykształconych, zurbanizowanych społeczności, zwłaszcza tych mieszkających na Zachodnim Wybrzeżu; większy północno-wschodni korytarz rozciągający się od Waszyngtonu do Bostonu w stanie Massachusetts; oraz w pobliżu centrów zaawansowanych technologii, takich jak Denver w Kolorado. I odwrotnie, korzystanie z Internetu jest znacznie niższe na tradycyjnie biedniejszych obszarach Dalekiego Południa, z populacją zubożałych Afroamerykanów, oraz na obszarach z przewagą latynosów w Teksasie i Nowym Meksyku. Społeczności rdzennych Amerykanów o niskich dochodach, zwłaszcza w Oklahomie i na Alasce, są również mniej skłonne do korzystania z Internetu. Przyjęcie łączy szerokopasmowych było napędzane przez gwałtowne spadki cen, które odzwierciedlają zmiany technologiczne i regulacyjne. W 2015 r. około 70% populacji Stanów Zjednoczonych korzystało w domu z technologii szerokopasmowych, których rozwój zredukował usługi dial-up do statusu marginalnego. W 2013 r. prawie 100% mieszkańców miast miało dostęp do pobierania z prędkością co najmniej 6 Mb/s (megabitów na sekundę), podczas gdy tylko 82% mieszkańców wsi mogło to zrobić. Dostępność łączy szerokopasmowych jest najbardziej rozpowszechniona wśród młodych, białych i dobrze wykształconych, a wskaźnik dostępności rośnie wraz z dochodami gospodarstw domowych. Oczywiście, podobnie jak gdzie indziej, geografia amerykańskiej przepaści cyfrowej stale się zmienia, w miarę jak innowacje technologiczne i spadki cen sprawiają, że komputery osobiste stają się bardziej przystępne cenowo, ponieważ coraz więcej szkół i bibliotek przyjmuje Internet, a polityka rządowa próbuje umożliwić rozwój Internetu, z różnym stopniu powodzenia. Zmiany w strukturze demograficznej i rozmieszczeniu przestrzennym populacji również wpływają na kontury geograficzne przepaści cyfrowej.
Podpis elektroniczny jest raczej koncepcją prawną niż technologią. Podpis elektroniczny jest elektronicznym odpowiednikiem tradycyjnego podpisu odręcznego składanego na kartce papieru. Ogólnie rzecz biorąc, podpis tworzy wiążące prawa i obowiązki. Znak lub symbol wybrany do reprezentowania osoby podpisującej (tj. autograf) jest umieszczany na dokumencie w celu zamanifestowania woli osoby podpisującej jako prawnie wiążącej. Obowiązują te same ogólne wymogi, niezależnie od tego, czy podpis jest składany długopisem na papierze, czy też w procesie elektronicznym. Ponieważ wymagania prawne dotyczące podpisu są bardzo ogólne, istnieje niemal nieograniczona liczba sposobów tworzenia podpisu, w tym wiele różnych procesów technologicznych. W tym wpisie przeanalizowano ewolucję podpisów elektronicznych, zwłaszcza od lat 90., ich status prawny oraz przyjęcie jako narzędzia zarządzania ryzykiem.
Pojawienie się podpisu elektronicznego
Nic w samym podpisie - czy to na papierze, czy w formie elektronicznej - nie może decydować o jego skutku prawnym. Skutek prawny podpisu określa osoba z wykształceniem prawniczym, np. sędzia, oceniający kontekst, w jakim podpis został złożony, w świetle obowiązującej normy prawnej. Ten punkt byłby łatwiejszy do wyjaśnienia, gdyby jedno słowo, takie jak autograf, było zawsze używane w języku angielskim do opisania samego faktu dodania czyjegoś nazwiska do dokumentu, podczas gdy inne słowo, takie jak podpis, było zawsze używane do opisania autografów, które mają mieć skutek prawny. W rzeczywistości jednak często używa się terminów takich jak podpis lub podpis elektroniczny w odniesieniu albo do prostego faktu, że czyjeś nazwisko zostało umieszczone na dokumencie, albo do pomysłu, że dana osoba umieściła swoje imię i nazwisko na dokumencie z zamiarem zmiany jego lub jej prawa i obowiązki. Zamieszanie co do znaczenia podpisu słownego jest źródłem kontrowersji, odkąd pojęcie podpisu elektronicznego stało się powszechnie znane. Chociaż termin podpis elektroniczny został najwyraźniej ukuty w latach pięćdziesiątych XX wieku, nie był szeroko rozpowszechniony i używany do połowy lat 90. wraz z rozwojem handlu internetowego. Amerykańska ustawa o podpisach elektronicznych w globalnym i krajowym handlu z 2000 r. (ustawa o E-SIGN) definiuje "podpis elektroniczny" jako "elektroniczny dźwięk, symbol lub proces, dołączony lub logicznie powiązany z umową lub innym zapisem i wykonany lub przyjęty przez osoba mająca zamiar podpisać protokół." Chociaż definicja ta mówi, że tylko podpis złożony w formie cyfrowej powinien mieć takie samo znaczenie prawne jak podpis tradycyjny, to nie precyzuje znaczenia prawnego podpisu tradycyjnego. Pominięcie to było świadomym wyborem autorów ustawy, którzy zdali sobie sprawę, jak trudno byłoby sprowadzić znaczenie prawne tradycyjnego podpisu do zwięzłej, powszechnie akceptowanej formuły. To ustawowe obejście umożliwiło szybkie uchwalenie przepisów umożliwiających handel elektroniczny, takich jak amerykańska ustawa o podpisach elektronicznych w handlu globalnym i krajowym z 2000 r., ale ta nierozwiązana dwuznaczność nadal stanowi diabelskie dyskusje wśród technologów, prawników i opinii publicznej na temat tego, co stanowi od tego czasu podpis elektroniczny. Współczesna angielska sygnatura słowna wywodzi się od łacińskiego signum, oznaczającego pieczęć, oraz łacińskiego signatura oznaczającego czynność znakowania. Współczesny angielski podpis słowny (i jego pokrewne formy w innych współczesnych językach europejskich) po raz pierwszy zaczął być używany na początku ery nowożytnej na oznaczenie autografu na dokumencie, aby zademonstrować branie odpowiedzialności za to, co mówi dokument. Przed erą nowożytną wiele osób o wystarczającym majątku i statusie społecznym, które musiały sporządzać dokumenty prawne, było analfabetami i dlatego musiało polegać na innych, którzy pisali dla nich dokumenty. Aby dokonać wyraźnego rozróżnienia między zobowiązaniem bogatych ludzi do ponoszenia odpowiedzialności prawnej za wszystko, co jest zawarte w dokumencie, a zwykłym aktem duchownym polegającym na napisaniu słów, bogaci ludzie używali metalowych pieczęci wciśniętych w stopiony wosk, aby zamanifestować swój zamiar bycia prawnie wiążącym.
Elementy prawne
Aby udowodnić, że ktoś stworzył "prawnie wiążący" podpis, należy ustalić trzy odrębne elementy:
1. Konkretna osoba wybrała jakiś symbol reprezentujący jej zamiar bycia prawnie związanym (w okresie średniowiecza mogła to być metalowa pieczęć, ale w czasach nowożytnych jest to zwykle jej własne imię napisane własnoręcznie ).
2. Ta osoba zrobiła coś, aby skojarzyć ten symbol z pisemnym tekstem opisującym, jak zmienią się jej prawa i obowiązki (wciśnięcie metalowej pieczęci w stopiony wosk na dokumencie lub wpisanie swojego imienia i nazwiska pod tekstem).
3. W chwili, gdy dana osoba dokonywała czynności przy użyciu tego symbolu, osoba ta miała zamiar zmodyfikować swoje prawa i obowiązki w sposób, który ma pewien związek z tekstem pisanym.
W rozumowaniu prawniczym zwyczajowo rozróżnia się "fakty" (np. "na zewnątrz jest teraz 76 stopni" lub "masz rozwiązany but") od zasad (np. "nie przekraczaj prędkości" lub "nie mów głośno w bibliotece"). Z prawnego punktu widzenia to, czy dana osoba przyjęła symbol, aby zamanifestować zamiar związania się, czy też wykonała określoną czynność w celu połączenia tego symbolu z tekstem pisanym, jest uznawana za kwestię faktyczną. Strona, która chce skorzystać z systemu prawnego w celu wyegzekwowania zobowiązania za pomocą podpisanego pisma jako dowodu, będzie zwykle musiała przedstawić dowody na to, że symbol został przez tę osobę przyjęty i umieszczony na dokumencie przez tę osobę. W amerykańskim systemie prawnym ekspert od pisma odręcznego może zeznać, że imię i nazwisko zostało najprawdopodobniej napisane odręcznie przez określoną osobę, porównując z czymś, co wszyscy zgadzają się, że zostało napisane przez osobę o danym odręcznym imieniu. Dowodem na to, że dana osoba ręcznie napisała swoje nazwisko na końcu dokumentu, mogą być dowody zeznań świadków, którzy widzieli, jak to robiła. Udowodnienie, że ktoś zamierzał zmienić swoje prawa i obowiązki poprzez umieszczenie symbolu na tekście, jest znacznie trudniejsze i bardziej złożone niż zwykłe udowodnienie, że zdecydowało się użyć czegoś jako swojego podpisu lub że zostało to umieszczone na dokumencie. Ten znacznie trudniejszy rodzaj dowodu obejmuje tak zwaną "mieszaną kwestię prawną i faktyczną". Korzystając z dostępnej dziś technologii, nie ma sposobu, aby udowodnić, co dana osoba naprawdę myślała w określonym czasie i miejscu, więc prawny dowód intencji nie może opierać się bezpośrednio na dowodach naukowych. Opiera się raczej na zdroworozsądkowych wnioskach na temat tego, co ludzie zwykle myślą, kiedy robią określone rzeczy. To, czy ktoś manifestował zamiar bycia prawnie związanym poprzez podpisanie czegoś, jest "mieszaną kwestią prawną i faktyczną", ponieważ łączy dwa pierwsze podstawowe fakty (wybór symbolu i umieszczenie symbolu) ze standardami prawnymi pozwalającymi wnioskować, co ludzie zwykle zamierzają, kiedy wykonując te czynności. Jeśli chodzi o pierwszy z trzech elementów (fakt wyboru symbolu) i trzeci z trzech elementów (wnioskowanie, co ludzie zwykle zamierzają osiągnąć poprzez wykonanie określonych czynności), zwykle poruszają kwestie dowodu o mniej więcej podobnym poziomie trudności, czy problem dotyczy tradycyjnego podpisu ręcznego na papierze lub podpisu elektronicznego. To, czy ktoś zdecydował się użyć metalowej pieczęci, odręcznego imienia lub cyfrowego symbolu, aby przedstawić zamiar bycia prawnie związanym, jest stosunkowo prostym pytaniem o fakty. Wykazanie, że ktoś zamierzał zamanifestować zamiar związania się pieczęcią, podpisem odręcznym lub podpisem elektronicznym będzie nieco trudniejsze, ponieważ wymaga udowodnienia "mieszanych kwestii prawnych i faktycznych". Ale dopóki możliwe jest wyciąganie zdroworozsądkowych wniosków na temat tego, co ludzie zwykle zamierzają, gdy używają pieczęci, podpisu odręcznego lub podpisu elektronicznego, udowodnienie ich nie powinno być zbyt trudne niż zwykłe pytania o fakty. Udowodnienie, kto wcisnął metalową pieczęć w stopiony wosk lub powiązał cyfrowy symbol z zapisem elektronicznym lub procesem, może być bardzo trudne lub wręcz niemożliwe, ponieważ wyniki będą identyczne bez względu na to, kto to zrobi. Natomiast analiza pisma ręcznego może być zwykle wykorzystana do udowodnienia, że dana osoba coś podpisała, nawet jeśli ta osoba później temu zaprzeczyła. Tylko w przypadku powszechnego stosowania technologii biometrycznych służących do składania podpisów elektronicznych tradycyjne podpisy ręczne i podpisy cyfrowe wiązałyby się z mniej więcej podobnymi wyzwaniami dowodowymi. Ta zagadka została rozwiązana w przypadku pieczęci metalowych wciśniętych w stopiony wosk dzięki prostej, ale brutalnej zasadzie: jeśli pieczęć była używana, jej właściciel ponosi odpowiedzialność, a stwierdzenie, że pieczęć została zgubiona, skradziona lub użyta bezprawnie, lub używana bez pozwolenia.
Podpis jako narzędzie zarządzania ryzykiem
W angielskim prawie zwyczajowym tradycyjnie zdarzało się stosunkowo niewiele sytuacji, w których do nadania oświadczeniu woli mocy prawnej wymagany był podpis. Na przykład, o ile nie ma zastosowania wyjątek ustawowy, umowa ustna może być co do zasady tak samo prawnie wiążąca jak umowa potwierdzona podpisem. Chociaż umowy ustne i pisemne mogą być w zasadzie równie wiążące, w praktyce znacznie trudniej było udowodnić, że ktoś coś powiedział, niż udowodnić, że ktoś coś napisał (lub że konkretna metalowa pieczęć została odciśnięta w stopionym wosku). Tak więc nawet przy braku formalnego wymogu prawnego, zgodnie z którym umowy musiały być sporządzone na papierze i podpisane, aby były wykonalne, społeczna praktyka polegająca na wymaganiu pewnego rodzaju podpisanego pisma w celu zmniejszenia ryzyka bezprawnego zrzeczenia się przez kontrahenta swoich zobowiązań sięga czasów niepamiętnych. W przypadku sporu strona twierdząca, że ma podpisane pismo, może mieć problem z dowodami, chyba że strona ta posiada już drugą, niekontrowersyjną próbkę podpisu, którą można wykorzystać do porównania. Więc nawet w przypadku transakcji tradycyjnych, jeśli w grę wchodziły duże pieniądze, jedna strona zawsze mogła wcześniej poprosić o kopię podpisu drugiej strony. Dlatego przy otwieraniu rachunku bankowego banki proszą o próbkę podpisu klienta. Po otwarciu konta bankowego, jeśli bank przypadkowo wypłaci pieniądze z konta klienta bez jego zgody, bank będzie zobowiązany do zwrotu pieniędzy klientowi. Aby ograniczyć to ryzyko, banki mogą porównać sporny podpis z podpisem złożonym przez klienta przy otwieraniu rachunku. Oczywiście proste ręczne porównanie dwóch odręcznych podpisów nie wystarczyłoby do wykrycia naprawdę sprytnego fałszerstwa, ale jest wystarczająco dobrą strategią ograniczania ryzyka, aby zablokować wiele takich prób. Firmy, które regularnie wystawiały ogromną liczbę papierowych czeków - być może dlatego, że zatrudniały tak wielu pracowników - często kupowały mechaniczne maszyny do podpisywania czeków, aby odciążyć skarbnika korporacyjnego od ręcznego podpisywania wszystkich tych czeków. Ale bank normalnie odmówiłby wypłaty czeków podpisanych przez maszynę, chyba że firma formalnie, wyraźnie zgodziła się ponosić odpowiedzialność za każdy czek podpisany przez jego maszynę do podpisywania czeków. W efekcie firma musi zgodzić się w umowie na tę samą zasadę, która została nałożona przez prawo na stosowanie plomb metalowych. W rezultacie całe ryzyko niewłaściwego użycia maszyny do podpisywania czeków spoczywało wyłącznie na firmie, która z niej korzystała, co z kolei motywowałoby firmę do traktowania maszyny do podpisywania czeków, jakby była stosem gotówki. Zasady odpowiedzialności związane z tradycyjnymi podpisami można uprościć do trzech podstawowych zasad:
1. Odpowiedzialność za podpis Zasada 1: Każdy, kto przyjmuje tradycyjny podpis odręczny jako dowód woli innej osoby do związania się, ponosi ryzyko straty, jeśli podpis ten okaże się później fałszywy. W takim przypadku prawo traktuje sfałszowany podpis tak, jakby był podpisem fałszerza, mimo że wygląda jak podpis kogoś innego, ale zwykle jest to zimne pocieszenie dla ofiary fałszerstwa, ponieważ znalezienie fałszerza jest zwykle trudne lub niemożliwe i niech płacą.
2. Odpowiedzialność za podpis Zasada 2: Każdy, kto zamierza zaakceptować tradycyjny podpis odręczny jako dowód woli innej osoby do związania się, może z góry zebrać dowody na to, jak ten podpis ma wyglądać, i zmniejszyć ryzyko fałszerstwa, porównując dwa podpisy przed wykonaniem.
3. Odpowiedzialność za podpis Zasada 3: Każdy, kto chce użyć urządzenia mechanicznego do stworzenia faksymile podpisu odręcznego, będzie zwykle musiał przyjąć odpowiedzialność za każdy podpis utworzony przez to urządzenie, nawet jeśli został złożony przez kogoś innego bez wiedzy i zgody właściciela urządzenia mechanicznego.
W latach 90. osiągnięcie konsensusu wśród technologów, prawników i opinii publicznej co do tego, jak przenieść te trzy stosunkowo proste zasady odpowiedzialności za tradycyjne podpisy do świata handlu internetowego, okazało się dość trudne. Najniższy poziom zarządzania ryzykiem polegałby na umożliwieniu drugiej osobie używania dowolnego symbolu elektronicznego jako podpisu w momencie transakcji i nie martwieniu się o weryfikację, chyba że lub do czasu powstania sporu. Taka nieformalna procedura sprawdza się między osobami, które znają się i od dawna komunikują ze sobą drogą elektroniczną. Na przykład w postępowaniu karnym dotyczącym oszustwa i fałszywych zeznań skierowanym do agencji federalnej prokurator był w stanie ustalić, że oskarżony, Mohamed Siddiqui, wysłał wiadomość e-mail z prośbą do przyjaciela o pomoc w zatuszowaniu oszustwa, jedynie poprzez udowodnienie, że wiadomość e-mail została wysłana z adresu e-mail, którego zwykle używał, i została podpisana przez wpisanie "Mo" na końcu tekstu, tak jak zwykle podpisywał swoje e-maile. W podobny sposób firma zajmująca się podpisami elektronicznymi, DocuSign, umożliwia jednostkom tworzenie graficznego obrazu podpisu elektronicznego, a następnie wykorzystanie tego obrazu do podpisania dokumentu podczas tej samej sesji. Pośrednim poziomem zarządzania ryzykiem byłoby niedopuszczenie do posługiwania się podpisem elektronicznym przez kogokolwiek, chyba że osoba ta w jakiś sposób wcześniej zgłosiła zamiar jego użycia. Stopień kontroli stosowanej podczas procesu rejestracji może wahać się od zera do ręcznego sprawdzania zwykłych dokumentów tożsamości, takich jak prawo jazdy lub paszport. Poświadczenia tożsamości wydane bez weryfikacji zawartych w nich informacji obejmują poświadczenia OpenID lub identyfikatory cyfrowe IdenTrust (wcześniej znane jako identyfikatory cyfrowe Verisign lub identyfikatory cyfrowe firmy Symantec). Platforma handlu elektronicznego typu business-to-business może wymagać od użytkowników dostarczenia tradycyjnych dokumentów tożsamości agentowi rejestracyjnemu do wglądu przed wydaniem poświadczeń podpisu elektronicznego do użytku z innymi członkami społeczności platformy. Instytucja świadcząca usługi finansowe może stosować metodę "uwierzytelniania opartego na wiedzy" w celu identyfikacji osób, prosząc ich o udzielenie odpowiedzi na określone pytania dotyczące ich własnej historii finansowej w oparciu o informacje z ich raportu kredytowego, na które nikt poza tymi osobami nie powinien być w stanie odpowiedzieć. Wysoki poziom zarządzania ryzykiem wymagałby od osoby, która chce skorzystać z skomputeryzowanego procesu uwierzytelniania, przyjęcia pełnej odpowiedzialności za wszelkie działania uwierzytelnione za pomocą danych uwierzytelniających użytych w tym procesie. Podczas gdy panowie feudalni używający pieczęci i firmy korzystające z maszyn podpisujących byli skłonni zaakceptować taką zasadę odpowiedzialności, prawie nigdy nie jest ona stosowana w handlu elektronicznym, ponieważ technologia podpisu elektronicznego nie jest tak łatwa do ochrony przed niewłaściwym użyciem, jak pieczęcie metalowe lub mechaniczne maszyny do podpisywania czeków. . Artykuł 4A Jednolitego Kodeksu Handlowego Stanów Zjednoczonych regulujący hurtowe elektroniczne transfery środków wykorzystuje złożoną, hybrydową zasadę odpowiedzialności, która obejmuje wszystkie trzy zasady odpowiedzialności, z których każda ma zastosowanie w różnych sytuacjach:
1. Zasada odpowiedzialności podpisu 1: Jeśli bank i jego klient nie wdrożyli "uzasadnionej z handlowego punktu widzenia procedury bezpieczeństwa" (tj. transakcja była nieautoryzowana.
2. Podpis Odpowiedzialność Zasada 2: Jeśli klient może udowodnić, że nieautoryzowany przelew nie pochodzi z systemu komputerowego klienta (tj. został wykonany przez osobę, która włamała się do systemu banku), może przenieść odpowiedzialność z powrotem na bank .
3. Odpowiedzialność podpisu Zasada 3: Jeśli istnieje komercyjnie uzasadniona procedura bezpieczeństwa, klient zawsze ponosi odpowiedzialność za wszelkie nieautoryzowane przelewy zainicjowane po zastosowaniu tej procedury. Nieautoryzowane przelewy elektroniczne z firmowych kont bankowych są zwykle dziełem nieuczciwego pracownika firmy, z czym firma jest w stanie sobie lepiej poradzić niż bank, dlatego uważa się to za rozsądną alokację ryzyka.
Ewoluujące pojęcia podpisów elektronicznych
Na długo przed tym, zanim termin podpis elektroniczny wszedł do powszechnego użytku wraz z rozwojem handlu internetowego w latach 90., osoby fizyczne korzystały z systemów elektronicznych, aby zamanifestować swój zamiar bycia związanym. Kiedy pojęcie podpisu elektronicznego zadomowiło się w kulturze popularnej, często stosowano je do określonego procesu opartego na kryptografii asymetrycznej i certyfikatach. Po pęknięciu bańki internetowej w 2001 roku i stało się oczywiste, że określony proces nie zyskał powszechnej akceptacji rynkowej, nastąpił okres eksperymentów. Jakiś czas później zaczął pojawiać się konsensus wokół idei, że "zarządzanie tożsamością" może być podstawą komercyjnie opłacalnych ram, w ramach których można stosować powszechnie uznawane, prawnie wiążące podpisy elektroniczne.
Różnorodne strategie przed handlem internetowym
Pierwszy podpis elektroniczny powstał prawdopodobnie wkrótce po 1844 r., kiedy Samuel Morse założył pierwszy komercyjny system telegrafu elektronicznego między Baltimore w stanie Maryland i Waszyngtonem. prawnym wymogiem podpisu był Howley v. Whipple, 48 NH 487 (1869):
Nie ma znaczenia, czy ten operator pisze ofertę lub akceptację w obecności swojego zleceniodawcy i na jego wyraźne polecenie stalowym długopisem o długości cala przymocowanym do zwykłej obsadki, czy też jego piórem jest drut miedziany o długości tysiąca mil . W obu przypadkach myśl jest przekazywana papierowi za pomocą palca spoczywającego na piórze; nie ma też znaczenia, że w jednym przypadku używany jest zwykły atrament, podczas gdy w drugim przypadku subtelniejszy płyn, zwany elektrycznością, spełnia tę samą funkcję.
Banki wkrótce opracowały systemy szyfrowania do wykorzystania przy wysyłaniu telegramów z instrukcjami przelewu środków. Wydrukowane książki kodów były dystrybuowane do banków, które trzymały je w zamknięciu z jeszcze większymi zabezpieczeniami niż w przypadku zabezpieczenia gotówki w bankowym skarbcu lub automatach do podpisywania czeków. Jeśli zaszyfrowaną wiadomość przelewu można było odszyfrować za pomocą kodu używanego przez konkretny bank, oznacza to, że wiadomość została "przetestowana" i można było podjąć działania. Ta procedura była znana jako "testowany teleks" i była zarządzana w ramach prawa umów i zwyczajów handlowych wśród banków uczestniczących w sieci. Systemy używane do uwierzytelniania użytkowników "sieci o wartości dodanej" do zawierania umów dotyczących elektronicznej wymiany danych w latach 80. z którego został wysłany komunikat elektronicznej wymiany danych. Pierwszym amerykańskim prawem, które wyraźnie regulowało elektroniczną formę uwierzytelniania, była prawdopodobnie ustawa o elektronicznym transferze funduszy z 1978 r., Chociaż termin podpis elektroniczny nie był używany. Prawo zdefiniowało "urządzenie dostępowe" jako kartę, kod lub inne środki dostępu do konta konsumenta lub ich kombinację, w tym karty debetowe, osobiste numery identyfikacyjne, przelewy telefoniczne i kody płatności za rachunki telefoniczne oraz inne środki inicjowania elektronicznych transferów środków na lub z rachunku bankowego konsumenta. Chociaż niektóre stany USA przyjęły przepisy wyraźnie stanowiące, że podpisany dokument wysłany faksem może spełniać ustawowy wymóg podpisanego pisma, takie przepisy nie były powszechne. Być może powinni byli: Jeszcze w 1996 roku sędzia ze stanu Georgia zauważył w dicta, że faks nie spełnia ustawowego wymogu podpisu, ponieważ składa się tylko z "ćwierkania i pikania".
Podpisy cyfrowe i handel internetowy
Ron Rivest, Adi Shamir i Leonard Adleman byli profesorami na wydziale Massachusetts Institute of Technology, kiedy w 1977 r. wpadli na pomysł "asymetrycznej" kryptografii. "Symetryczna" kryptografia klucza obejmuje użycie tego samego mechanizmu do szyfrowania i odszyfrowywać wiadomości i był używany od zarania cywilizacji ludzkiej. Podstawowym problemem związanym z kryptografią z kluczem symetrycznym jest trudność w udostępnianiu klucza bez przechwycenia go przez kogoś, kto nie powinien mieć do niego dostępu. Zautomatyzowane systemy kryptograficzne z kluczem symetrycznym były używane z testowanymi teleksami i nadal są używane w zabezpieczeniach sieci ATM. Kryptografia z kluczem asymetrycznym była postrzegana jako fundamentalny postęp w rozwoju technologii bezpieczeństwa komputerowego przystosowanej do użytku w handlu elektronicznym, ponieważ klucz "publiczny" mógł być swobodnie i szeroko rozpowszechniany bez obawy o drugi klucz "prywatny", ponieważ było to obliczeniowo niewykonalne. odgadnąć klucz prywatny z klucza publicznego. W związku z tym systemy dystrybucji kluczy stosowane w kryptografii asymetrycznej mogą teoretycznie być znacznie prostsze i tańsze niż systemy dystrybucji kluczy w kryptografii symetrycznej. Jeżeli osoba posiadająca klucz prywatny użyła go do zaszyfrowania dokumentu przed jego wysłaniem, a odbiorca mógłby użyć klucza publicznego nadawcy do jego odszyfrowania, to odbiorca miałby pewność, że pochodzi on od osoby posiadającej klucz prywatny i że tekst nie został zmieniony od czasu zaszyfrowania. Jednak szyfrowanie i deszyfrowanie to zwykle procesy bardzo wymagające obliczeniowo, więc szyfrowanie całego dokumentu jako sposobu na utworzenie podpisu elektronicznego nie byłoby zbyt wydajne. Aby stworzyć coś, co w latach 90. było znane jako "podpis cyfrowy", stworzono "hash" tekstu i tylko hash (bardzo mały plik tekstowy) został zaszyfrowany. Po otrzymaniu dokumentu podpisanego cyfrowo odbiorca może użyć tej samej funkcji haszującej do wygenerowania skrótu, użyć klucza publicznego do odszyfrowania skrótu wysłanego z dokumentem, a jeśli oba z nich są zgodne, odbiorca może być pewien, że pochodziła od osoby posiadającej klucz prywatny i że tekst nie został zmieniony od czasu wysłania. Aby upewnić się, że klucz publiczny rozpowszechniany w Internecie był powiązany z osobą, która twierdzi, że jest w posiadaniu klucza prywatnego, powstał pomysł posiadania niezależnego "organu certyfikującego" strony trzeciej, który mógłby powiązać klucz publiczny z tożsamością świata materialnego. przedstawiony w 1978 roku przez studenta Massachusetts Institute of Technology Lorena Kohnfeldera w jego pracy licencjackiej. W okresie rozkwitu podpisów cyfrowych w latach 90. proces ten wyjaśniano, mówiąc, że ktoś o imieniu Alice chciał ustanowić bezpieczną metodę komunikacji online z kimś o imieniu Bob, więc Alice i Bob udali się do kogoś o imieniu Carol, urzędu certyfikacji, który generuje certyfikat łączący ich tożsamość świata materialnego z ich kluczami publicznymi. System wydawania poświadczeń klucza publicznego i prywatnego oraz potwierdzania przez urząd certyfikacji ich powiązania z prawdziwą osobą jest określany jako "infrastruktura klucza publicznego" (PKI). Wielu prawników uznało, że podpisy cyfrowe używane w PKI są niezwykle przekonujące, co doprowadziło ich do wniosku, że można i faktycznie należy je wykorzystać do stworzenia niezawodnych globalnych ram uwierzytelniania nieznajomych, którzy chcieli zaangażować się w handel internetowy między sobą. Prawnicy ci rozpoczęli lobbowanie, często z powodzeniem, na rzecz przyjęcia przepisów dotyczących podpisu cyfrowego lub podpisu elektronicznego w celu usunięcia barier na drodze do przyjęcia technologii, którą postrzegali jako "kolejną wielką rzecz". W 1996 roku Niemcy i stan Utah w USA przyjęły przepisy promujące stosowanie podpisów cyfrowych. Prawo niemieckie stało się wzorem dla europejskiej dyrektywy w sprawie podpisu elektronicznego z 1999 r., która z kolei stała się wzorem dla modelu ustawy o podpisie elektronicznym Komisji Narodów Zjednoczonych ds. Prawa Handlowego (UNCITRAL) z 2001 r. Przepisy te zwykle zawierały jakąś formę zasady odpowiedzialności podpisu 2 (jeśli osoba oznaczyła już coś jako podpis, a następnie drugi podpis pasował do pierwszego, to domniemywa się, że jest to podpis tej osoby) lub Zasada Odpowiedzialności Podpisowej 3 (gdy osoba oznaczy coś jako podpis elektroniczny, wówczas ta osoba jest odpowiedzialność za każdym razem, gdy używany jest podpis elektroniczny). Podpisy cyfrowe w PKI można z powodzeniem wdrażać w zamkniętym środowisku, takim jak korporacja lub wśród partnerów handlowych w łańcuchu dostaw w długoterminowych relacjach handlowych. Wiele rządów wymaga, aby osoby fizyczne i korporacje, które chcą składać dokumenty drogą elektroniczną, uzyskały podpis cyfrowy i poświadczenie go przez wyznaczony urząd certyfikacji, zanim będą mogły dokonywać takich zgłoszeń online. Ale stopniowo stało się jasne, że jedyną rzeczą, do której technologia podpisu cyfrowego nie była dobra, było uwierzytelnianie nieznajomych, którzy chcieli zaangażować się w handel internetowy między sobą. Stało się tak dlatego, że nawet jeśli stronom udałoby się uruchomić technologię - co okazało się znacznie trudniejsze niż oczekiwano - strony nadal musiały zharmonizować swoje wewnętrzne polityki dotyczące znaczenia podpisów elektronicznych, zanim sensowne byłoby rozpoczęcie ich stosowania, oraz harmonizacja zasad wewnętrznych okazała się jeszcze trudniejsza niż uruchomienie technologii. Po dokładnym zbadaniu technologii i jej potencjalnego zastosowania w handlu internetowym, kraje takie jak Stany Zjednoczone, Wielka Brytania, Kanada, Australia i Nowa Zelandia zdecydowały się nie uchwalać określonych przepisów dotyczących podpisu cyfrowego. Podstawowym problemem związanym z niektórymi przepisami dotyczącymi podpisów cyfrowych jest to, że próbowały one przenieść odpowiedzialność ze strony opierającej się na podpisie elektronicznym na stronę, która stworzyła podpis elektroniczny, ale później twierdziła, że została ona użyta bez upoważnienia. Problem ten potocznie określano jako "Babcia wybiera złe hasło i traci dom". Kraje te zamiast tego uchwaliły znacznie bardziej ogólne przepisy stanowiące, że podpisom elektronicznym nie można odmówić wykonania tylko dlatego, że są one w formie elektronicznej. Stan Utah uchylił swoje przepisy dotyczące podpisów cyfrowych w 2006 r., Unia Europejska (UE) uchyliła dyrektywę dotyczącą podpisów elektronicznych w 2014 r., a UNCITRAL nie zaleca już, aby kraje uchwalały przepisy dotyczące podpisów elektronicznych w oparciu o prawo modelowe. Kiedy stało się oczywiste, że podpisy cyfrowe oparte na PKI nie zmienią handlu internetowego, kraje zaczęły uchylać swoje przepisy dotyczące podpisów cyfrowych. (Estonia wydaje się być wyjątkiem od tej ogólnej reguły, ponieważ Estończycy najwyraźniej powszechnie stosują podpisy cyfrowe w handlu internetowym). Ta rozczarowująca prawda była trudna do zaakceptowania dla niektórych prawników i technologów, którzy promowali tę technologię. Niektórzy promotorzy technologii podpisu cyfrowego uważali, że problem można rozwiązać, dodając do certyfikatów podpisu cyfrowego pole zwane "bitem niezaprzeczalności" z dwiema wartościami: (1) włączony/wiążący lub (2) wyłączony/niewiążący. Gdyby bit niezaprzeczalności został wyłączony, wszyscy zgodziliby się, że strona mogłaby twierdzić, że nie użyła podpisu dla konkretnej transakcji. Ale sytuacja odwrotna nie jest prawdziwa: tylko dlatego, że bit niezaprzeczalności został włączony w certyfikacie, ktoś, kto polegałby na tym podpisie jako prawnie wiążącym, nie miałby zagwarantowanej wygranej w sądzie. Dzieje się tak dlatego, że to, czy bit niezaprzeczalności jest wyłączony, czy włączony, zapewnia jedynie dowód trzech pierwszych elementów podpisu prawnego: Czy jest to symbol, którego można użyć do reprezentowania zamiaru konkretnej osoby, aby być prawnie związanym? Jeśli bit jest wyłączony, to odpowiedź brzmi kategorycznie nie i nie ma potrzeby uwzględniania drugiego i trzeciego elementu. Ale jeśli odpowiedź brzmi "tak", to strona polegająca na podpisie musi jeszcze przedstawić dodatkowe dowody na potwierdzenie drugiego i trzeciego elementu. Wzrost i spadek poparcia wśród prawników i innych osób dla przepisów dotyczących podpisu cyfrowego stanowi przestrogę dotyczącą ograniczeń wysiłków reformy prawa w celu promowania innowacji technologicznych. Było już wiele dowodów na to, że podpisy cyfrowe nie działały tak, jak twierdzili ich promotorzy w 1999 r., kiedy UE uchwaliła dyrektywę w sprawie podpisu elektronicznego, a jeszcze więcej dowodów w 2001 r., kiedy UNCITRAL uchwalił swoje prawo modelowe. Jednak ustawodawcy najwyraźniej zlekceważyli wszelkie dowody przeciwne.
Różnorodne strategie po podpisach cyfrowych
Niepowodzenie podpisów cyfrowych w uzyskaniu powszechnej akceptacji rynkowej w latach 90. i 2000. skłoniło wiele wiodących firm technologicznych do podjęcia prób opracowania komercyjnych alternatyw. W 1999 r. Microsoft uruchomił usługę "pojedynczego logowania" znaną jako Passport, starając się wykorzystać popularność swojego systemu operacyjnego dla komputerów osobistych, aby stać się domyślnym dostawcą usług tożsamości w Internecie. Konsorcjum firm technologicznych z Doliny Krzemowej zareagowało, uruchamiając Liberty Alliance, inicjatywę opartą na otwartych standardach, mającą na celu opracowanie i wdrożenie technologii zarządzania tożsamością. W 2009 roku Liberty Alliance zmieniło nazwę na Sojusz Kantara. Kantara wspiera wysiłki wielu różnych firm i grup branżowych mające na celu koordynację wysiłków na rzecz rozwoju technologii uwierzytelniania, ale żadne z tych wysiłków nie osiągnęło jeszcze stopnia powszechnej akceptacji, jaki kiedyś przewidywano, że osiągną podpisy cyfrowe. Po tym, jak Passport nie uzyskał powszechnej akceptacji rynkowej, Microsoft odpowiedział, zatrudniając jednego ze swoich najgłośniejszych krytyków, technologa Kima Camerona, do pomocy w stworzeniu Cardspace, systemu zarządzania tożsamością, który mógłby osiągnąć powszechne przyjęcie. Microsoft przekazał nawet zarządzanie standardami Cardspace niezależnej stronie trzeciej, Fundacji Infocard, w celu zwiększenia zaufania publicznego, ale system nadal się nie przyjął. W 2010 roku utworzono Open Identity Exchange, aby stworzyć całkowicie otwarte, oparte na standardach podejście do zarządzania tożsamością, ale ten system również nigdy nie uzyskał znaczącej akceptacji rynkowej. W 2011 r. administracja Obamy uruchomiła Narodową Strategię Zaufanych Tożsamości w Cyberprzestrzeni, starając się zgromadzić wszystkich różnych interesariuszy przy stole w celu wypracowania konsensusu, ale wysiłki te nie przyniosły żadnych znaczących rezultatów.
Zarządzanie tożsamością
Na początku 2010 roku wiele federacyjnych systemów zarządzania tożsamością, w ramach których poświadczenia tożsamości cyfrowej utrzymywane przez jedną organizację mogły być wykorzystywane do uzyskiwania dostępu do innego systemu, uzyskała powszechną akceptację rynkową. Na przykład, jeśli witryna umożliwia swoim użytkownikom logowanie się w celu uzyskania dostępu do zastrzeżonych treści lub usług przy użyciu identyfikatora użytkownika i hasła wydanego przez inną witrynę, wówczas zarówno witryny, jak i ich użytkownicy uczestniczą w "sfederowanym systemie zarządzania tożsamością". Facebook, Google, LinkedIn, Apple i Yahoo oferują federacyjne usługi zarządzania tożsamością innym operatorom witryn internetowych, w efekcie umożliwiając innym operatorom witryn outsourcing zarządzania poświadczeniami tożsamości cyfrowej ich użytkowników. W 2015 roku sąd w USA ukuł termin zawijanie logowania, aby opisać użycie identyfikatora użytkownika i hasła do tożsamości cyfrowej jako metody manifestowania zamiaru związania się umową z operatorem strony internetowej. Tak więc przynajmniej na amerykańskim rynku handlu internetowego użycie identyfikatora użytkownika i hasła może stanowić formę podpisu elektronicznego. W 2014 roku UE uchwaliła rozporządzenie ws. Elektronicznej Identyfikacji i Usług Zaufania w Transakcjach Elektronicznych (eIDAS) jednocześnie uchyliła dyrektywę o podpisie elektronicznym. Rozporządzenie eIDAS pozostawia to rynkowi który decyduje, w jaki sposób strony umów internetowych powinny wyrazić wolę związania się, ale nakazuje, aby wszystkie państwa członkowskie akceptowały "kwalifikowane" podpisy elektroniczne wystawiane w standardowej formie na mocy prawa innego państwa członkowskiego UE. Komisja współpracowała z państwami członkowskimi i europejskimi firmami technologicznymi w celu opracowania unijnych ram zarządzania tożsamością, aby zapewnić techniczną interoperacyjność wszystkich kwalifikowanych podpisów elektronicznych wydanych z upoważnienia każdego państwa członkowskiego. Rozporządzenie eIDAS zawiera również dobrowolne wytyczne dla usług zaufania związanych z wykorzystaniem podpisów elektronicznych, takich jak znaczniki czasu, w nadziei, że europejski przemysł przyjmie te dobrowolne wytyczne, tworząc jednolity europejski rynek interoperacyjnych zaufanych usług uwierzytelniających.
Prawo dostępu do Internetu opisuje stanowisko, zgodnie z którym wszyscy ludzie mają niezbywalne prawo do korzystania z Internetu. Opiera się na zrozumieniu, że w społeczeństwie informacyjnym dostęp, tworzenie, manipulowanie i dystrybucja informacji są kluczowymi aspektami życia gospodarczego, politycznego i społecznego, a brak dostępu do Internetu może nadmiernie ograniczać zdolność jednostki do korzystania z prawa do wolności wypowiedzi i gromadzenia informacji niezbędnych do świadomego podejmowania decyzji i udziału w wydarzeniach obywatelskich. W tym przypadku wolność wypowiedzi i opinii umożliwia korzystanie z innych praw, takich jak prawa obywatelskie i polityczne lub wolność zrzeszania się i zgromadzeń. Oprócz dostępu do technologii informacyjno-komunikacyjnych (TIK) prawo dostępu do Internetu jest często postrzegane jako obejmujące ochronę przed nieuzasadnioną cenzurą. Szacuje się, że w 2017 roku 3,7 miliarda ludzi, czyli ponad połowa światowej populacji, nie miało dostępu do Internetu. Wśród tych, które to zrobiły, było wiele barier w gromadzeniu i wyrażaniu informacji. Ten wpis analizuje prawo do komunikowania się, zasadę usługi powszechnej, wysiłki Organizacji Narodów Zjednoczonych na rzecz rozszerzenia dostępu do Internetu oraz niektóre kontrowersje, które nadal utrudniają dążenie do powszechnego dostępu do Internetu.
Prawo do komunikowania się
Idea prawa dostępu do Internetu ma swoje korzenie w szerszym pojęciu prawa do komunikowania się. Współczesne rozumienie prawa do komunikowania się powstało w kontekście art. 19 Powszechnej Deklaracji Praw Człowieka (PDPCz), który odnosi się do prawa do informacji, w tym prawa do wolności opinii i wypowiedzi za pośrednictwem dowolnych mediów. PDPCz nie jest prawnie wiążąca i nie ma mechanizmów egzekwowania. Określa raczej międzynarodowe standardy, do przyjęcia których zachęca się poszczególne kraje w swoich własnych ramach prawnych i politykach. W pierwszej połowie XX wieku rozpowszechniło się kilka innowacji medialnych, w tym telefonia przewodowa, radio naziemne i telewizja. Pod koniec lat pięćdziesiątych XX wieku wprowadzenie satelitów zapoczątkowało szeroko zakrojoną, globalną debatę na temat potencjału nowych i pojawiających się technologii informacyjno-komunikacyjnych w zakresie rozszerzania sieci komunikacyjnych na ludzi na całym świecie. Pojawiła się globalna i często kontrowersyjna debata na temat
nierówności w dostępie do ICT między różnymi krajami, regionami i grupami demograficznymi. Ta dysproporcja między tymi, którzy mają dostęp do technologii cyfrowych, a tymi, którzy ich nie mają, nazywana jest przepaścią cyfrową. Przepaść cyfrowa jest koncepcyjnie złożona i można ją postrzegać na poziomie globalnym, regionalnym, lokalnym, a nawet gospodarstw domowych. Przez pierwsze kilkadziesiąt lat swojego istnienia Internet był wykorzystywany przede wszystkim do celów naukowych i wojskowych. Gdy jego wykorzystanie rozszerzyło się na obywateli i korporacje od późnych lat 80. do połowy lat 90., Internet doświadczył gwałtownej globalnej ekspansji, a jego rola jako potencjalnego kanału dyskursu demokratycznego i zwiększonego udziału politycznego została uznana. Ponadto podkreślono kluczową rolę Internetu w rozwoju gospodarczym i innowacjach.
Zasada usługi powszechnej
Zasada usługi powszechnej jest podstawą polityki komunikacyjnej, która promuje dostęp do podstawowych usług sieciowych dla wszystkich członków społeczeństwa po przystępnych cenach. Jest to ewoluująca koncepcja, niezwiązana z żadną konkretną technologią. Podczas gdy przez większą część XX wieku telefon stacjonarny był uważany za usługę podstawową, rosnące znaczenie Internetu doprowadziło niektórych do argumentu, że dostęp do Internetu powinien być uważany za usługę podstawową w XXI wieku. W 2000 r. Estonia rozwiązała ten problem, wprowadzając przepisy, które dodały dostęp do Internetu do świadczenia usługi powszechnej. Francja, Finlandia, Kostaryka i Hiszpania również zajęły się Internetem , dostępem do Internetu w ustawodawstwie, a wiele innych krajów dążyło do tego, aby dostęp do Internetu był szerzej dostępny i przystępny cenowo.
Światowy Szczyt Społeczeństwa Informacyjnego
Światowy Szczyt Społeczeństwa Informacyjnego (WSIS) był dwufazową konferencją sponsorowaną przez Organizację Narodów Zjednoczonych i mającą na celu ustalenie wytycznych politycznych w celu wspierania wdrażania technologii informacyjno-komunikacyjnych w celu stymulowania rozwoju, szczególnie w krajach mniej zamożnych. Na WSIS w 2003 r. w Genewie w Szwajcarii przyjęto Deklarację zasad dotyczącą przepaści cyfrowej, w szczególności związanej z nierównym dostępem do Internetu. Postawiono sobie za cel udostępnienie 50% światowej populacji do 2015 r. Deklaracja WSIS potwierdziła również prawo do wolności opinii i wypowiedzi (art. 19 PDPCz). Drugi etap odbył się w 2005 roku w Tunisie w Tunezji.
Deklaracja ONZ z 2011 r
W 2011 r. Specjalny Sprawozdawca Organizacji Narodów Zjednoczonych ds. Promocji i Ochrony Prawa do Wolności Opinii i Wypowiadania się, Frank La Rue opublikował raport, który wielu obserwatorów interpretuje jako twierdzenie, że dostęp do Internetu jest prawem człowieka. La Rue wyraźnie łączy prawo dostępu do Internetu i wolność wypowiedzi z artykułem 19 PDPCz, który został napisany w 1948 r. w celu uwzględnienia nowych ICT, które umożliwiają jednostkom korzystanie z prawa do wolności wypowiedzi. Argumentował, że PDPC jest nadal aktualna i odnosi się również do technologii takich jak Internet. La Rue podkreślił znaczny, transformacyjny potencjał Internetu, zauważając, że jest on potężnym narzędziem zapewniającym przejrzystość rządu i udział obywateli w rządzeniu. Przekonywał, że umożliwienie wszystkim dostępu do Internetu przy jak najmniejszej cenzurze powinno być priorytetem dla wszystkich krajów. Według La Rue Internet umożliwia jednostkom korzystanie z prawa do wolności opinii i wypowiedzi, a także jako podstawa wielu innych praw człowieka. Akcentowano dwa wymiary: (1) dostępność infrastruktury komunikacyjnej, w tym niezbędnych urządzeń końcowych i oprogramowania niezbędnego do uzyskania dostępu do Internetu oraz (2) dostęp do treści bez ograniczeń, z wyjątkiem przypadków, gdy dostęp narusza międzynarodowe prawa dotyczące praw człowieka. Przyznał, że niektóre kraje lub regiony mogą nie być w stanie zapewnić tego natychmiast, ale stwierdził, że istnieje obowiązek stworzenia konkretnych planów i polityk, aby Internet był dostępny dla wszystkich. Drugi aspekt prawa dostępu do Internetu, o którym mowa w deklaracji z 2011 r., dotyczy dostępu do treści. Prawie wszystkie współczesne kraje ograniczają, kontrolują lub w inny sposób cenzurują treści internetowe. Cenzura występuje w różnych formach, w tym arbitralnego blokowania lub filtrowania treści, gdzie sprzęt, oprogramowanie lub oba są używane do filtrowania treści lub blokowania dostępu do zasobów. Wiele przypadków blokowania lub filtrowania treści było ewidentnych podczas powstań Arabskiej Wiosny, serii protestów na Bliskim Wschodzie iw Afryce Północnej, zapoczątkowanych protestami w Tunezji pod koniec 2010 roku. Na przykład rządy Egiptu i Syrii całkowicie zamknęły Internet na jeden dzień w 2011 roku podczas przewrotu politycznego, rzekomo po to, by ograniczyć zdolność protestujących do koordynowania wydarzeń i uniemożliwić im dzielenie się tym, co się dzieje, z globalną publicznością. Cenzura może również wystąpić, gdy legalne wypowiedzi są karane lub gdy uchwalane są przepisy nakładające na dostawców usług internetowych odpowiedzialność za niefiltrowanie treści, które hostują lub do których prowadzą łącza. Niedawny trend dotyczy również krajów, które starają się odmówić obywatelom dostępu do Internetu w oparciu o przestępstwa, takie jak naruszenia własności intelektualnej. Na przykład Francja uchwaliła kontrowersyjną ustawę o "trzech strajkach", która została zakwestionowana przez Radę Konstytucyjną w 2009 roku na tej podstawie, że nadmiernie ograniczała dostęp do Internetu. Chociaż zwolennicy prawa do dostępu do Internetu uznali to za zwycięstwo, później zatwierdzono poprawioną wersję tej samej ustawy, umożliwiającą stałe odłączenie od Internetu. La Rue zalicza również do form cenzury cyberataki, które mogą odmówić dostępu do niektórych treści, oraz nieodpowiednią ochronę danych, ponieważ inwigilacja jest często wykorzystywana z powodów politycznych i może prowadzić do autocenzury, która ogranicza wolność słowa.
Rezolucja ONZ z 2016 r
W czerwcu 2016 r. Rada Praw Człowieka ONZ przyjęła formalną rezolucję w sprawie "promowania, ochrony i korzystania z praw człowieka w Internecie" (A/HRC/32/L.20). Ponad 70 krajów było współwnioskodawcą uchwały, która koncentruje się na zakłóceniu dostępu do informacji w Internecie. Rezolucja podkreśla znaczenie Internetu w zapewnianiu przystępnej cenowo edukacji i wyraża zaniepokojenie przepaściami cyfrowymi między bogatszymi i słabiej rozwiniętymi narodami oraz między płciami. Potępia próby blokowania lub zakłócania dostępu i rozpowszechniania informacji online. Ponadto podkreśla potrzebę skutecznych środków bezpieczeństwa w celu ochrony wolności wypowiedzi, prywatności i wolności zrzeszania się w Internecie. Wzywa wszystkie kraje do zapewnienia dostępu do Internetu kobietom i dziewczętom, a także osobom niepełnosprawnym. W trakcie dyskusji Rosja i Chiny prowadziły dwie propozycje poprawek, które osłabiłyby ochronę wolności wypowiedzi w Internecie. Chociaż rezolucja ONZ nie jest wiążąca, jej celem jest pokierowanie narodami w kierunku włączenia prawa dostępu do Internetu, w tym ochrony przed nieuzasadnioną cenzurą, do ich własnych przepisów.
Kontrowersje
Prawo do dostępu do Internetu jest złożonym zagadnieniem i wiąże się z wieloma kontrowersjami. Jednym z największych punktów spornych jest to, czy dostęp do Internetu należy uznać za niezbywalne prawo człowieka, prawo obywatelskie (tj. dostępne dla wszystkich obywateli danego rządu) w poszczególnych krajach, czy też w ogóle. Niektórzy twierdzą, że dostęp do Internetu nie jest prawem człowieka, ale raczej umożliwia inne prawa, takie jak wolność zgromadzeń. Zwolennicy tego drugiego punktu widzenia, w tym Vinton Cerf, wyrażają zaniepokojenie faktem, że zwolennicy za bardzo skupiają się na Internecie jako pojedynczej technologii, która pewnego dnia może zostać zastąpiona lepszą innowacją. W tym przypadku dokonuje się rozróżnienia między uznaniem dostępu do Internetu za prawo człowieka a zapewnieniem, że jednostka nie zostanie pozbawiona dostępu, jeśli Internet jest dostępny. Ponadto istnieje obawa, że włączenie dostępu do Internetu poszerza listę praw człowieka do tego stopnia, że trywializuje się inne, pilniejsze potrzeby. Dalsza krytyka prawa do dostępu do Internetu wynika z poglądu, że koncepcja ta, jak i sama PDPCz, jest uprzedzona do liberalnych, zachodnich demokracji. Rodzi to pytanie, czy prawo dostępu do Internetu i prawa pokrewne, takie jak wolność wypowiedzi, reprezentują powszechnie podzielane wartości. W przypadku pojęcia takiego jak wolność wypowiedzi mogą istnieć różnice w interpretacji między zachodnimi demokracjami a krajami takimi jak Chiny, które twierdzą, że cenzura państwowa nie ogranicza nadmiernie wolności słowa i jest konieczna do ochrony jego kultury i moralności. Tutaj promowanie otwartego dostępu do Internetu może być postrzegane jako forma kulturowego imperializmu. Istnieje również obawa, że prawo dostępu do Internetu zbyt brutalnie wiąże dostęp do Internetu z samymi technologiami informacyjno-komunikacyjnymi, nie zapewniając jednostkom możliwości sensownego korzystania z połączenia. Przepaść cyfrowa ściśle odpowiada istniejącym nierównościom w statusie społecznym, sile ekonomicznej, języku, płci i poziomie wykształcenia. Co więcej, nawet skupiając się na dostępie fizycznym, podziały te można mierzyć wskaźnikami penetracji Internetu przewodowego i mobilnego, przystępnością cenową i jakością połączenia (np. szybkością, niezawodnością). Prawo dostępu do Internetu jest złożonym zagadnieniem, na które składa się kilka innych pojęć, w tym prawo do komunikowania się, wolność opinii i wypowiedzi oraz przepaść cyfrowa. Wielu twierdzi, że w społeczeństwie informacyjnym możliwość dostępu, tworzenia i udostępniania informacji jest podstawowym aspektem dobrobytu gospodarczego, politycznego i społecznego. Wysiłki, takie jak niedawna rezolucja ONZ, zgodnie z którą dostęp do Internetu jest prawem człowieka, wraz z pojawiającymi się formami współpracy, takimi jak Światowe Forum Ekonomiczne Global Challenge on the Future of the Internet/Internet for All, pomagają skoncentrować się na włączeniu tych, którzy jeszcze nie mają pełnego dostępu i możliwości korzystania z Internetu, ponieważ przekładamy istniejące koncepcje wolności opinii i wypowiedzi na świat online.
Wyzwania, przed którymi stoją obecnie firmy, rozwijały się przez wiele dziesięcioleci. Intensywna presja konkurencyjna, której doświadczają przedsiębiorstwa, jest głównie konsekwencją szeroko zakrojonych zmian w technologii komercyjnej i nowych globalnych wyzwań. Firmy konkurują o dominację w produkcji, zazwyczaj ustanawiając światowe łańcuchy dostaw, szybsze transfery materiałów, bardziej skomplikowane systemy płatności i wydajniejszy proces produkcyjny. Internet wywarł znaczący wpływ na sposób, w jaki firmy organizują produkcję i tworzą struktury operacyjne. Produkcja generalnie przechodzi na Przemysł 4.0, tak nazywa się najnowsza wersja automatyzacji. Ta kolejna faza automatyzacji wyłoniła się z czterech zmian: (1) zwiększona zdolność przetwarzania danych, której towarzyszy bardziej potężna łączność (w szczególności sieci rozległe o niskim poborze mocy); (2) pojawienie się zdolności analitycznych i wywiadu biznesowego; (3) nowe formy interakcji między ludźmi a maszynami, takie jak interfejsy dotykowe i systemy rzeczywistości rozszerzonej; oraz (4) postępy w uzyskiwaniu praktycznych wyników fizycznych z instrukcji cyfrowych, takich jak udoskonalona robotyka i drukowanie trójwymiarowe (3D) (znane również jako wytwarzanie przyrostowe; zob. rysunek 1). Jeśli chodzi o przetwarzanie większych ilości danych w produkcji, Internet rzeczy (IoT) okazał się kluczowy w tworzeniu interfejsów dla postępu Przemysłu 4.0. W rzeczywistości ten inteligentny produkt, jak jest znany, wykorzystuje Internet do przekształcenia się w rodzaj systemu informacyjnego poprzez łączenie czujników i elementów wykonawczych osadzonych w obiektach fizycznych za pośrednictwem sieci przewodowych i bezprzewodowych. Systemy cyberfizyczne mają ogromny potencjał w zakresie usprawnienia procesu produkcyjnego i łańcucha dostaw w celu generowania większej wydajności. Procesy te utrzymują się tak, że inteligentnie produkty mogą zapobiegać uszkodzeniom, a poszczególne części są automatycznie wymieniane w razie potrzeby. W tym wpisie omówiono wytwarzanie przyrostowe i niektóre wyzwania związane z technologią internetową. Wpis wprowadza również IoT i bada, w jaki sposób wpłynął on już na produkcję i oczekuje się, że wpłynie na nią w przyszłości.
Produkcja addytywna i technologia oparta na Internecie
Gotowość do wprowadzania innowacji i adaptacji ma kluczowe znaczenie dla przetrwania firm w branży produkcyjnej. Istnieje wielka tradycja badania wpływu innowacji na produkcję, a liczne badania empiryczne potwierdziły znaczenie podtrzymywania ciągłego procesu innowacji. Firmy, które są przygotowane na przyjęcie innowacji, mają większe szanse na przetrwanie w dłuższej perspektywie. Rosnący wpływ i siła zarówno Internetu, jak i trzeciej rewolucji przemysłowej (znanej również jako rewolucja cyfrowa) sprawiają, że jest to prawdziwsze niż kiedykolwiek. Aby zachować konkurencyjność, zaawansowane technologie produkcyjne w dużym stopniu zależą od szeregu technologii informacyjnych i komunikacyjnych. Ze szczególnym uwzględnieniem procesów automatyzacji produkcji i systemów informatycznych, producenci dążą do osiągnięcia wyższej produktywności produktów o wyższej jakości przy jednoczesnym obniżeniu kosztów. Wraz z pojawieniem się technologii internetowych pojawiły się nowe filozofie produkcji i formy organizacji. Przykłady obejmują organizacje wirtualne, zdalną produkcję i zintegrowane komputerowo systemy produkcyjne. Istnieje również produkcja oparta na Internecie, taka jak bezprzewodowe frezarki, skoordynowane maszyny pomiarowe oraz sieciowe macierze czujników i nadzór. Uważa się, że te nowe rozwiązania przynoszą korzyści, jeśli chodzi o dostosowywanie skalowalności i elastyczności w odpowiedzi na zapotrzebowanie. IoT zapewnia nowe sposoby zarządzania zarówno danymi, jak i procesów od etapu produkcji po dystrybucję produktów. Te nowe metody oferują bardziej uporządkowane i wydajne sposoby przechowywania, integrowania i kontrolowania tych ważnych elementów branży. Oczywiste jest więc, że technologia internetowa wspiera integrację między przedsiębiorstwami, co z kolei poprawia wydajność operacyjną, umożliwiając obniżenie kosztów oraz poprawę jakości, elastyczności i wydajności dostaw. Tradycyjna produkcja, taka jak toczenie i frezowanie, polega na odejmowaniu od materiału stałego (wytwarzanie subtraktywne), podczas gdy nowa produkcja addytywna tworzy produkty poprzez generowanie i nakładanie dodatkowych materiałów przy użyciu nowej technologii, takiej jak druk 3D, który jest również cenny dla prototypowania, jak również jest bezpośrednio zaangażowany w produkcję ostatecznej pozycji. Wpisuje się to w IoT, ponieważ coraz bardziej prawdopodobne jest, że procesy sieciowe staną się sercem Przemysłu 4.0. W poniższej dyskusji przeanalizowano cztery kluczowe fakty dotyczące Internetu rzeczy, ze szczególnym uwzględnieniem produkcji.
Fakt 1: IoT jest
Zaludniony przez unikalnie identyfikowane przedmioty Ponieważ IoT jest nowym zjawiskiem, pojawiającym się w drugiej dekadzie XXI wieku, nie ma jeszcze pokaźnej literatury akademickiej i praktycznej na temat jego wpływu. Pionierskie prace na podobne tematy pojawiają się od początku nowego tysiąclecia, ale eksperci wciąż nie doszli do wspólnej i wspólnie uzgodnionej definicji tego nowego podejścia technologicznego. Nie widzieliśmy też kompleksowej systematyzacji dla środowiska produkcyjnego, którego jest tak ważną częścią. Jedna z najbardziej kompletnych definicji IoT odnosi się do sieciowego połączenia przedmiotów i przedmiotów codziennego użytku, które często są wyposażone we wszechobecną inteligencję. W świecie IoT procesy produkcji i dystrybucji ulokowane są w nowym środowisku. Przedmioty lub "rzeczy" są osadzone w środowisku i połączone ze sobą, dzięki czemu mogą stale wchodzić ze sobą w interakcje i wymieniać przepływy informacji. Kiedy ten system obiektowy jest zintegrowany z przestrzenią Internetu, mamy IoT, który pozwala przedmiotowym obiektom na stałe połączenie. Kolejną zaletą jest fakt, że pomimo lepszej osiągalności wirtualnej, takie obiekty można jednoznacznie zidentyfikować nawet w rozległym świecie Internetu. Środowisko IoT łączy i udostępnia dane z obiektów nieożywionych oraz wykorzystuje czujniki połączone z żywymi "istotami", takimi jak ludzie, zwierzęta i rośliny. Urządzenia biomedyczne zdolne do samodzielnego monitorowania parametrów życiowych są teraz w stanie dostarczać w czasie rzeczywistym informacje do placówek służby zdrowia i lekarzy, aby umożliwić szybszą diagnozę lub interwencję w przypadku nieprawidłowych wartości lub niepokojących danych. Kolejną radykalną zmianą wynikającą z integracji obiektów (IoT) była koncepcja samych produktów i pojawienie się produktów inteligentnych. Inteligentny produkt to przedmiot, który (a) ma unikalną tożsamość, (b) może skutecznie komunikować się ze swoim otoczeniem, (c) może zachowywać lub przechowywać dane o sobie, (d) używa jakiejś formy języka do przedstawiania swoich cech i komunikowania się czego potrzebuje, aby być produktywnym, oraz (e) może podejmować decyzje istotne dla jego własnego losu lub uczestniczyć w procesie podejmowania tych decyzji. W łańcuchu dostaw rola inteligentnych produktów koncentruje się na identyfikowalności produktów. Dostawcy mogą poprawić wydajność produkcji dzięki stałemu przepływowi informacji z inteligentnych produktów, które są stale monitorowane i połączone w trakcie ich cyklu życia. W kontekście planowania zasobów przedsiębiorstwa (ERP) jest to proces, który wpływa na wszystkie główne funkcje przedsiębiorstwa produkcyjnego, takie jak zakupy, inwentaryzacja towarów i aktywów, sprzedaż, marketing, finanse i księgowość oraz zasoby ludzkie. W związku z tym istnieje duża ilość danych do przetworzenia. Wraz z rosnącą liczbą wariantów produktów i rosnącą liczbą transakcji technologia musi sprostać wyzwaniu. Tej rosnącej złożoności towarzyszy zmniejszona wydajność zarządzania łańcuchem dostaw. W takim scenariuszu umiejętność efektywnego planowania zgodnie z możliwościami przedsiębiorstwa i trafnego prognozowania zapotrzebowania klientów wymaga jasnego systemu identyfikacji każdego produktu (w tym wariantów produktu) i każdego komponentu, tak aby zawarte w nich dane mogły być dostępne zarówno podczas produkcji, jak i dystrybucji. W rzeczywistości jest to kwestia dostępu do informacji w czasie rzeczywistym "w dowolnym czasie i miejscu", aby modyfikować i dostosowywać procesy do wymagań i możliwości produkcyjnych. Takie podejście wpisuje się w ramy IoT i wymaga otwartej, skalowalnej, bezpiecznej i ustandaryzowanej infrastruktury zdolnej do rozpoznawania przedmiotów z unikalnymi kodami identyfikacyjnymi. Tak więc, gdy kody identyfikacyjne zostaną wbudowane w inteligentne produkty, zapewnią one silne wsparcie danych dla ERP. ERP jest wtedy w stanie skutecznie dopasować potrzeby dostawców i klientów oraz może zarządzać przepływem pracy i dostosowywać go od produkcji po dystrybucję. Ta zmiana systemu radykalnie zmieniła system produkcyjny i stworzył nowe środowisko, które umożliwia elementom funkcje, które nie były możliwe w przeszłości. Stosując Fakt 1 do wytwarzania addytywnego, produkty potrzebują teraz unikalnego kodu identyfikacyjnego osadzonego w obiekcie, takiego jak znaczniki identyfikacji radiowej, które umożliwią identyfikację produktu w IoT. Wykorzystanie druku 3D umożliwia włączenie unikalnych, czytelnych kodów 3D do samego obiektu, czyniąc go częścią Internetu Rzeczy. Ciągłe redukcje kosztów technologii identyfikacji radiowej zachęciły do przyjęcia tego typu technologii na całym świecie.
Fakt 2: IoT jest wypełniony aktywnymi przedmiotami.
Inteligentne produkty to unikalnie identyfikowane przedmioty, które umożliwiają monitorowanie ich w różnych środowiskach. Mogą również monitorować swój status, reagując na określone warunki i aktywnie komunikując się z użytkownikami, co robią na bieżąco. Jak już wspomniano, ma to szersze implikacje dla produktów inteligentnych; "inteligentne opakowanie" to przykład, który może pomóc nam nieco lepiej zrozumieć rolę inteligentnych produktów. Ten szczególny system pakowania jest w stanie wykryć własne środowisko i przetwarzać informacje, które umożliwiają pakowanie i reagować na lokalne bodźce i być autonomicznym w swoich działaniach. Będzie reagować na zdarzenia inicjujące, inteligentnie realizując decydujące funkcje, które mogą na przykład wydłużyć okres przydatności produktu do spożycia, zwiększyć bezpieczeństwo, poprawić jakość, dostarczyć ważne informacje lub przewidzieć możliwe problemy. Funkcje te można zatem podsumować jako wykrywanie, komunikację, wykrywanie, rejestrowanie i śledzenie danych oraz stosowanie logiki naukowej. Można zauważyć, że inteligentne opakowania mogą pełnić ważną funkcję w cyklu łańcucha dostaw, usprawniając przepływ zarówno materiałów, jak i informacji. Inteligentne opakowanie w branży spożywczej może mieć etykietę, która oferuje coś więcej niż zwykłe dane statyczne; może to obejmować na przykład wskaźniki wizualne informujące o zakresie temperatur, którym przedmiot był poddawany w historii dystrybucji i przechowywania. Informacja ta jest oczywiście krytyczna w łańcuchu dystrybucji mrożonek, gdzie nagłe zmiany stanu mogą faktycznie stanowić zagrożenie dla zdrowia. Ponadto bioczujniki w inteligentnych opakowaniach mogłyby również wykrywać reakcje biochemiczne, rejestrować je i przekazywać te informacje decydentom, aby zachować warunki bezpieczeństwa żywności. Ten rodzaj inteligentnego systemu śledzenia i monitorowania produktów oraz ich stanu umożliwia dostęp do danych w czasie rzeczywistym, dzięki czemu możliwa jest szybka i terminowa reakcja lub decyzja. Fakt, że elastyczność i łączność są częścią IoT, oznacza, że IP (protokoły internetowe) mogą przyjmować nowe funkcje bez konieczności radykalnej zmiany paradygmatu w ich strukturach, po prostu dodając nowe moduły. Jeśli chodzi o Fakt 2, drukarki 3D produkują przedmioty z aktywnymi czujnikami bezpośrednio połączonymi za pomocą wstępnie osadzonego kodu, co pozwala na jednoznaczną identyfikację przedmiotu. Każdy obiekt stworzony z czytelnymi kodami mógłby natychmiast stać się częścią IoT. Co więcej, drukarki 3D można również podłączyć do Internetu, udostępniając w ten sposób dane środowisku.
Fakt 3: IoT to środowisko
Zaludnione przez elementy generujące przepływy danych Aby inteligentne produkty były przydatne w procesie podejmowania decyzji, elementy te muszą być zdolne do generowania przepływu danych. Inteligentne produkty można zatem postrzegać jako połączenie między produktem fizycznym a ICT (np. bazą danych), dostarczając w ten sposób danych decydentowi. Rozwój w Internecie był głównie napędzany przez treści generowane przez użytkowników i dane dostarczane przez użytkowników w ramach procesów zaprojektowanych do zarządzania tymi informacjami. W związku z tym złożoność tych danych wzrosła, ponieważ IoT wprowadził wymiar własnej produkcji. Ten nowy aspekt, zdolność przedmiotów (obiektów inteligentnych) do samodzielnego generowania informacji i odgrywania roli w połączonym systemie, ustanawia nowy rodzaj rewolucyjnej architektury ICT, która umożliwia tańszy i prostszy sposób oceny świata. Oprócz unikalnej identyfikacji, którą posiadają inteligentne produkty, która umożliwia ich łączność ze środowiskiem decyzyjnym, teraz dodajemy możliwość bycia "inteligentnym". Osoby na stanowiskach kierowniczych mogą teraz korzystać z dużego zestawu tanich i wysokiej jakości informacji, które pomagają im w podejmowaniu decyzji. Łatwo sobie wyobrazić, w jaki sposób firmy wynajmujące samochody, organizacje zajmujące się współdzieleniem samochodów oraz firmy logistyczne i transportowe mogą czerpać korzyści z tej innowacji. Pojazdy wyposażone w inteligentne technologie mogą być aktualizowane o informacje dotyczące ich lokalizacji i statusu, dzięki czemu menedżerowie mogą podejmować szybkie i terminowe decyzje w oparciu o wymagania i potrzeby w czasie rzeczywistym. Wiele aspektów zarządzania liniami produkcyjnymi i łańcuchem dostaw przyniesie ogromne korzyści dzięki inteligentnym elementom, takim jak oznakowane pojazdy, wózki widłowe, palety, opakowania i pojemniki na produkty w toku. W ten sposób połączone ze sobą obiekty mogą stanowić wartość dodaną; wytwarzają przepływy danych, które są faktycznie wykorzystywane w procesach biznesowych. Ograniczenia technologiczne przeszłości oznaczały, że wcześniej infrastruktury i systemy nie były w stanie wykorzystać tych informacji w tak bezpośredni sposób. Fakt 3 jest zatem naturalną ewolucją Faktów 1 i 2. Ponieważ przedmioty mogą być "unikalne" w Internecie, są one stale połączone za pomocą swoich przyrządów czujnikowych, co powoduje ciągły przepływ jako produkt. Aby to zilustrować, rozważmy jako przykład drukarki 3D. Ta technologia, która jest połączona z Internetem, może być zdalnie kontrolowana i monitorowana. Oznacza to ważną zmianę: inteligentna produkcja wykorzystująca zarządzanie informacjami do kontrolowania sieciowego systemu produkcyjnego i zmierzania w kierunku rozwoju "inteligentnej fabryki".
Fakt 4: IoT jest
Środowisko zaludnione przedmiotami, które stale wymieniają między sobą dane Wyniki badań uwydatniły znaczenie integracji lub osadzania zaawansowanych technologii matryc czujników w produktach i metodach produkcji, aby mogły gromadzić dane w całym cyklu produkcyjnym. Ten zbiór czujników robi dokładnie to i stale analizuje otoczenie produktu, dzięki czemu użytkownik może otrzymywać wszelkie żądane dane, takie jak informacje wizualne, temperatura przedmiotu, jego przyspieszenie, położenie i orientacja, skład chemiczny, a także wszelkie wibracje, sygnały życia, jasność, wilgotność, hałas lub zapach w otoczeniu. W ten sposób inteligentna rzecz może wyczuwać swój stan i otoczenie dla odpowiednich ruchów, a tym samym odpowiednio reagować zgodnie z zaprogramowanymi regułami. Produkcja staje się również "inteligentna" w wyniku rozwoju IoT w środowiskach przemysłowych. Nie tylko obiekty w tym środowisku mogą stać się inteligentne, ale istnieje również potencjał dla urządzeń automatyki i funkcji kontrolnych, aby objąć tę technologię. Istnieje wiele korzyści, które mogą wyniknąć z IoT dla sektora produkcyjnego. Dane mogą być zbierane z czujników i przesyłane do pracowników zakładu, kierowników oraz do rzeczywistych systemów IT i łańcucha dostaw. Dzięki połączeniu tych elementów w łańcuchu produkcji i dystrybucji powstaje narzędzie pomiarowe o ogromnym potencjale. Jest to okazja do skonfigurowania produkcji, aby komputery mogły mierzyć "środowisko" i udostępniać duże ilości cennych danych po przystępnej cenie. Choć poziom innowacyjności tego zjawiska jest niski, radykalnie zmienia sposób wykorzystywania danych. Przyrostowy charakter tej ewolucji w środowisku danych ułatwia wymianę i wykorzystanie danych między produktami a procesem. Proste przeformułowanie istniejącego modułu jest korzystne, ponieważ produkt umożliwia przepływ danych, które kierownictwo może wykorzystać do śledzenia produktu i kontrolowania procesu produkcyjnego. Produkcja addytywna może być zatem sklasyfikowana jako "inteligentna produkcja". Proces produkcji można modyfikować zgodnie z informacjami dostarczanymi przez przedmioty. Łączenie przedmiotów i danych w celu przewidywania produkcji, a następnie dostosowywanie jej do zapotrzebowania podkreśla Fakt 4, a inteligentna produkcja jest wynikiem tego ewolucyjnego procesu zapoczątkowanego przez Internet Rzeczy i wytwarzanie przyrostowe.
Produkcja i IoT: model
Cztery kluczowe fakty przedstawione wcześniej, które zostały zaczerpnięte z rzeczywistości i ewolucji Internetu Rzeczy, pokazują, jak ten nowy rozwój szybko zmienił produkcję od połowy 2000 roku. Większość literatury na temat IoT zajmuje się tymi faktami i implikacjami w sposób techniczny, aby pomóc tym, którzy muszą rozwiązać problemy techniczne i praktyczne. Czytelnicy nietechniczni odnieśliby zatem korzyść z bardziej kompleksowych i systematycznych badań i w tym celu informacje z literatury na temat czterech faktów już wspomnianych w tym wpisie można uzupełnić o następujący model, który wprowadza cztery klasyfikacje innowacji: ( 1) radykalny, (2) przyrostowy, (3) modułowy i (4) architektoniczny. Radykalne innowacje przekształcają paradygmat konkurencyjności istniejących rynków i branż poprzez wyraźne zmiany. Taka innowacja może być destrukcyjna, na przykład zmieniając strukturę rynku, tworząc nowe rynki lub sprawiając, że obecne produkty staną się przestarzałe, zwiększając w ten sposób niepewność. Innowacja przyrostowa polega na bardziej subtelnych zmianach. Jak sama nazwa wskazuje, modyfikacje te następują stopniowo, przy wykorzystaniu istniejącej technologii oraz skupienie się na ulepszeniach, które można wprowadzić w organizacji lub jej produktach, usługach i procesach. Firmy stosujące takie podejście często koncentrują się na metodach, które są już ulepszane lub unowocześniane. Modułowa innowacja może oznaczać całkowitą rekonfigurację głównych komponentów, ale pozostawienie połączeń między komponentami w stanie nienaruszonym. Przynajmniej jeden komponent będzie wymagał nowej wiedzy, chociaż architektura pozostanie niezmieniona. Ale ten rodzaj innowacji obejmuje nowe lub znacząco różne komponenty. Innowacje architektoniczne mają większy wpływ na łączenie komponentów, bez zmiany pojedynczych komponentów. Wzmacnia podstawowe koncepcje projektowe, ale zmienia naturę interakcji między głównymi komponentami, które wymagają ściślejszych połączeń z architekturą, która będzie ewoluować po aktualizacji głównego komponentu. Fazy ewolucji IoT można lepiej zrozumieć, odnosząc się do modelu wytwarzania przyrostowego. Wspomniany model to coś więcej niż opis; cztery fakty, jak wspomniano, które charakteryzują IoT, można również interpretować jako etapy ewolucji opisujące przesunięcia między różne rodzaje innowacji, które miały miejsce. Punktem wyjścia tej innowacji jest Fakt 1, jak w przypadku większości nieciągłości. Rewolucja inteligentnych produktów rozpoczęła się od tej zmiany, która spowodowała radykalne zmiany w architekturze i komponentach. Argumentowano, że przedmioty mogą być unikalne i całkowicie identyfikowalne na całej długości łańcucha dostaw i interakcji użytkownika z nimi. Zrywając, jak to ma miejsce ze wszystkimi dotychczasowymi doświadczeniami producenta i użytkownika, należy to zaliczyć do czysto radykalnych innowacji. Ponieważ Fact 2 nie stanowi modyfikacji architektury łączącej obiekty, ale zawiera dodatkowe komponenty, które umożliwiają obiektom korzystanie z czujników i modułów aktywnych w celu autonomicznej interakcji i działania w środowisku, w którym są osadzone, nie można go uznać za zmiana paradygmatu. Fakt 3 przedstawia zmianę architektoniczną, ponieważ nowe połączenia między obiektami i czujnikami umożliwiają przesyłanie danych przez sieć internetową, generując duże przepływy danych (big data). Środowisko IoT zapewnia, że informacje wytwarzane przez elementy ewoluują bezpośrednio w zaludnionym środowisku, które tworzą inne aktywne i połączone ze sobą elementy, i nie są izolowane. Można to zdefiniować jako IoT. Fakt 4 jest zatem ostateczną zmianą ewolucyjną, naturalnym rozwojem z poprzednich faz, który po prostu dotyczy sposobu, w jaki producent może wykorzystać dane. W pierwszej fazie IoT jest środowiskiem wypełnionym jednoznacznie zidentyfikowanymi elementami; w drugim IoT jest postrzegany jako "świat" złożony z aktywnych przedmiotów; a po trzecie, IoT jest złożonym środowiskiem, wynikającym z poprzednich faktów, z elementami generującymi ciągły przepływ danych. Tak więc Fakt 4 dotyczy wykorzystania danych, a nie samych danych. Obejmuje wiedzę wytwarzaną przez przedmioty jako podstawę do podejmowania decyzji oraz świadomość wzajemnie powiązanego środowiska. Postęp technologiczny w tym ostatnim kroku jest niewielki, ale jego wpływ na firmy jest ogromny, ponieważ pozwala przedmiotom reagować i podejmować decyzje w zupełnie nowy sposób. Powyższe fakty mają również wpływ na ewolucję tej innowacji.
Dalsze rozważania
IoT w Przemyśle 4.0 to dziedzina, która w ostatnim czasie zyskała na znaczeniu w świecie biznesu i produkcji. Przedstawiona tutaj dyskusja teoretyczna połączyła koncepcje z literatury dotyczącej zarówno innowacji, jak i zarządzania, aby stworzyć dynamiczną ramę koncepcyjną, która pomoże czytelnikowi zrozumieć potężne skutki IoT w przemyśle. Ten spójny model opiera się na czterech krokach, które zostały tutaj zbadane i które charakteryzują ewolucyjny wpływ IoT na praktyczne etapy produkcji. Model ten można wykorzystać do opisania nie tylko obecnego wpływu, jaki IoT wywiera na wytwarzanie addytywne w przeszłości i obecnie, ale także wzorców, które prawdopodobnie będą dominować w przyszłości. Trzeba jednak pamiętać, że w branżach niezwiązanych z produkcją addytywną będą występowały zmienne, zarówno ogólne, jak i szczegółowe, które mogą wpływać na przejście z jednego etapu do drugiego. Na poparcie tezy teoretycznej IoT przedstawiono systematyzację głównych elementów, oznaczonych jako fakty. Te cztery fakty charakteryzują to zjawisko i można je podsumować w następujący sposób: (1) środowisko IoT zawiera jednoznacznie zidentyfikowane elementy; (2) elementy te są "aktywne", co oznacza, że mogą samodzielnie reagować na bodźce wewnętrzne i zewnętrzne; (3) wytwarzają masowy przepływ danych; oraz (4) mogą stale wymieniać między sobą informacje. Te cztery fakty reprezentują również ewolucyjne etapy wpływu, jaki IoT wywarł na produkcję, a poprzez ich rekonstrukcję można zrozumieć, że wprowadzenie IoT w systemach produkcyjnych było nowatorskie i radykalne dla całego rynku. Rozwój nowych komponentów, które można zintegrować z tymi przedmiotami, pozwala im reagować i samoczynnie aktywować się w odpowiedzi na zdarzenia w środowisku, które zamieszkują. To dodanie kilku komponentów stanowi jedynie innowację modułową, ponieważ podstawowa struktura produktów pozostaje niezmieniona. Z drugiej strony zdolność tych komponentów do generowania informacji w czasie rzeczywistym wymaga istotnej restrukturyzacji całego systemu wzajemnych połączeń. Powinno to być klasyfikowane jako innowacja architektoniczna, ponieważ wymaga innej kombinacji i relacji między już opracowanymi komponentami. Gdy ten system przedmiotów był w stanie generować dane, wymagał jedynie innowacji podrzędnej jednostki (tj. Przyrostowej), aby przedmioty mogły się komunikować i wymieniać informacje. Podsumowując, dwie główne innowacje wytwarzania przyrostowego i IoT zmienią przyszłe podejście do produkcji.
Przełączanie pakietów jest definiowane jako cyfrowa metoda sieciowa, w której duże wiadomości są rozkładane na stosunkowo małe fragmenty zwane pakietami (czasami nazywane blokami, segmentami, komórkami lub ramkami), które następnie mogą być przesyłane przez wiele kanałów komunikacyjnych i ponownie składane w miejscu docelowym. Jest to podstawowy sposób przesyłania informacji we wszystkich nowoczesnych sieciach komputerowych. W tym wpisie omówiono dynamikę przełączania pakietów, przełączanie pakietów względem obwodów, historię przełączania pakietów oraz przełączanie pakietów bezpołączeniowe i zorientowane na połączenie.
Dynamika przełączania pakietów
Typowy pakiet zawiera od 1000 do 1500 bajtów. Każdy pakiet zawiera informacje adresowe, które identyfikują komputer wysyłający i zamierzonego odbiorcę poprzez jego adresy protokołu internetowego (IP). Pakiety składają się z nagłówka (o długości około 96 bitów), który kieruje pakiet do miejsca docelowego; nagłówek zawiera zestaw instrukcji dotyczących danych pakietu, w tym adres IP nadawcy, adres IP zamierzonego odbiorcy, liczbę pakietów, na które została podzielona wiadomość, numer identyfikacyjny konkretnego pakietu, protokół (w sieciach, które przenoszą wiele rodzajów informacji, np. Internet) oraz długość pakietu (w sieciach, które mają pakiety o zmiennej długości). Pakiet zawiera również ładunek (lub treść), czyli większość wiadomości, oraz zwiastun (lub stopkę) o długości około 32 bitów, który informuje urządzenie odbiorcze, że dotarło do końca pakietu. Gdy wiadomość dotrze do miejsca docelowego, komputer odbierający usuwa nagłówek i zakończenie z każdego pakietu i ponownie składa wiadomość w oparciu o ponumerowaną sekwencję pakietów. Błędy są identyfikowane za pomocą cyklicznej kontroli redundancji. Gdy przechodzą przez sieć, pakiety są odbierane, umieszczane w kolejkach, buforowane i retransmitowane. Pakiety przemieszczają się, przeskakując przez przeskoki lub segmenty ich tras między węzłami (rysunek 1). Każdy węzeł działa jako przełącznik oprócz innych funkcji, takich jak przechowywanie lub przetwarzanie. Ten proces prowadzi ich przez różne routery i przełączniki. Routery, czyli wyspecjalizowane komputery, na podstawie algorytmów obliczających koszty i czas podróży określają, do którego sąsiedniego węzła efektywniej jest wysłać pakiet (proces nazywany routingiem dynamicznym). W ten sposób sieć może równoważyć obciążenie różnych urządzeń w milisekundach po milisekundach. Wiele sieci umożliwia pingowanie lub zliczanie liczby przeskoków do miejsca docelowego. Urządzenia mogą ograniczać liczbę przeskoków, aby zapobiec nieskończonemu krążeniu pakietów. Każdy pakiet może "przeskakiwać" z jednego routera do drugiego maksymalną liczbę razy. Za każdym razem, gdy pakiet przechodzi przez router, "liczba przeskoków" jest zmniejszana o jeden od maksimum. Jeśli pakiet nie dotarł do miejsca docelowego w ramach dozwolonej liczby przeskoków, jest następnie usuwany przez następny router
Przełączanie pakietów a przełączanie obwodów
Przełączanie pakietów pojawiło się jako alternatywa dla protokołów przełączania obwodów, które od dawna były używane w sieciach telefonicznych. Przełączanie obwodów jest idealne, gdy dane muszą być przesyłane szybko i muszą docierać w tej samej kolejności, w jakiej zostały wysłane, jak w przypadku danych w czasie rzeczywistym, takich jak dane audio i wideo na żywo. Przełączanie pakietów jest bardziej wydajne i niezawodne w przypadku danych, które mogą wytrzymać pewne opóźnienia w transmisji, takich jak wiadomości e-mail i strony internetowe. Jednak obecnie większość systemów dostarczania treści telefonicznych i wideo stosuje przełączanie pakietów. Przełączanie pakietów ma kilka zalet w porównaniu z przełączaniem obwodów. Takie podejście umożliwia sieciom przekierowanie ruchu na trasy o minimalnym zatłoczeniu, optymalizację przepustowości i zmniejszenie opóźnień, zwiększając w ten sposób szybkość i niezawodność dostarczania. W ten sposób zapobiega się temu, że mniejsze ilości danych muszą czekać, aż większe ilości przejdą przez sieć. W sieciach skomercjalizowanych przełączanie pakietów charakteryzuje się opłatami za przesłaną jednostkę, a nie czasem połączenia.
Historia
Przełączanie pakietów ma historię tak starą jak sam Internet, jeśli nie starszą. W latach pięćdziesiątych amerykański informatyk Paul Baran, współpracując z korporacją RAND, opracował coś, co nazwał "blokami komunikatów", w których poszczególne komunikaty można rozkładać, części składowe przesyłać różnymi kanałami, a następnie, praktycznie natychmiast, ponownie składać w miejscu docelowym. Częścią motywacji było umożliwienie sieciom rozległym przetrwania ataku nuklearnego. W 1961 roku Leonard Kleinrock, zajmujący się teorią kolejek, opublikował artykuł zatytułowany "Przepływ informacji w dużych sieciach komunikacyjnych". W brytyjskim National Physical Laboratory Donald Davies niezależnie stworzył przełączanie pakietów, które stało się preferowanym terminem, i zaproponował krajową sieć danych. Zarówno bloki komunikatów, jak i przełączanie pakietów dzieliły komunikaty na części, które można było kierować niezależnie. Pierwszą siecią komputerową, w której wdrożono przełączanie pakietów, była sieć Octopus w Lawrence Livermore National Laboratory w 1968 r. Była również używana przez wiele innych wczesnych sieci, takich jak francuski system Cyklady, brytyjska sieć akademicka JANET, DECnet firmy Digital Equipment Corporation , General Electric Information Services, sieć Merit, która łączyła uniwersytety w Michigan, Tymnet, sieć informatyczną National Science Foundation oraz Telenet, pierwszą publiczną sieć danych w Stanach Zjednoczonych z licencją Federal Communications Commission. Kiedy Lawrence Roberts przekonał się o przydatności przełączania pakietów, technika ta stała się podstawą wczesnej Sieci Agencji Zaawansowanych Projektów Badawczych, a wielu twórców przełączania pakietów, takich jak Kleinrock, odegrało kluczową rolę w jej rozwoju. Został następnie zatrzymany przez NSFNET i rozrósł się wraz ze wzrostem zastosowań i użytkowników Internetu. W latach siedemdziesiątych standardy przełączania pakietów zostały ujednolicone w ramach Międzynarodowego Związku Telekomunikacyjnego. Przyjęcie protokołu kontroli transmisji/protokołu internetowego w 1974 r. umożliwiło przezwyciężenie różnic między różnymi protokołami sieciowymi. W 1978 roku Western Union, Tymnet i British Post Office współpracowały przy tworzeniu międzynarodowej sieci przełączania pakietów IPSS, która rozszerzyła się na Amerykę Północną, Hongkong i Australię. Późniejsze przełączanie pakietów zostały dostosowane do sieci lokalnych, Ethernetu i urządzeń mobilnych.
Bezpołączeniowe i zorientowane na połączenie przełączanie pakietów
Dwa główne warianty przełączania pakietów są bezpołączeniowe przełączanie (lub datagram) i przełączanie zorientowane na połączenie (lub obwód wirtualny). W przełączaniu bezpołączeniowym nie są nawiązywane żadne połączenia; raczej każdy pakiet zawiera wszystkie informacje o routingu i jest indywidualnie kierowany przez obwody wirtualne i dostarczany poza kolejnością, a następnie ponownie składany zgodnie z ich numerem kolejnym pakietu. Technika ta pozwala na przesyłanie tych samych danych do wielu odbiorców. Większość ruchu w Internecie wykorzystuje przełączanie pakietów, a Internet jest zasadniczo siecią bezpołączeniową. W komutacji zorientowanej na połączenie (lub w obwodach wirtualnych) pakiety są wysyłane sekwencyjnie przez predefiniowaną trasę, każdy węzeł biorący udział w transmisji jest przygotowywany z wyprzedzeniem poprzez wysyłanie informacji adresowych, a pakiety są dostarczane w kolejności. Powszechnym zastosowaniem przełączania pakietów zorientowanego na połączenie jest szeroko stosowany protokół sieci rozległej X.25, standardowy protokół komunikacji w sieci rozległej wprowadzony w 1973 r. i pierwszy międzynarodowy standard sieci komutacji pakietów rozległych. X.25 był popularny wśród firm telekomunikacyjnych pod koniec XX wieku, ale został w dużej mierze zastąpiony prostszymi protokołami. Kolejny protokół, Frame Relay, został zaprojektowany dla sieci cyfrowej Integrated Services, który został zastosowany w innych sieciach. Asynchroniczny tryb przesyłania to rodzaj przełączania pakietów, który wykorzystuje krótkie pakiety o stałym rozmiarze (nazywane komórkami) do przesyłania informacji. Komórka trybu transferu asynchronicznego ma długość 53 bajtów i zawiera 5-bajtowy nagłówek adresu miejsca docelowego, po którym następuje stałe 48-bajtowe pole informacyjne. Innym wariantem jest szybkie przełączanie pakietów, które maksymalizuje przepustowość poprzez wyeliminowanie wielu funkcji kontroli przepływu i kontroli błędów.
PayPal, oficjalnie PayPal Holdings, Inc., to popularny na całym świecie system płatności online. Firma ułatwia przelewy pieniężne online między różnymi stronami, w tym firmami i osobami fizycznymi, umożliwiając płatności za towary i usługi, aukcje internetowe, prośby o fundusze i darowizny na cele charytatywne. PayPal umożliwia użytkownikom wysyłanie środków bez udostępniania informacji o koncie bankowym nieznanym kupującym i sprzedającym. W 2016 roku był to największy z systemów płatności typu peer-to-peer w Internecie, chociaż inne obejmują Amazon Payments, Apple Pay, Softpay i różne portfele cyfrowe. W tym wpisie przeanalizowano zasięg i mandat PayPal, historię i kontrowersje.
Zakres PayPal
Od 2016 roku PayPal miał ponad 200 milionów użytkowników korzystających z 26 różnych walut w 193 krajach. Jest popularny, ponieważ jest niedrogi, szybki, elastyczny, niezawodny i łatwy w użyciu. Roczny wolumen transakcji PayPal wyniósł w 2016 roku ponad 354 miliardy dolarów. Stał się szczególnie popularny wśród osób prywatnych i firm, które nie mogły korzystać z kart kredytowych. Korzystanie z usług handlowców PayPal wiąże się z niewielką opłatą, a odbiorcy środków są powiadamiani pocztą elektroniczną. Fundusz PayPal Giving Fund przekazuje darowizny organizacjom non-profit. Dostęp do systemu PayPal można uzyskać za pośrednictwem różnych mediów internetowych. W 2005 roku zaczęto intensywnie przenosić się na bezpłatne aplikacje na telefony komórkowe, w szczególności PayPal Mobile i aplikację Wyślij pieniądze. Jego aplikacja Venmo pozwala użytkownikom dzielić się pieniędzmi z innymi za darmo, bez angażowania kont PayPal. PayPal to złożona firma finansowa. Nie jest to bank w tradycyjnym tego słowa znaczeniu, choć niewykorzystane środki mogą zyskać odsetki w kontach sprawdzających, a klienci kont premium i firmowych mogą ubiegać się o kartę debetową PayPal. W swoich początkach, to został zbadany przez kilka rządów stanowych USA jako bank działający bez licencji. PayPal podlega pewnym regulacjom bankowym i działa jako instytucja bankowa zgodnie z prawem Unii Europejskiej. W Indiach odmawia się autoryzacji transgranicznego przekazu pieniężnego. Firma jest zdywersyfikowana geograficznie. Siedziba główna znajduje się w San Jose w Kalifornii, a centrum operacyjne znajduje się w Omaha w Nebrasce; centrum technologiczne w Scottsdale w Arizonie; biuro obsługi danych w Austin w Teksasie; centra oprogramowania w Chennai i Bengaluru w Indiach; europejska centrala w Luksemburgu; centrum obsługi klienta w Kuala Lumpur w Malezji; międzynarodowa siedziba w Singapurze; oraz inne operacje w Dublinie w Irlandii, Berlinie w Niemczech i Szanghaju w Chinach.
Historia
PayPal pierwotnie nosił nazwę Confinity. Firma Confinity, która opracowała oprogramowanie zabezpieczające, została założona w 1998 roku przez Maxa Levchina, Petera Thiela, Luke'a Noska i Kena Howery'ego, z których wszyscy mieli powiązania z Uniwersytetem Stanforda. Wszyscy stali się miliarderami, gdy akcje firmy weszły na giełdę NASDAQ w 2002 roku. W 1999 roku firma skupiła się na przekazach pieniężnych dzięki finansowaniu od inwestora venture capital, Johna Malloya. W 2000 roku Confinity połączyło się z X.com, założonym przez Elona Muska, aw 2001 roku zmieniło nazwę na PayPal. PayPal został kupiony przez eBay w 2002 roku za 1,5 miliarda dolarów i był w jego posiadaniu do 2014 roku, kiedy to PayPal został wydzielony jako oddzielna firma. W tym czasie 70% transakcji eBay odbywało się za pośrednictwem PayPal. PayPal ma złożone relacje z firmami obsługującymi karty kredytowe. W 2007 r. firma PayPal zawarła umowę z MasterCard, która doprowadziła do powstania usługi PayPal Secure Card Service, która tworzy unikalny numer MasterCard dla każdej płatności. W 2011 roku PayPal zaczął inicjować płatności off-line, aby można było z niego korzystać w punktach sprzedaży detalicznej. Discover zaczęło umożliwiać konsumentom korzystanie z systemu PayPal w 7 milionach sklepów w swojej sieci. PayPal rozszerzył swoją działalność poprzez serię przejęć, w tym izraelski start-up Fraud Sciences w 2008 r. i Bill Me Later (przemianowany na PayPal Credit), również w 2008 r. W 2011 r. kupił Zong; w 2013 roku kupił IronPearl, start-up programistyczny; aw 2015 roku przejął Zoom za 1 miliard dolarów. W 2015 roku PayPal uruchomił usługę PayPal.Me w 18 krajach, głównie w Europie i Ameryce Północnej. Usługa umożliwia klientom tworzenie dostosowanych linków do żądania środków za pośrednictwem wiadomości tekstowych i e-mail. Od 2016 roku miał ponad 170 milionów użytkowników.
Kontrowersje
PayPal od czasu do czasu był uderzany przez wydarzenia geopolityczne. W 2010 roku, po tym, jak PayPal przestał przetwarzać dane dla WikiLeaks (i jego partner MasterCard przestał przetwarzać darowizny) w następstwie doniesień Edwarda Snowdena o inwigilacji rządu USA, firma została zaatakowana przez grupę haktywistów Anonymous, co chwilowo zakłóciło jej usługi. Zmiany w krajowych regulacjach bankowych również dotknęły spółkę. W 2010 roku tymczasowo zawiesił działalność w Japonii w związku z nowym wymogiem, zgodnie z którym osoby fizyczne płacą opłaty biznesowe za transakcje PayPal. W 2011 roku, aby zachować zgodność z wymaganiami Reserve Bank of India, PayPal nałożył ograniczenia na kwoty transakcji. W 2015 r., aby zastosować się do międzynarodowych sankcji nałożonych na Rosję po aneksji Krymu, zaprzestała działalności na półwyspie. W 2016 roku zaprzestał działalności w Turcji, kiedy organy nadzoru finansowego odmówiły mu licencji. Ponadto, podczas gdy Izraelczycy mieszkający na okupowanych terytoriach palestyńskich mogą korzystać z PayPal, Palestyńczycy nie mogą, co skłania niektórych do wezwania do zmiany polityki. Firma zablokowała również dostęp grupom praw człowieka, w tym kontu założonemu przez aktywistów związanych z zamordowanym rosyjskim dysydentem Borysem Niemcowem. Firma wprowadziła szereg środków w celu ochrony użytkowników przed oszustwami i kradzieżą, w tym klucze bezpieczeństwa, CAPTCHA i numery uwierzytelniające. Niemniej jednak oszustwa, oszustwa i kradzieże nadal mają miejsce, co kosztuje miliony dolarów miesięcznie. W 2015 r. zamrożono środki 150 000 hiszpańskich posiadaczy kart. PayPal wydaje również karty MyCash do użytku w sklepach, a niektóre z ich kodów PIN zostały skradzione przez pracowników PayPal. Skarg konsumentów jest tak dużo, że poświęcono im całą witrynę paypalsucks.com. W latach 2003-2010 PayPal zaprzestał świadczenia usług jako pośrednik dla witryn hazardowych online; wcześniej był największym tego typu usługodawcą. W 2010 roku wznowił tę usługę, ale tylko dla zarejestrowanych stron, w których hazard online jest legalny. Firma odmawia również przetwarzania płatności za strony z pornografią. Przedsiębiorcy, którzy zbierali pieniądze za pośrednictwem PayPal w ramach przedsięwzięć crowdsourcingowych, zgłaszali trudności z wypłatą środków. Ponadto firma PayPal stanęła w obliczu wielu procesów sądowych dotyczących obsługi kont klientów i obsługi klienta. Pozew zbiorowy przeciwko firmie PayPal w 2002 r. zarzucał naruszenie prawa federalnego i prawa stanu Kalifornia w związku z procedurami rozstrzygania sporów firmy. Sprawa została rozstrzygnięta w 2004 r., kiedy PayPal zgodził się zmienić swoje praktyki biznesowe i dokonał płatności w wysokości 9,25 miliona dolarów na rzecz członków grupy. W 2015 roku firma PayPal zgodziła się zapłacić 25 milionów dolarów zwrotu pieniędzy i kar po tym, jak Biuro Ochrony Finansowej Konsumentów twierdziło, że firma zapisała niektórych konsumentów do usługi PayPal Credit bez ich wiedzy i zgody. Federalny pozew zbiorowy złożony na początku 2017 r. Zarzucił PayPalowi przekierowanie datków na cele charytatywne bez wiedzy i zgody darczyńców lub zamierzonych organizacji charytatywnych. W 2016 roku PayPal zyskał rozgłos, gdy doniesiono, że Thiel, jeden z jego założycieli, sfinansował pozew o naruszenie prywatności przez Hulka Hogana przeciwko portalowi plotkarskiemu Gawker. Witryna informowała w 2007 roku, że Thiel był gejem, kiedy nie było to powszechnie znane. Gawker ogłosił upadłość i został zamknięty w 2016 roku po wydaniu wyroku w sprawie o wartości 140 milionów dolarów. Później w tym samym roku osiągnął ugodę z Hoganem w wysokości 31 milionów dolarów.
W sieci peer-to-peer (P2P) każdy peer w sieci jest połączony z innymi peerami w sieci. Nie ma centralnego serwera, z którym muszą łączyć się wszyscy partnerzy. Komputer użytkownika jest zwykle jednym peerem w sieci. Cała komunikacja odbywa się bezpośrednio od jednego peera do drugiego peera. Niektóre popularne aplikacje P2P to Vuze Bittorrent i Bitcoin. Sieci te są wykorzystywane przez różne aplikacje, takie jak udostępnianie plików, konferencje wideo i audio, anonimowość i przesyłanie gotówki elektronicznej. Sieci P2P składają się z milionów rówieśników. Ponieważ peer to komputer użytkownika, a użytkownicy zwykle włączają i wyłączają swój komputer, peery przechodzą w tryb offline i online; w dowolnym momencie są miliony rówieśników online. Według doniesień Vuze Bittorrent ma ponad 2 miliony jednoczesnych użytkowników/rówieśników online w dowolnym momencie. W tym wpisie zdefiniowano sieci 2P, omówiono ich architekturę i przedstawiono kilka typowych przykładów sieci P2P.
Zdefiniowane sieci P2P
Sieci P2P działają w przeciwieństwie do modelu obliczeniowego klient-serwer. W modelu klient-serwer, zwykle używanym w sieci, istnieje jeden serwer, z którym łączą się wszyscy klienci. Centralny serwer jest centralnym punktem awarii i zaufania. Aby ograniczyć to ryzyko, sieci P2P są całkowicie rozproszone. Ponadto sieci P2P są również utożsamiane z modelem bardziej egalitarnym. Peer działa zarówno jako klient, jak i serwer. Napster, sieć udostępniania plików wydana w 1999 roku, była jedną z pierwszych, która wykorzystała sieć P2P, aby umożliwić użytkownikom udostępnianie plików bez centralnego serwera. Pliki muzyczne były swobodnie i nielegalnie udostępniane na Napsterze, co według przemysłu muzycznego wpłynęło na jego przychody. Udostępnianie plików ma również legalne zastosowania, takie jak aktualizacje oprogramowania i dystrybucja Linuksa.
Architektura sieci P2P
W sieci P2P każdy peer jest równy. Ponieważ nie ma centralnego serwera, każdy peer musi znaleźć innych peerów, aby móc w pełni uczestniczyć w sieci. Ten proces nazywa się ładowaniem początkowym. Jednym ze sposobów ułatwienia procesu ładowania jest publikowanie adresów protokołu internetowego (IP) niektórych rówieśników na popularnych stronach internetowych. Nowy peer dołączający do sieci skontaktuje się ze wszystkimi tymi adresami IP. Peer musi tylko pomyślnie skontaktować się z jednym innym peerem, aby dołączyć do sieci. Gdy peer dołączy do sieci P2P, będzie przechowywać listę znanych adresów IP, dzięki czemu następny proces ładowania jest łatwiejszy, ponieważ więcej peerów jest już znanych. Większość użytkowników zwykle wyłącza komputer na noc i włącza go ponownie rano; Kiedy komputer (peer) jest włączony, spróbuje dołączyć do sieci, a gdy komputer zostanie wyłączony, peer opuści sieć. Ten proces przechodzenia do trybu online i offline jest znany jako "churn". Churn jest powszechny, dlatego każdy peer musi przechowywać listę innych peerów, aby uwzględnić niektóre z nich w trybie offline. Idealnie, jeśli peer zna każdego innego peera w sieci, ułatwia to aplikację. Na przykład w aplikacji do udostępniania plików partner może bezpośrednio skontaktować się z każdym z nich, aby zobaczyć, kto ma potrzebny plik. Jednak przechowywanie listy milionów peerów jest niewykonalne zarówno pod względem przechowywania, jak i nakładu pracy, aby znaleźć każdego peera w sieci. Każdy peer będzie więc znał tylko ułamek całej sieci P2P. Aby znaleźć inne elementy równorzędne, element równorzędny wykonuje proces zwany routingiem lub wykrywaniem zasobów. Istnieją różne sposoby wykonywania routingu, w zależności od typu sieci P2P. Sieć P2P jest podstawową warstwą dla aplikacji. Te aplikacje używają sieci do znajdowania innych peerów (bootstrapping i routing). Na przykład w aplikacji do udostępniania plików sieć służy do znajdowania elementów równorzędnych zawierających określone pliki. Następnie aplikacja nawiązuje bezpośrednie połączenie z tymi urządzeniami równorzędnymi, aby pobrać plik za pośrednictwem dobrze znanego protokołu, takiego jak File Transfer Protocol. Rozważając model Transmission Control Protocol/Internet Protocol, sieć P2P znajduje się w warstwie aplikacji; aplikacja do udostępniania plików znajduje się również w warstwie aplikacji i działa na szczycie sieci P2P. Większość sieci P2P wykorzystuje protokół danych użytkownika w warstwie transportowej, aby uniknąć kosztów trójstronnego uzgadniania protokołu Transport Control Protocol.
Rodzaje sieci P2P
Istnieją dwa typy sieci P2P: (1) sieci niestrukturalne i (2) sieci strukturalne. Sieci niestrukturalne, takie jak Napster i Gnutella, zostały po raz pierwszy wprowadzone w 1999 r. Sieci strukturalne, takie jak eMule i Vuze Bittorrent (wcześniej znany jako Azureus), opierają się na strukturze rozproszonej tablicy mieszającej (DHT), takiej jak Chord, Pastry i Kademlia . DHT zostały po raz pierwszy wprowadzone w 2001 roku.
Nieustrukturyzowane sieci P2P
Jak sama nazwa wskazuje, nieustrukturyzowane sieci P2P nie mają struktury. Ponieważ peer zna tylko ułamek całej sieci, jedynym sposobem na wykonanie routingu jest zalewanie. Oto przykład działania powodzi. Peer A zna peery B i C. Peer B zna peery A, C i D. Jeśli Peer A szuka Peera D, zalewa sieć, wysyłając zapytania zarówno do Peera B, jak i Peera C. Z kolei Peer B zapyta peera C i D, i tak dalej. Większość nieustrukturyzowanych sieci P2P wykorzystuje wariant zalewania zwany powodzią ograniczoną lub kontrolowaną. Każde zapytanie typu flood zawiera informacje o źródle równorzędnym oraz unikalny identyfikator identyfikatora. Ma to na celu uniknięcie nieograniczonej powodzi A ? B ? C ? A ? B ? …. Flooding nie jest wydajnym algorytmem routingu. Znalezienie partnera zajmuje dużo czasu i wykorzystuje wiele wiadomości.
Strukturalne sieci P2P
Aby rozwiązać problem nieefektywności nieustrukturyzowanych sieci P2P, ustrukturyzowane sieci P2P wykorzystują DHT (Rysunek 1). Tabela skrótów to tabela indeksowana według kluczy, a każdy wpis w tabeli jest parą klucz-wartość. W sieciach P2P globalna tablica skrótów jest rozdzielana między peery, gdzie każdy peer przechowuje lokalną tablicę skrótów. Kluczem jest identyfikator każdego peera, a wartością jest adres IP peera. Każdy peer obliczy swój identyfikator peera, znany również jako identyfikator węzła. To obliczenie jest zwykle wykonywane na podstawie skrótu adresu IP i numeru portu. Pozwala to na spójne mieszanie, zapewniając równomierne rozmieszczenie identyfikatorów równorzędnych w przestrzeni identyfikatorów. Ponieważ peer A z identyfikatorem peera IDA zna tylko część sieci, każdy peer utrzymuje tablicę routingu. Struktura tablicy routingu zależy od użytego DHT. Chord wykorzystuje strukturę pierścieniową. Tablica routingu składa się z peerów o ID = IDA + 2i modulo 2N, gdzie i = 0, 1, 2, . . ., N - 1. N to rozmiar przestrzeni ID, która zwykle wynosi 160 bitów. Kademlia wykorzystuje strukturę drzewa. Na pierwszym poziomie drzewa prawa strona drzewa składa się z węzłów różniących się pierwszym bitem identyfikatora, a po lewej stronie drzewa są elementy równorzędne, które nie różnią się pierwszym bitem identyfikatora. Na drugim poziomie drzewa peery różnią się (lewa gałąź drzewa) lub nie różnią się drugim bitem ID (prawa gałąź drzewa). Drzewo jest budowane do N-tego poziomu, gdzie N jest rozmiarem przestrzeni ID. Rzeczywista implementacja protokołu Kademlia, zwana Kad, wykorzystuje niezrównoważone drzewo binarne, w którym prawa strona jest większa niż lewa. Zarówno w Chord, jak i Kad, peer zna więcej peerów bliżej siebie pod względem przestrzeni ID niż peerów dalej. Ze względu na sposób budowy tablic routingu, każdego peera można znaleźć w obrębie N przeskoków. Z powodu rezygnacji każdy peer będzie regularnie kontaktował się z każdym peerem w swojej tablicy routingu, aby określić jego żywotność. Partner będzie również publikował informacje, o których wie, co 24 godziny. Będzie również regularnie wykonywać żądania wyszukiwania losowych identyfikatorów, aby nadal budować swoją tablicę routingu. Na przykład w aplikacji do udostępniania plików korzystającej z sieci P2P publikowane informacje będą plikami, które użytkownik ma do udostępnienia. Ta informacja jest publikowana co 24 godziny. Kluczem jest skrót nazwy pliku lub słów kluczowych dla tego pliku, a wartością jest adres IP peera.
Bezpieczeństwo i prywatność
Ponieważ nie ma centralnego serwera, nie ma centralnego punktu zaufania i awarii. Dzięki temu sieci P2P są bardziej odporne i bardziej prywatne, ponieważ dwóch równorzędnych komunikuje się ze sobą bezpośrednio. Jednak ta komunikacja ujawnia również adres IP każdego peera, co może prowadzić do usunięcia danych identyfikacyjnych użytkownika. Adres IP można zwykle powiązać z lokalizacją geograficzną i dostawcą usług internetowych. Serwery proxy są czasami używane w sieciach P2P do maskowania prawdziwego adresu IP. Sieci P2P są również podatne na ataki Sybil. Jeden użytkownik może utworzyć wiele peerów pod różnymi adresami IP i numerami portów. Jeden użytkownik ma więc wiele tożsamości Sybil. Oznacza to, że jeden użytkownik może mieć większą kontrolę nad publikowanymi informacjami i może łatwiej przeprowadzać ataki trasujące. Te ostatnie to ataki, które powodują, że wszystkie wyszukiwania wskazują na jednego z rówieśników Sybil, co powoduje, że P2P nie nadaje się do użytku.
Zastosowania sieci P2P
Sieci P2P są wykorzystywane jako podstawa wielu aplikacji, takich jak przetwarzanie sieciowe, Bitcoin, udostępnianie plików, botnet i sieci dystrybucji treści (CDN). Grid computing rozdziela zadanie do wykonania na wielu równorzędnych użytkowników w celu szybszego wykonania zadania. Zadanie musi być zrównoleglone, to znaczy może być podzielone na wiele mniejszych, niezależnych podzadań. Bitcoin to całkowicie rozproszony elektroniczny system gotówkowy. Każda transakcja jest transmitowana do każdego peera w sieci. Aplikacje do udostępniania plików, takie jak eMule i Vuze Bittorrent, umożliwiają udostępnianie plików bez centralnego serwera. Wiadomo, że botnety, takie jak botnet Storm, wykorzystują sieci P2P do dystrybucji obciążenia związanego ze złośliwymi działaniami, a także są trudniejsze do wyśledzenia i usunięcia. Sieci CDN, takie jak Coral CDN, rozpowszechniają treści internetowe na całym świecie, dzięki czemu kopię treści internetowych w pamięci podręcznej można znaleźć bliżej każdego użytkownika. Wpływ sieci P2P Sieci P2P są stosunkowo łatwiejsze i tańsze do wdrożenia niż sieci typu klient-serwer. Zapewniają również lepszą prywatność, ponieważ nie ma serwera, który wie wszystko. Aplikacje P2P były również jednymi z pierwszych aplikacji, które poruszyły kwestię neutralności sieci. Dostawcy usług internetowych wykorzystywani do blokowania lub ograniczania aplikacji P2P. Sieci P2P były wykorzystywane do nielegalnego udostępniania plików, co prowadziło do naruszenia praw autorskich. Jednym z pozytywnych aspektów sieci P2P jest to, że trudno je usunąć; ten aspekt jest wykorzystywany przez botnety, aby mogły nadal wysyłać spam i rozproszone ataki typu "odmowa usługi".
Phishing
Phishing, znany również jako carding lub brand spoofing, to rodzaj oszustwa internetowego, którego zakres i metody wciąż ewoluują wraz ze wzrostem wykorzystania Internetu i znajdowaniem przez przestępców nowych sposobów oszukiwania. Ponieważ definicja phishingu stale się rozwija, definicja phishingu nie jest stała. W swoim podstawowym podejściu phishing definiuje się jako fałszowanie lub fałszowanie adresu e-mail lub strony internetowej legalnej organizacji w celu nakłonienia odbiorcy wiadomości e-mail do ujawnienia poufnych i prywatnych informacji, takich jak informacje o karcie kredytowej lub koncie bankowym. Innymi słowy, phishing można opisać jako wysyłanie wiadomości e-mail i fałszywe podszywanie się pod legalne przedsiębiorstwo lub podmiot próbujący oszukać lub oszukać użytkownika. Phishing można również opisać jako mechanizm dostarczania wybierany przez przestępców wyłącznie w celu wyłudzenia pieniędzy od ofiar. Phisher zazwyczaj prosi użytkowników o odwiedzenie strony internetowej zaprojektowanej tak, aby wyglądała jak strona firmy, pod którą oszust się podszywa, oraz o podanie prywatnych informacji, takich jak hasła. Ta fikcyjna witryna internetowa udająca legalną organizację następnie kradnie prywatne informacje ofiary w celu uzyskania korzyści pieniężnych. Phisherzy często przedstawiają się jako szanowane lub renomowane firmy w celu zdobycia kont klientów, informacji lub uprawnień dostępu. Termin phishing jest homofonem i odmianą słowa wędkowanie, w którym phisherzy ustawiają haki, mając nadzieję, że dostaną kilka kęsów od ich ofiar Poczta phishingowa i szkodliwe oprogramowanie phishingowe różnią się, chociaż poczta phishingowa jest bardzo wydajna, a liczba ofiar jest znacznie mniejsza niż ofiar szkodliwego oprogramowania phishingowego. Obecnie najbardziej znanymi metodami phishingu są fałszowanie wiadomości e-mail, fałszowanie witryn internetowych, fałszowanie identyfikatora dzwoniącego, ataki typu cross-site scripting oraz złośliwe oprogramowanie/trojany. W tym wpisie omówiono, jak działa phishing, rodzaje phishingu i sposoby ochrony przed nim.
Jak działa phishing
Pomimo różnych rodzajów stosowanych metod phishingu, zazwyczaj działają one według przewidywalnego schematu. Ofiary phishingu zwykle otrzymują wiadomość lub komunikat, taki jak e-mail, który wydaje się nadchodzić z legalnego źródła, takiego jak instytucja finansowa. Komunikat otrzymany przez ofiarę będzie na przykład informował ofiarę, że jej konto wymaga natychmiastowej aktualizacji lub że zostaną nałożone kary pieniężne, zawieszenie konta lub zakończenie świadczenia usług, jeśli ofiara nie dostarczy swoich lub jej dane osobowe i/lub konto. Komunikat do ofiary będzie również zawierał link i instrukcje, w których ofiara powinna kliknąć link, aby uzyskać dostęp do swojego konta i podać zaktualizowane informacje. Tekst linku jest zwykle zaprojektowany tak, aby wyglądał jak strona, którą ofiara spodziewałaby się zobaczyć, i wygląda na to, że niczego nie podejrzewająca ofiara kieruje na stronę oczekiwanej przez nią instytucji. Link jest jednak bramą do strony hakera. Kiedy ofiara znajduje się na sfałszowanej lub fałszywej stronie internetowej, poda wymagane informacje, takie jak numery kont bankowych i hasła. Po wprowadzeniu tych informacji przez ofiarę, witryna wygeneruje komunikat typu "przepraszamy, w tej chwili nie możemy przetworzyć Twojej transakcji" lub inną podobną wiadomość. Informacje o ofierze są gromadzone i przechowywane w witrynie hakera lub przesyłane tam, gdzie haker chce, aby były przesyłane i przechowywane. Sprawcy mogą następnie wykorzystać informacje ofiary, aby uzyskać dostęp do konta ofiary i wykonać działania przestępcze, takie jak opróżnienie konta bankowego ofiary. Należy zauważyć, że podczas gdy celem ataków phishingowych są zwykle osoby fizyczne, ofiarami phishingu padają również korporacje i ich agenci.
Rodzaje phishingu
Istnieje wiele technik phishingu, które wciąż podlegają ciągłym zmianom. W każdej technice celem hakera lub przestępcy jest zebranie informacji od niczego niepodejrzewających ofiar, a następnie wykorzystanie tych informacji do oszukania niczego niepodejrzewającej ofiary.
E-mail/Spam
Wyłudzanie informacji za pośrednictwem wiadomości e-mail i spamu to bardzo powszechna technika oszustwa. Dzięki tej technice phisherzy mogą prosić użytkowników o podanie danych osobowych, wprowadzenie danych uwierzytelniających w celu aktualizacji informacji o koncie, zmianę/weryfikację danych lub wysłanie linków w celu bezprawnego wykorzystania danych osobowych.
Dostawa przez Internet
Dostarczanie przez Internet, znane również jako "man-inthe-middle", jest jedną z najbardziej wyrafinowanych technik phishingu. Dzięki tej metodzie haker znajduje się między oryginalną stroną internetową a systemem phishingowym, śledząc szczegóły podczas transakcji między legalną witryną a użytkownikiem. Ponieważ użytkownik nadal przekazuje informacje, są one zbierane przez phisherów bez wiedzy użytkownika.
Wiadomości błyskawiczne
Dzięki tej metodzie użytkownik otrzymuje wiadomość z łączem przekierowującym go do fałszywej witryny wyłudzającej informacje, która ma taki sam wygląd i działanie jak legalna witryna internetowa, którą użytkownik może znać lub nie. Jednak wiadomość i strona internetowa są zaprojektowane w sposób, który utrudnia użytkownikowi natychmiastowe rozpoznanie różnicy między sfałszowaną witryną a autentyczną witryną. Po przejściu na stronę użytkownik zostanie poproszony o podanie danych osobowych na stronie internetowej. Te fałszywe strony internetowe czasami zawierają nieodpowiednie i nietypowe pilne wiadomości, kiepski projekt, błędy ortograficzne i wyskakujące okienka, które mogą prosić o podanie poufnych informacji prywatnych. Powinny to być znaki ostrzegawcze dla użytkowników, że te witryny nie są legalne.
Hosty trojańskie
Hosty trojanów to niewidzialni hakerzy, którzy zbierają dane uwierzytelniające z kont użytkowników za pośrednictwem komputera lokalnego i przesyłają je phisherom. Manipulacja linkiem Jeśli użytkownik kliknie mylący link, otworzy stronę phishera zamiast strony wskazanej w linku. Jednym z możliwych sposobów zapobiegania manipulowaniu łączem jest najechanie myszką na łącze w celu wyświetlenia rzeczywistego adresu.
Hakowanie sesji
W tym przypadku phisher wykorzystuje mechanizm kontroli sesji sieciowej w celu kradzieży informacji od użytkownika. W prostej procedurze hakowania sesji, znanej jako podsłuchiwanie sesji, phisher może użyć sniffera do przechwycenia odpowiednich informacji, aby uzyskać nielegalny dostęp do serwera WWW.
Rekonfiguracja systemu
W przypadku rekonfiguracji systemu phisherzy złośliwie wysyłają wiadomość, która naśladuje wiarygodne źródło, prosząc użytkownika o ponowne skonfigurowanie ustawień komputera.
Zastrzyk treści
Odnosi się to do przypadków, w których phisher zmienia część treści na stronie zaufanej witryny internetowej, aby skłonić użytkownika do przejścia na stronę poza legalną witryną, na której użytkownik jest proszony o podanie danych osobowych.
Phishing za pośrednictwem wyszukiwarek
Jest to częsta metoda stosowana przez przestępców. Dzięki tej metodzie phisher wabi użytkownika tanimi produktami i usługami za pośrednictwem fałszywej strony internetowej. Gdy użytkownik próbuje kupić produkt, wprowadzając dane karty kredytowej, są one zbierane przez witrynę phishingową.
Wyłudzanie informacji przez telefon
W przypadku phishingu telefonicznego phisher dzwoni do użytkownika z fałszywym identyfikatorem dzwoniącego i prosi użytkownika o wybranie numeru w celu uzyskania przez telefon informacji osobistych, takich jak informacje o koncie bankowym.
Wyłudzanie informacji złośliwym oprogramowaniem
Oszustwa phishingowe wykorzystujące złośliwe oprogramowanie uruchamiane na komputerze użytkownika. Dzięki tej metodzie złośliwe oprogramowanie jest zwykle dołączane do wiadomości e-mail wysyłanej do użytkownika przez phisherów. Czasami złośliwe oprogramowanie może być również dołączone do plików do pobrania. Gdy użytkownik kliknie pliki lub łącza do pobrania, złośliwe oprogramowanie zacznie działać, a phisher może zacząć otrzymywać poufne informacje, które zostaną wykorzystane do niecnych celów.
Ochrona przed phishingiem
Ogólnie rzecz biorąc, osoby fizyczne i korporacje mogą chronić się przed atakami typu phishing poprzez edukację użytkowników, rozwiązania zabezpieczające, analizę podatności na zagrożenia, analizę zagrożeń, dobrą kopię zapasową procesów i zachowania zdrowego rozsądku. Jeśli chodzi o zachowanie zdrowego rozsądku, osoby fizyczne powinny zwracać uwagę na oznaki oszustwa za każdym razem, gdy otrzymują jakąkolwiek formę komunikacji internetowej z prośbą o podanie jakichkolwiek danych osobowych. Niektóre charakterystyczne znaki obejmują adres e-mail adresowany do osoby jako "Użytkownik", w przeciwieństwie do zwracania się do osoby konkretnie jej imieniem i nazwiskiem. Ponadto wiadomość phishingowa może adresować daną osobę za pomocą jej adresu e-mail, a nie imienia i nazwiska. Inną zdroworozsądkową strategią ochronną, którą użytkownicy powinni zastosować, jest wyrobienie sobie nawyku nieklikania niechcianych wiadomości e-mail związanych z finansami. Wynika to z faktu, że jeśli e-mail pochodzi ze źródła phishingowego, odsyłacz przekieruje użytkownika do nikczemnej strony. Zaleca się również, aby użytkownicy stale sprawdzali u swoich dostawców usług wiadomości związane z oszustwami typu phishing, aby użytkownicy byli świadomi trwających oszustw typu phishing. Ta samokształcenie w znacznym stopniu zapewni ochronę przed oszustwami typu phishing. Organizacje mogą chronić siebie i swoje aktywa przed oszustwami typu phishing, organizując szkolenia w zakresie świadomości bezpieczeństwa dla swoich pracowników. Mogą wdrażać systemy wykrywające i eliminujące próby phishingu. Ponadto mogą przeprowadzać audyty podatności oraz opracowywać strategie i systemy poprawiające zidentyfikowane luki. Organizacje mogą opracować i wdrożyć solidne zasady, które koncentrują się na obecnych i przyszłych narzędziach i zasobach, które mogą chronić organizację przed lukami w zabezpieczeniach phishingu. Zasady te powinny koncentrować się na prawnych, regulacyjnych i innych obowiązkach dotyczących szyfrowania wiadomości e-mail i innych treści, jeśli zawierają one wrażliwe lub poufne dane. Solidne zasady same w sobie nie zapewnią ochrony bezpieczeństwa, ale mogą być przydatne w ograniczaniu liczby narzędzi używanych przez pracowników podczas uzyskiwania dostępu do zasobów korporacyjnych. Z kolei ograniczenia te mogą być pomocne w zmniejszaniu liczby punktów dostępu dla prób phishingu i innych treści, które mogą stanowić zagrożenie dla bezpieczeństwa.
Podcast to cyfrowy plik audio dostępny w Internecie do automatycznego pobierania. Podobnie jak program radiowy, podcasty są zwykle produkowane jako odcinki serii. Jednak w przeciwieństwie do programu radiowego słuchacze nie muszą włączać się o określonej godzinie i dniu, ale zamiast tego mogą słuchać podcastów "na żądanie" w czasie, który im odpowiada. Słuchacze mogą subskrybować za pośrednictwem kanału dystrybucji. Gdy powstają nowe nagrania, ten kanał automatycznie pobiera je na komputer lub urządzenie mobilne słuchacza. Podcasty mogą być monologami, wywiadami lub programami hostowanymi na wielu serwerach. Mogą mieć dowolną długość, od kilku minut do ponad godziny, i obejmować szeroki zakres tematów, od historii marynarki wojennej po uzależnienie od pióra, długie dziennikarstwo po kazania, muzykę po komedię, wykłady uniwersyteckie po grę w Trony. Podcasty zawierające wideo są określane jako wideocasty, vidcasty, vlogi lub vodcasty. Ten wpis przedstawia krótką historię podcastów, dostarcza informacji na temat tworzenia i korzystania z podcastów oraz omawia biznes podcastów i wykorzystanie podcastów w edukacji. Kończy się komentarzami na temat przyszłych wyzwań dla podcastów.
Historia podcastów
Podobnie jak w przypadku narodzin każdego ruchu oddolnego, relacje o pojawieniu się podcastów są różne. Jednak w większości wersji główni są dwaj Amerykanie - Adam Curry, dżokej wideo z MTV, oraz Dave Winer, programista i samozwańczy "haker medialny". W 1999 r. firma Netscape opracowała prototyp do agregowania tekstu z witryn internetowych, tak aby użytkownicy nie musieli sprawdzać aktualizacji każdej witryny. Stało się to technologią znaną obecnie jako Really Simple Syndication (RSS). W 2000 roku Winer i Curry zaadaptowali tę technologię do plików audio. Z technicznego punktu widzenia obejmowało to "załącznik", który umożliwiał przekazanie adresu pliku multimedialnego, takiego jak plik MP3 lub film, do agregatora RSS. W ten sposób słuchacze mogli otrzymywać automatyczne pobieranie po utworzeniu nowych plików. W 2003 roku Winer wystawił swoją adaptację na próbę. Rozpoczął współpracę z Christopherem Lydonem, byłym dziennikarzem, który prowadził bloga Radio Open Source. Wspólnie stworzyli nagrania audio
cotygodniowych pogłębionych wywiadów Lydona z blogerami i udostępnili je za pomocą technologii RSS na blogu Lydona. Według większości relacji jest to najstarszy wciąż działający podcast. Później tego samego roku Doug Kaye, amerykański fotograf, zamieścił na swoim blogu wywiady w formacie MP3, które przeprowadził z ekspertami internetowymi, i uruchomiono długotrwały podcast IT Conversations. W ciągu 10 lat IT Conversations miało wyprodukować ponad 3000 programów. Pod koniec 2004 roku, w oparciu o rosnącą popularność blogów, praktyka umieszczania plików audio na blogach zyskiwała na zainteresowaniu. Winer miał podcast o nazwie Morning Coffee Notes, a Curry miał podcast o nazwie Daily Source Code. Razem mieli program o nazwie Trade Secrets. Mała grupa podcasterów założyła listę mailingową, iPodder-dev. W lutym 2004 roku Ben Hammersley, dziennikarz The Guardian, relacjonując rozwój radia internetowego, użył terminu podcasting, będącego połączeniem iPoda i broadcast, aby opisać rosnącą praktykę. Zauważając splot
czynników, w tym rosnącą sprzedaż iPodów, bezpłatne oprogramowanie audio i popularność blogów, Hammersley zastanawiał się nad pojawiającym się potencjałem amatorów do tworzenia własnych programów radiowych. "Jak to nazwać?" zadumał się Hammersley, Blogowanie audio? Podcasty? GuerillaMedia? W 2005 r. iTunes uruchomił katalog podcastów zawierający 3000 podcastów, a New Oxford American Dictionary ogłosił podcast słowem roku. W ciągu dekady, która nastąpiła po jego pojawieniu się, podcasting odnotował znaczny wzrost, zarówno pod względem produkcji, jak i konsumpcji. W okresie 2 lat od 2013 do 2015 roku liczba podcastów wymienionych na iTunes podwoił się do ponad 250 000, aw tym samym okresie Libsyn, inny duży komercyjny host podcastów, opublikował 40% wzrost liczby wymienionych podcastów. Jednym z najważniejszych wydarzeń, którym przypisuje się rosnącą popularność podcastów, było wydanie w październiku 2014 r. Serialu. W ciągu 12 odcinków Serial opowiadał o morderstwie 18-letniego studenta, Hae Min Lee. Przyjmując podejście dziennikarza śledczego, z długimi odcinkami o różnej długości od 30 do 55 minut, Serial był prowadzony i produkowany przez Sarah Koenig. Pisząc odcinek po odcinku, bez poczucia, jak to się skończy, Koenig zauważył, że koncepcja nie jest nowa, ale "tak stara jak Dickens", z powiązaniami z wiktoriańską tradycją serializowania fikcji w formatach tygodniowych i miesięcznych. Spin-off twórców amerykańskiego cotygodniowego godzinnego programu radiowego This American Life, którego gospodarzem jest Ira Glass, Serial zajmował pierwsze miejsce w iTunes jeszcze przed jego wydaniem.
Tworzenie i konsumowanie podcastów
W porównaniu z bardziej tradycyjnym radiem podcasty mają wiele zalet dla twórców i odbiorców. Po pierwsze, podcasty są stosunkowo łatwe do wyprodukowania. W przeciwieństwie do tradycyjnego radia, nie jest wymagana żadna licencja. Chociaż obowiązują prawa autorskie, nie ma żadnych przepisów rządowych, a podcasty nie są kontrolowane przez przepisy dotyczące przyzwoitości transmisji, co daje twórcom znaczną swobodę w zakresie ich treści. Uwolnieni od ograniczeń czasowych tradycyjnych programów radiowych, podcasterzy mogą swobodnie tworzyć programy o różnym czasie trwania. Jedną z demokratyzujących cech podcastów jest łatwość ich tworzenia. Tworzenie podcastu składa się z czterech etapów: (1) nagrywanie, (2) edycja, (3) hosting/dystrybucja i (4) promocja. Nagranie podcastu audio wymaga tylko podstawowego oprogramowania i mikrofonu. Edycję można również przeprowadzić po prostu za pomocą bezpłatnego oprogramowania. Usługa hostingowa umożliwia twórcom przesyłanie, udostępnianie i śledzenie ich podcastów; dostępnych
jest wiele bezpłatnych usług. Chociaż możliwe jest hostowanie podcastów bezpośrednio z serwera witryny, hosty podcastów oferują korzyści w postaci analiz, śledzenia danych demograficznych słuchaczy, odtwarzania i pobierania. Wreszcie, aby zaangażować nowych odbiorców, twórcy podcastów umieszczają swoje pliki audio w katalogach. iTunes to największy katalog podcastów, ale istnieje wiele innych. Niektóre z bardziej udanych podcastów, takie jak This American Life i The Moth, mają własną aplikację. Drugą zaletą podcastingu jest dostępność dla odbiorców. Podcasty pozwalają odbiorcom wybrać nie tylko to, co chcą konsumować, ale także kiedy, gdzie i jak chcą konsumować. Abonenci, którzy nie są już związani z dniem i godziną emisji odcinka, mogą konsumować "na żądanie", kiedy im to odpowiada. Podcasty, określane jako przesunięcie w czasie, można nagrywać i zapisywać do późniejszego słuchania w taki sposób, w jaki magnetowidy lub TiVo umożliwiły nagrywanie programów telewizyjnych. Podcasting daje kontrolę słuchaczom
, którzy mogą wstrzymywać, przewijać i odtwarzać ponownie, jak chcą. Podcasty można przesyłać strumieniowo (słuchać bezpośrednio ze strony internetowej) lub pobierać i zapisywać na komputerze lub urządzeniu mobilnym. Korzystając z aplikacji podcatcher (znanej również jako katalog podcastów), słuchacze mogą wyszukiwać i subskrybować podcasty, automatycznie pobierając aktualizacje na urządzenia mobilne z systemem Android i Apple. Łatwość dostępu dobrze opisali Ira Glass i jego starsza sąsiadka Mary A′Hearn w swoim krótkim filmie Jak słuchać podcastu. Po trzecie, w przeciwieństwie do tradycyjnego radia lub telewizji, które są mediami nadawczymi przekazującymi programy do niezróżnicowanej masowej publiczności, podcasting jest celowo "narrowcastem", nadawaniem do samo-wybierającej publiczności, która aktywnie decyduje się na subskrypcję. Oznacza to, że zarówno twórca, jak i odbiorcy podcastów są często wyspecjalizowani. Daje to możliwość budowania społeczności wśród podobnie myślących osób. Ze względu na tę funkcję wąskocastową i sposób, w jaki podcasty są zazwyczaj konsumowane na urządzeniach mobilnych, słuchanie podcastu jest często samotnym i osobistym doświadczeniem. Jak skomentował Jason Reitman w wywiadzie dla Wall Street Journal, opisując swoje oczekiwanie na każdy odcinek serialu: "Jest coś bardzo intymnego w kimś, kto opowiada ci historię tak blisko twoich uszu". Nowe katalogi podcastów, takie jak Apple Car Play, Android Auto i Sticher Dash, zintegrowane z deskami rozdzielczymi samochodów, ułatwiają dostęp do podcastów w samochodzie. W przeciwieństwie do blogów tekstowych spersonalizowane słuchanie podcastów sprawia, że są one szczególnie podatnym gruntem dla reklamodawców.
Biznes podcastów
Podczas gdy większość podcastów jest tworzona przez amatorów dla niszowych odbiorców, a wiele z nich wydaje się mieć ograniczoną żywotność, podcasterzy odnoszący największe sukcesy utrzymują swoją pracę przez kilka lat, budując dużą i lojalną publiczność. This Week in Tech, cotygodniowy podcast omawiający trendy w technologii, który rozpoczął się w 2005 roku, odnotowuje ponad 500 000 pobrań na odcinek. WTF to dwa razy w miesiącu podcast prowadzony przez komika Marca Marona, zawierający rozmowy z muzykami, pisarzami, aktorami, filmowcami i komikami, aw 2015 roku z prezydentem USA. Począwszy od 2009 roku, WTF odnotowuje ponad 6 milionów pobrań każdego miesiąca. Podcasty z tak dużą publicznością mają potencjał dochodowy, ale nawet mniejsi odbiorcy oferują wyjątkowe możliwości generowania dochodów. Powstało wiele firm zajmujących się mediami cyfrowymi, aby wypełnić tę lukę, łącząc podcasterów z firmami, które chcą ulepszyć swój rynek. Podczas gdy reklamy podcastów docierają na mniejsze rynki niż inne reklamy, Michael Thomsen, piszący dla magazynu Forbes, poinformował, że reklamy podcastów, zazwyczaj czytane przez gospodarza programu i często oferujące zniżki dla słuchaczy, są nawet pięciokrotnie skuteczniejsze niż reklamy internetowe, przede wszystkim ze względu na intymność formy podcastu i poczucie więzi, jakie wielu słuchaczy odczuwa z prowadzącym. W swoim Przewodniku po podcastach, przygotowanym dla Tow Center for Digital Journalism, Vanessa Quirk zauważyła, że podcasterzy eksperymentują z różnymi źródłami przychodów, w tym reklamami i sponsoringiem, bezpośrednim wsparciem, dotacjami z fundacji, członkostwem i subskrypcjami oraz wydarzeniami na żywo. Wśród podcasterów, z którymi rozmawiała, Quirk uznał reklamę za najbardziej lukratywny strumień. Podobnie jak radio publiczne, podcasty również wykorzystywały crowdsourcing do finansowania swojej pracy od powstania do opracowania nowych sezonów. Dotacje z fundacji są źródłem finansowania dla niektórych podcasterów non-profit. Na przykład w 2015 roku Knight Foundation przekazała 1 milion dolarów na wsparcie rozwoju podcastu Radiotopia w Public Radio Exchange. Chociaż większość podcastów jest bezpłatna, niektóre generują dochód z subskrypcji lub członkostwa premium, zapewniając dodatkowe korzyści, takie jak dodatkowe odcinki lub wczesny dostęp do treści. Quirk zauważa, że wielu podcasterów eksperymentuje teraz z wydarzeniami na żywo jako źródłem dochodu. Chociaż wydarzenia na żywo są postrzegane jako cenny sposób na generowanie zaangażowania, mogą być kosztowne dla gospodarza, co oznacza, że producenci podcastów wychodzą na zero. Ostatnim źródłem dochodów, mniej powszechnym niż wcześniej wspomniane, są warsztaty i zajęcia prowadzone przez podcasterów, którzy dzielą się swoją wiedzą w zakresie treści lub wiedzy na temat podcastów. Podcasting został zintegrowany z wieloma firmami z gazetami, publicznymi nadawcami radiowymi i dużymi organizacjami, zwiększając ich inwestycje w tę formę.
Podcasty w edukacji
W ciągu kilku lat od pojawienia się podcastingu podejście to zostało przyjęte przez nauczycieli jako sposób na rozszerzenie nauki w szkołach podstawowych i średnich, a także w szkolnictwie wyższym. Podcasty były wykorzystywane na wiele sposobów, w tym do nagrywania zajęć, od dużych wykładów po nauczanie w małych grupach; zintegrować zaproszonych prezenterów; wyjaśnić zadania związane z oceną; wyjaśnić pojęcia progowe; jako elementarz zajęć w klasie w podejściu odwróconej klasy; przeglądać i streszczać materiał; oraz ułatwianie nauki za pomocą podcastów tworzonych przez uczniów. Korzyści płynące z podcastów w edukacji obejmują ogólną dostępność podcastów. Podcasty, które nie są już powiązane z godzinami zajęć, kolokacją i fizycznymi salami lekcyjnymi, zapewniają elastyczność nauki w dowolnym miejscu i czasie. Podcasty pozwalają uczniom kontrolować tempo uczenia się i przeglądać treści tyle razy, ile potrzebują, zwiększając w ten sposób możliwości głębokiego uczenia się. Dostarczanie podstawowych treści przed zajęciami za pośrednictwem podcastów może uwolnić czas zajęć na interaktywne i wciągające doświadczenia edukacyjne. Podcasty mogą stanowić dodatkowe materiały dla uczniów, którzy opuszczają zajęcia lub dla tych, dla których teksty pisane mogą stanowić wyzwanie. Ponadto podcasty to zasoby, które można ponownie wykorzystać i ponownie wykorzystać. Coraz powszechniejsze jest stosowanie "przechwytywania wykładów", w którym nagrania slajdów z wykładów i audio są tworzone przy użyciu technologii osadzonych w przestrzeniach dydaktycznych. Uważany za cenny sposób przeglądania złożonych treści, szczególnie dla studentów uczących się w drugim języku, przechwytywanie wykładów jest obecnie powszechne na większości uniwersytetów. Podcasty są generalnie wysoko oceniane przez studentów, którzy postrzegają nagrania jako pomocne; studenci najczęściej wymieniają przygotowanie do egzaminu jako podstawową wartość przechwytywania wykładów. Inne postrzegane korzyści obejmują przeglądanie pominiętych informacji, powracanie do złożonego materiału we własnym tempie i nadrabianie zaległości w zajęciach. Chociaż uczniowie oceniają podcasty jako pozytywnie wpływające na ich uczenie się, wiele badań eksperymentalnych nie potwierdziło korzyści płynących z podcastów na stopnie. Naukowcy wyrazili zaniepokojenie obecnością na zajęciach, gdy używane są podcasty, ale wyniki pozostają niejednoznaczne. Podczas gdy kadra nauczycielska korzystająca z przechwytywania wykładów często odnotowywała spadek frekwencji na zajęciach, zgłaszana przez studentów frekwencja wykazuje inny wzorzec, a niektóre badania wskazują, że wykorzystanie przechwytywania wykładów było najwyższe wśród uczniów, którzy uczęszczali regularnie. Nowsze badania wykorzystujące technologię kliknięć do rejestrowania rzeczywistej frekwencji nie wykazały spadku frekwencji wraz z wprowadzeniem podcastów. Mając na uwadze ciągłą innowacyjność, pojawia się zapotrzebowanie na wyspecjalizowane metody pedagogiczne lub "podagogie", które określałyby wartość podcastów edukacyjnych nie tylko jako sposobu na uzupełnienie tradycyjnego uczenia się w klasie, ale także w celu zapewnienia nowych sposobów konceptualizacji i ulepszania głębokiego uczenia się . W szczególności podcasty tworzone przez uczniów dają uczniom możliwość tworzenia i opracowywania własnych materiałów.
Przyszłe wyzwania
Chociaż podcasty znacznie się rozwinęły od początku XXI wieku, wciąż pozostaje wiele wyzwań. Pomimo ciągłego wzrostu popularności, nasycenie podcastami jest jednak niewielkie w porównaniu z tradycyjnym radiem. Zgodnie z dowodami przedstawionymi w arkuszu informacyjnym Pew Research Center Podcasting, tylko 2% wszystkich słuchanych plików audio w Stanach Zjednoczonych jest wydawanych na podcasty, podczas gdy 54% słuchanych dźwięków odbywa się za pomocą tradycyjnego radia AM/FM. Raport Pew sugeruje, że wyzwaniem dla dalszego rozwoju podcastów jest brak znajomości tego medium; tylko połowa Amerykanów w wieku powyżej 12 lat znała ten termin. Podczas gdy popularność podcastów wzrosła, penetracja wciąż znajduje się w tak zwanej fazie "wczesnego użytkownika": słuchacze podcastów są zazwyczaj poniżej 40 roku życia, wykształceni i mieszkają w miastach. Widoczne są również dowody na istnienie przepaści cyfrowej. Chociaż iTunes obsługuje podcasty w ponad 100 językach, podcasty w języku angielskim stanowią 80% całości. Ponadto raporty dotyczące podcastingu skupiają się prawie wyłącznie na produkcji i konsumpcji na Zachodzie, głównie w Stanach Zjednoczonych. Chociaż dostępność podcastów jest główną zaletą, konieczne są udoskonalenia w celu poprawy wykorzystania: nadal nie jest łatwo wyszukiwać podcasty lub udostępniać podcast, który Ci się podoba. Wiarygodne analizy stanowią dodatkowe wyzwanie. W raporcie Pew z 2016 r. zauważono, że obecne wskaźniki opierają się na pobraniach, ale nie określają, czy podcast został wysłuchany w całości, czy w części. W ramach posunięcia, które poprawi wiedzę na temat korzystania z podcastów, w 2016 roku Nielsen ogłosił, że włączy podcasty do swojej usługi Digital Audio Ratings Service.
Projekt Loon to plan zapewnienia bezpłatnego, bezprzewodowego dostępu do Internetu za pośrednictwem balonów na dużych wysokościach w stratosferze, około 18 do 27 kilometrów (km; 60 000-90 000 stóp) nad ziemią i ponad dwukrotnie wyżej niż samoloty. Został opracowany przez Google X, ramię badawcze Google wysokiego ryzyka. (Po reorganizacji Google w 2015 roku, zarówno on, jak i Google X stały się spółkami zależnymi Alphabet, a Google X stało się znane po prostu jako X). Wysokość. Na dużych wysokościach balony byłyby wolne od burz, chmur i lotów; niewidoczny dla wzroku; oraz w miejscu, gdzie wiatry wieją nieprzerwanie z prędkością około 20 km/h. Balony mogą wykorzystywać panele słoneczne do zasilania elektroniki i ładowania baterii litowej. Ten wpis analizuje specyfikacje techniczne, historię, implikacje i krytykę inicjatywy Project Loon.
Specyfikacja techniczna
Każdy balon nadciśnieniowy jest wykonany z lekkiego polietylenu Mylar i wypełniony helem i wodorem, a jego wysokość wynosi około 12 metrów, a średnica 15 metrów (rysunek 1). Balony są produkowane przez firmę Raven Aerostar. Każdy balon ma pod sobą gondolę z dwoma odbiornikami radiowymi do odbierania i wysyłania danych, komputer pokładowy, urządzenie śledzące Global Positioning System oraz antenę, która umożliwia komunikowanie się z innymi balonami za pośrednictwem sieci radiowej i kratowej oraz ze stacjami naziemnymi, a tym samym do lokalnych dostawców Internetu. Balony monitorują swoje położenie za pomocą globalnych systemów pozycjonowania, informują o warunkach pogodowych i wchodzą ze sobą w interakcje, zapewniając ciągły zasięg Internetu. Każdy balon obejmuje około 480 km2 i zapewnia dostęp do Internetu z prędkością 10 Mb/s (podobnie jak w przypadku sieci 3G). Kiedy jeden balon opuszcza dane terytorium, wchodzi inny, zapewniając ciągłą obsługę. Google może kontrolować tory lotu balonów i grupować je w obszarach wymagających usług internetowych. Instrukcje nawigacyjne są wysyłane co 15 minut: balony mogą wznosić się lub opadać na wietrze z pożądanym kierunkiem i prędkością, a Google twierdzi, że może używać złożonych algorytmów do zmiany wysokości, co z kolei będzie kierować ich szerokością i długością geograficzną. W 2015 roku jeden balon przeleciał 10 000 km i zbliżył się do docelowej wieży komórkowej na odległość 500 metrów. Inny przebywał w peruwiańskiej przestrzeni powietrznej przez 98 dni. Google współpracuje z lokalnymi organami kontroli ruchu lotniczego, kiedy balony wznoszą się lub opadają. Balony wykorzystują dane dostarczone przez National Oceanic and Atmospheric Administration. Zamiast negocjować zakup dedykowanej części przepustowości na całym świecie, Google woli dzierżawić balony operatorom w krajach, przez które przecinają balony, oszczędzając w ten sposób miliardy dolarów na licencjach na widmo. Ma na celu maksymalizację wykorzystania balonów "białych przestrzeni" lub pasm widma 700 MHz (megaherców), które zwolniły się, gdy firmy telewizyjne przeszły z transmisji analogowej na cyfrową. Google współpracuje z lokalnymi dostawcami usług telekomunikacyjnych, aby korzystali z tego samego protokołu. W 2014 roku Google przestawił balony z Wi-Fi na długoterminową ewolucję (LTE), standard szybkiej komunikacji bezprzewodowej, czyniąc je zasadniczo "pływającymi wieżami komórkowymi na niebie", które mogą komunikować się bezpośrednio z urządzeniami obsługującymi LTE.
Historia
Pomysł wykorzystania balonów do komunikacji ma długą historię, sięgającą czasów braci Montgolfier w XVIII wieku. Siły Powietrzne Stanów Zjednoczonych eksperymentowały z technologią balonów w latach pięćdziesiątych. Założyciele Google, Larry Page i Sergey Brin, od dawna fascynowali się balonami na dużych wysokościach. W 2008 roku Google rozważało zakup Space Data Corporation, małej firmy, która wysyła balony w górę, aby zapewnić łączność kierowcom ciężarówek, ale ostatecznie odmówiła. Projekt Loon został po raz pierwszy zaproponowany przez Google X w 2011 roku, kiedy przeprowadzono próby próbne w środkowej Kalifornii. Został oficjalnie ogłoszony w 2013 roku, wraz z podobnymi projektami wysokiego ryzyka, takimi jak Google Glass i samochody bez kierowcy. Pod kierownictwem kierownika projektu Mike'a Cassidy'ego przeprowadzono eksperyment pilotażowy na Wyspie Południowej Nowej Zelandii w pobliżu Christchurch/Canterbury. Pierwsze 50 balonów pękło podczas podnoszenia się z powodu zbyt dużego ciśnienia wewnętrznego; kilka kolejnych trwało tylko dzień lub dwa w locie. Ostatecznie system zadziałał, najpierw z 5 balonami, a następnie z 30, w czerwcu 2013 r.; Lokalna para rolników, Hayden i Ann MacKenzie, z miasta Leeston, jako pierwsza skorzystała z nowej usługi. Następnie Google ogłosił plany wysłania do 300 kolejnych balonów, które okrążą kulę ziemską na 40° szerokości geograficznej południowej, obejmując Australię, Nową Zelandię oraz południową Argentynę i Chile. Project Loon działa głównie na półkuli południowej, po części dlatego, że tam usługi internetowe są najbardziej potrzebne i jest mniej problemów z kontrolą ruchu. Oczekuje się, że ostateczny projekt będzie miał tysiące takich balonów na całym świecie. Do tej pory loty testowe doprowadziły balony do pokonania ponad 19 milionów km. Projekt początkowo wydawał się tak dziwaczny, że nazwano go "zwariowanym", stąd nazwa Loon. Koszt projektu nie został ujawniony. Zbudowane na zamówienie automatyczne wyrzutnie Google o wysokości 55 stóp są w stanie wysłać balon w górę co 15 do 30 minut. Jeśli balony wymagają naprawy, można je opróżnić i sprowadzić na Ziemię za pomocą spadochronu; przebiegi próbne wskazują, że trwają zwykle około 100 dni, zanim będą wymagać konserwacji. Maksymalny dotychczasowy czas utrzymywania się balonu na powierzchni wynosi 187 dni, czyli około 6 miesięcy, podczas których okrążył Ziemię dziewięć razy. W przypadku nieoczekiwanego zjazdu spadochron otwiera się automatycznie. Jednak w 2014 roku balon Loon rozbił się na liniach energetycznych w stanie Waszyngton, wyłączając prąd dla tysięcy, a inne rozbiły się w innych stanach w Stanach Zjednoczonych, takich jak Missouri, Kalifornia i Południowa Dakota; Paragwaj; Argentyna; Brazylia; Sri Lanka; i RPA. Niektórzy obserwatorzy rozbijających się balonów myśleli, że to samoloty wywołujące falę paniki. Podczas demonstracji w locie testowym dla ministra telekomunikacji Brazylii balon nie połączył się z zamierzoną wioską. Wreszcie, aby utrzymać ogólnoświatową sieć balonów, potrzebny jest globalny system dedykowanego personelu technicznego
Implikacje
Projekt Loon został pomyślany jako sposób na zapewnienie dostępu do Internetu na odległych obszarach wiejskich, zwłaszcza poza zasięgiem masztów telefonii komórkowej, którymi prywatni dostawcy Internetu na ogół nie są zainteresowani obsługą, pomagając w ten sposób złagodzić globalną przepaść cyfrową. Technologia jest idealna dla krajów, których nie stać na układanie kosztownych kabli światłowodowych. W biedniejszych krajach usługi 3G lub 4G są rzadkie lub nie istnieją. Rządy posiadające usługę Loon mogą zdecydować, że nie muszą inwestować w zapewnienie dostępu do Internetu na obszarach o niedostatecznym zasięgu. Ponieważ projekt jest jeszcze w powijakach, jego pełne konsekwencje nie są jeszcze jasne. W zakresie, w jakim zapewni szybki i niezawodny dostęp populacjom o niedostatecznym zasięgu, wizja Google dotycząca globalnej sieci bezprzewodowej bez granic zwiększy globalne wskaźniki penetracji. Deklarowanym celem Google jest połączenie 1 miliarda ludzi w ramach projektu, który obejmowałby połączenie obszarów miejskich i wiejskich. Oczywiście miliony nowych internautów stworzyłyby również nowe rynki dla reklam w Google, głównym źródle przychodów. W 2015 roku Google nawiązał współpracę z rządem Indonezji w nadziei, że wykorzysta swoje balony do udostępnienia usług internetowych na wszystkich 17 000 wysp tego kraju. W 2016 roku Sri Lanka stała się drugim krajem na świecie (po Watykanie) z pełnym zasięgiem Internetu w technologii LTE. Niektórzy porównują projekt Loon Google z początkowym programem wykorzystania dronów do tego samego celu, który rzekomo planował Facebook, rozpętając "walkę powietrzną" w celu świadczenia lotniczych usług internetowych. Balony są znacznie tańsze niż drony, ale te drugie są bardziej niezawodne.
Krytyka i kontrowersje
Obawy dotyczące Projektu Loon zostały podniesione w różnych kręgach. Astronomowie obawiają się, że jego szerokość pasma może zakłócać ich obserwacje. Były prezes Microsoftu, Bill Gates, skrytykował projekt Loon, argumentując, że "kiedy umierasz na malarię, przypuszczam, że spojrzysz w górę i zobaczysz ten balon, i nie jestem pewien, w jaki sposób ci to pomoże" (Dredge, 2013) .
Jak zauważa Kevin Fitchard (2013), największe przeszkody nie mają charakteru technicznego, ale politycznego. Balony mogą narazić Google na oskarżenia o szpiegostwo. Kraje niepoinformowane o przylocie balonów mogą interpretować to jako naruszenie ich przestrzeni powietrznej. Ci, którzy praktykują surową cenzurę internetową, nie będą zadowoleni z usług, które omijają kontrole państwowe. Unikanie krajów, które nie zezwalają na przeloty, jest trudne.
Przeglądarka internetowa to program, który działa jako portal do sieci World Wide Web, umożliwiając użytkownikowi komputera, smartfona lub tabletu dostęp do stron internetowych zawierających informacje, pliki i multimedia. W rzeczywistości jest to graficzny interfejs użytkownika, który umożliwia użytkownikom interakcję z Internetem i został zaprojektowany do prostego i efektywnego działania. Użytkownik nie musi posiadać wiedzy technicznej do obsługi przeglądarki internetowej. W związku z tym ich znaczenia nie można lekceważyć. Chociaż dostęp do stron internetowych jest możliwy bez przeglądarki, wymaga to znajomości poleceń tekstowych. W tym wpisie najpierw zdefiniowano przeglądarki internetowe i omówiono sposób ich działania. Kończy się omówieniem rozwoju przeglądarek internetowych w czasie i prawdopodobnym sposobem ich wykorzystania w przyszłości.
Zdefiniowane przeglądarki internetowe
Internet to sieć sieci komputerowych, podczas gdy World Wide Web obsługuje dokumenty, zdjęcia, filmy, pliki muzyczne i inne rodzaje danych. Sieć jest połączona za pomocą szeregu linków hipertekstowych. Gdy ktoś jest podłączony do Internetu, może korzystać z sieci. Witryna internetowa składa się ze stron internetowych. Wczesna sieć łączyła pliki multimedialne, tekstowe i graficzne w formacie łatwym w nawigacji. Przeglądarka jest prezentowana wizualnie na wyświetlaczu urządzenia jako cyfrowe okno z ikonami, w tym do przodu i do tyłu do poruszania się między stronami, przyciskiem zakładki do zapisywania strony do późniejszego przeglądania oraz przyciskiem odświeżania do ponownego generowania strony po wprowadzeniu nowych informacji lub gdy strona uległa awarii. Dostęp do większości przeglądarek można uzyskać, klikając (lub dotykając ekranu dotykowego) ikonę przeglądarki. Popularne przeglądarki to Google Chrome, Mozilla Firefox, Microsoft Edge i Safari. Internet Explorer jest nadal używany na całym świecie, nawet gdy Microsoft wycofuje aktualizacje zabezpieczeń i wsparcie techniczne. Przeglądanie na kartach, które umożliwia użytkownikowi sieci otwieranie wielu "zakładek" różnych witryn internetowych jednocześnie w tym samym oknie przeglądarki, stało się powszechne dzięki wprowadzeniu tej funkcji przez przeglądarkę InternetWorks w 1994 r. Dostęp do stron internetowych można uzyskać, wpisując unikalny adres URL (Uniform Resource Locator) w pasku adresu u góry okna przeglądarki; poprzez wyszukanie strony w wyszukiwarce, takiej jak Google lub Bing; lub klikając hiperłącze z innej strony. Przełączanie między stronami internetowymi to tak zwane surfowanie po Internecie.
Jak działają przeglądarki internetowe
Po wpisaniu żądania w przeglądarce internetowej, znanej również jako klient sieciowy, jest ono wysyłane do serwera sieciowego. Każda witryna została zbudowana i sformatowana przy użyciu hipertekstowego języka znaczników (HTML). Złożone informacje o stronie internetowej są przekazywane do indywidualnej przeglądarki przez serwer sieciowy, który następnie generuje stronę internetową i wyświetlane na niej elementy. Przeglądarki traktują wszystkie serwery tak samo, niezależnie od przekazywanych informacji. Każda przeglądarka różni się swoimi możliwościami, ale wszystkie obsługują odczyt HTML. W rezultacie strony internetowe mogą wyglądać inaczej w różnych przeglądarkach, a programiści muszą to uwzględnić. Przeglądarki mogą wyświetlać strony internetowe dzięki protokołowi sieciowemu, czyli zestawowi sformalizowanych reguł, zwanych HTTP (protokół przesyłania hipertekstu), który generuje funkcję żądanie-odpowiedź odpowiedzialną za przesyłanie i wyświetlanie informacji. Przeglądarki muszą być chronione za pomocą środków bezpieczeństwa internetowego, aby odpowiednio chronić je przed cyberzagrożeniami. Firmy wydają teraz regularne aktualizacje przeglądarek internetowych, aby zapewnić ich wydajne działanie i chronić przed wirusami i szkodliwym oprogramowaniem. Brak regularnych aktualizacji przeglądarki może narazić urządzenie na ataki hakerów i naruszenia bezpieczeństwa. Przeglądarki stają się coraz bardziej wyrafinowane ze względu na to, że działają jako klienci aplikacji internetowych, które pozwalają użytkownikowi przesyłać dane do przetwarzania i przechowywania. Przykłady aplikacji internetowych obejmują usługi e-mail, koszyki zakupów w witrynach detalicznych, pola przesyłania i usługi komunikatorów internetowych, takie jak Google Gchat. Rosnące wyrafinowanie aplikacji internetowych oznacza, że usługi zwykle zarezerwowane dla komputerów stacjonarnych migrują do sieci, czemu sprzyja rozwój usługi Dysk i przetwarzanie w chmurze. Na przykład zarówno Mozilla, jak i Chrome mają własne usługi klienta poczty e-mail - odpowiednio Thunderbird i Google Mail. Aplikacje obsługują dodatkowe oprogramowanie zwane wtyczkami, które dodają nowe funkcje do aplikacji i pozwalają użytkownikowi sieci na dostosowanie przeglądarki do własnych preferencji. Przykłady wtyczek obejmują QuickTime i Real Audio, chociaż oszuści mogą próbować zainfekować przeglądarkę, projektując złośliwe oprogramowanie tak, aby wyglądało jak legalna wtyczka. Informacje przechowywane w przeglądarce użytkownika są nazywane plikami cookie. Plik cookie to plik tekstowy, który jest zapisywany podczas zawierania transakcji, takich jak wypełnienie formularza lub wprowadzanie szczegółów płatności, lub w celu monitorowania, jak długo użytkownik spędza na określonej stronie internetowej lub określonych preferencji użytkownika. Przeglądarka internetowa wysyła informacje o plikach cookie do serwera sieciowego, aby rozpoznać użytkownika i jego wcześniejsze zachowanie w sieci oraz uniemożliwić mu ponowne wprowadzenie tych samych informacji. Użytkownicy mogą zrezygnować z przechowywania plików cookie lub regularnie usuwać pliki cookie. Przeglądarki używają protokołów Secure Sockets Layer (SSL) w celu zapewnienia bezpieczeństwa wprowadzonych informacji i uwierzytelnienia użytkownika sieci. SSL pojawił się w Netscape w 1994 roku i szyfruje dane przesyłane między serwerem WWW a klientem. Wprowadzając https:// przed określonym adresem URL, użytkownik sieci ostrzega witrynę i przeglądarkę o tym, że używany jest protokół SSL, a witryna zostanie wyświetlona poprawnie po zweryfikowaniu tego.
Krótka historia przeglądarek internetowych
Sir Tim Berners-Lee, wynalazca World Wide Web, jest również uznawany za wynalazcę pierwszej przeglądarki internetowej w 1990 roku. Stworzył przeglądarkę WorldWide-Web na komputerze NeXT dla platformy NeXTstep, która pełniła również funkcję edytora, podczas gdy pracował w CERN w Genewie. Była to przeglądarka tekstowa. W 1994 roku założył także World Wide Web Consortium (znane również jako W3C). Organizacja została zaprojektowana w celu tworzenia standardów protokołów w sieci i zachęcania do zdrowej konkurencji między firmami i osobami fizycznymi, zapobiegając w ten sposób monopolizacji. Odpowiada również za standaryzację HTML dla wszystkich stron internetowych. Struktura i protokoły Bernersa-Lee położyły podwaliny pod późniejsze iteracje przeglądarki. Inżynierowie z National Center for Supercomputing Applications na University of Illinois Urbana-Champaign opracowali przeglądarkę Mosaic, która została wydana w 1993 roku. Mosaic został udostępniony bezpłatnie uniwersytetom i innym instytucjom edukacyjnym, ale pobierał opłaty od innych użytkowników i był chwalony za jego bogaty w multimedia interfejs graficzny. Wcześniej obrazy były widoczne na stronach internetowych tylko jako osobne pliki, podczas gdy Mosaic łączył tekst i obraz na tej samej stronie. Wprowadzono również koncepcję korzystania z hiperłączy "wskaż i kliknij", ponieważ inne przeglądarki wymagały od użytkowników wprowadzenia numerów referencyjnych w celu pobrania powiązanych dokumentów. Marc Andreessen, główny inżynier oprogramowania Mosaic, opuścił firmę, aby założyć Netscape Communications wraz z Erikiem Biną w 1994 roku, a rok później wypuścił pierwszą przeglądarkę, która odniosła sukces komercyjny, Netscape Navigator. Netscape Navigator był powszechnie używaną przeglądarką, podobnie jak Internet zaczął wchodzić w sumienie świata. Jego druga wersja była dostępna dla systemu Microsoft Windows, systemu Apple Macintosh, HP-UX i Sun Solaris. Stał się liderem rynku, odpowiadając za około 90% wszystkich zastosowań w szczytowym okresie, zanim rywalizacja z Internet Explorerem Microsoftu o udział w rynku doprowadziła do tak zwanej pierwszej wojny przeglądarek. W 1995 r. Internet zaczął być uznawany za ogromne źródło informacji i sieć komunikacyjną przez konsumentów spoza branży technologicznej, a zainteresowanie zaczęło eksplodować. Microsoft wypuścił Internet Explorera 1.0 jako część swojego pakietu oprogramowania Windows 95, zanim bezpłatnie udostępnił wersję 2.0 3 miesiące później. Obie firmy rywalizowały o rodzące się wyszukiwarki, które według ich teorii mogłyby działać jako bramy dla większej liczby odwiedzających, a zatem konkurencja była zacięta. Internet Explorer powoli przejął kontrolę nad rynkiem, a Netscape został ostatecznie kupiony przez America Online za 4,2 miliarda dolarów w 1998 roku. Przeglądarka Safari firmy Apple została wydana w 2003 roku, która jest domyślną przeglądarką dla komputerów Mac, iPhone′ów i iPadów, a organizacja non-profit Mozilla, utworzona przez firmę Netscape po jej przejęciu, stworzyła przeglądarkę Firefox w 2002 roku, zanim wypuściła ją 2 lata później. Spowodowało to drugą wojnę przeglądarek w połowie 2000 roku. Decyzja Microsoftu o dołączeniu Internet Explorera do swojego systemu operacyjnego została uznana za problematyczną. Firma została oskarżona przez Komisję Europejską o próbę zmonopolizowania rynku poprzez antykonkurencyjne praktyki biznesowe, będące efektem skarg składanych przez Sun Microsystems i Novell. Firma zapłaciła grzywnę w wysokości 497 milionów euro w lipcu 2004 roku. W ostatnich latach pozycja Microsoftu na rynku została osłabiona przez wprowadzenie przeglądarki Google Chrome przez Google w 2008 roku. Google Chrome łączy zarówno polecenia wyszukiwania, jak i adresu w jednym "omniboksie" i jest chwalony za szybkość i łatwość obsługi. Został pierwotnie zaprojektowany dla systemów Windows, ale teraz może być uruchamiany przez wiele innych. W przeszłości użytkownicy sieci byli ograniczeni do przeglądarki internetowej zainstalowanej fabrycznie na ich komputerze. Teraz różne przeglądarki można pobrać na urządzenia różnych firm: na przykład za pomocą przeglądarki Apple Safari na komputerze PC (komputerze osobistym) z systemem Windows 10 lub Google Chrome na iPhonie. Jednak Internet Explorer był kompatybilny tylko na komputerach z systemem operacyjnym Microsoft Windows. Wieloplatformowe podejście przeglądarki Google Chrome pomogło jej zdominować rynek. Microsoft ogłosił, że Internet Explorer 11 będzie ostateczną wersją przeglądarki w 2015 roku. Został on zastąpiony przez Microsoft Edge, który jest domyślną przeglądarką dla oprogramowania Windows 10. Starsze wersje Internet Explorera nie będą już otrzymywać aktualizacji zabezpieczeń.
Przejście do przeglądarek mobilnych
Smartfon jako środek dostępu jest obecnie tak samo widoczny, jak korzystanie z komputera stacjonarnego lub laptopa. W wielu krajach, w tym w Indiach i Chinach, mobilny dostęp do Internetu jest bardziej rozpowszechniony niż korzystanie z komputerów stacjonarnych. Abonamentom mobilnego Internetu przypisuje się napędzanie wzrostu gospodarczego i innowacji w regionach świata, w tym w Ameryce Łacińskiej i na Bliskim Wschodzie. Przeglądarki mobilne zostały zoptymalizowane pod kątem wyraźniejszego wyświetlania tekstu, obrazów i grafiki na mniejszych wyświetlaczach. Witryny przeznaczone do przeglądania na komputerze stacjonarnym wydają się małe i zaśmiecone na zmniejszonych ekranach. podobnie programiści muszą teraz uwzględniać użytkowników sieci przeglądających witryny na znacznie większych ekranach, na przykład za pośrednictwem inteligentnych telewizorów. Badania sugerują, że witryny, które nie będą dostosowane do urządzeń mobilnych, wkrótce staną się przestarzałe, ponieważ firmy obawiają się, że stracą potencjalną sprzedaż, jeśli ich witryny nie będą natychmiast dostosowywać się do stale zmieniających się wymagań użytkowników. Smartfony zwykle łączą się z Internetem za pośrednictwem sieci komórkowych (połączenia 3G lub 4G) lub połączeń routera sieci bezprzewodowej Wi-Fi. W związku z tym mają tę przewagę nad komputerami stacjonarnymi, że mogą być używane w podróży. Zmieniło się to, w jaki sposób iw jakim celu użytkownicy przeglądają Internet - w rezultacie wygodniej wymieniają się informacjami finansowymi za pośrednictwem przeglądarek mobilnych niż w przeszłości, a bezpieczeństwo ich uspokaja, podczas gdy w przeszłości badania sugerują, że użytkownicy uważali witryny na komputery za bardziej godne zaufania. Badania wskazują, że użytkownicy mobilni częściej korzystają obecnie z przeglądarek mobilnych niż z aplikacji stworzonych do tego celu, a coraz większa liczba aplikacji sama staje się zawoalowaną przeglądarką, oferując możliwość klikania w łącza i spędzania czasu na stronach z poziomu aplikacji , takich jak Facebook. Popularność przenośnych urządzeń dostępu do Internetu będzie rosła, a komputery stacjonarne będą w coraz większym stopniu relegowane do zastosowań i celów korporacyjnych. W związku z tym twórcy stron internetowych muszą nadal stawiać na prostotę i łatwość użytkowania w ograniczonych obszarach wyświetlania. Sterowanie głosowe to kolejny rozwijający się obszar badań, który może zmienić sposób interakcji użytkowników z siecią. Zaawansowana technologia rozpoznawania głosu eliminuje potrzebę interfejsu graficznego i wprowadzania danych metodą "wskaż i kliknij", co oznacza, że użytkownicy mogą surfować po sieci po prostu wypowiadając polecenia na głos. W ciągu ostatnich 25 lat Internet zmienił nasze życie. Bez przeglądarek nie byłoby nas abyśmy mogli zobaczyć, jak bardzo zmieniło się nasze życie.
Projektowanie stron internetowych ma znaczenie w organizacjach nastawionych na zysk i non-profit i jest zjawiskiem globalnym. Projektowanie stron internetowych jest podatne na różnorodność na wiele sposobów związanych z kulturą, płcią lub lokalizacją kraju. Projektowanie stron internetowych ma wpływ na wszystko, od handlu elektronicznego po perswazję online w e-zdrowiu lub polityce i tradycyjnie obejmuje prezentację informacji, łatwość nawigacji i estetykę witryny. Projekt strony internetowej wpływa na zaufanie, satysfakcję, przyjemność i lojalność użytkowników. W tym wpisie zwrócono uwagę na niektóre kluczowe kwestie związane z projektowaniem stron internetowych, w tym perspektywę użytkową i hedoniczną, projektowanie dla rynków globalnych oraz względy projektowe dla różnych odbiorców.
Perspektywa utylitarna i hedoniczna
Tradycyjnie projektowanie stron internetowych koncentrowało się na wynikach użytkowych, a nie na ogólnym doświadczeniu użytkownika. W handlu elektronicznym perspektywa utylitarna oznacza nacisk na zachowania poznawcze, takie jak znalezienie przedmiotu, a następnie podjęcie decyzji, czy należy go kupić. Zarówno pod względem praktycznym, jak i teoretycznym, najważniejsza była postrzegana użyteczność i łatwość użytkowania strony internetowej. Alternatywnie, począwszy od około 2000 roku, badacze zajmujący się projektowaniem stron internetowych zaczęli badać hedoniczne wyniki, które skutkują przyjemnością i przyjemnością użytkowników. Projekt wizualny i estetyka zostały włączone do doświadczenia użytkownika, reprezentowane przez kolor, grafikę, układ lub obrazy. Badania zaczęto badać hedoniczne elementy stron internetowych, takie jak obrazy, atrakcyjność kolorystyczna, złożoność wizualna lub obecność twarzy. Zamiast koncentrować się na utylitarnych lub hedonicznych elementach witryny, wprowadzono również "model zrównoważonego myślenia i uczuć", w którym zarówno użyteczność, jak i przyjemność przyczyniły się do nastawienia użytkownika i przyjęcia witryny. W kontekście hedonicznych interakcji na stronach internetowych, postrzegana obecność społeczna zyskała znaczną uwagę jako poprzedzająca przyjemność korzystania z Internetu. Postrzegana obecność społeczna jest charakteryzowana jako zdolność medium do przekazywania bogactwa informacji, a także tworzenia psychologicznej więzi z użytkownikiem, który postrzega serwis jako "ciepły", osobisty i towarzyski, tworząc w ten sposób poczucie kontaktu z człowiekiem. Przykłady funkcji witryn internetowych, które zachęcają do obecności w mediach społecznościowych, obejmują tekst o charakterze społecznościowym, spersonalizowane powitania, dźwięk ludzki i wideo. Kiedy obecność społecznościowa jest postrzegana na stronie internetowej, często skutkuje zaufaniem do witryny i wynikami utylitarnymi, takimi jak postrzegana użyteczność lub skuteczność.
Lokalizacja witryn internetowych i rynki globalne
Chociaż użytkownicy sieci mieszkają w różnych lokalizacjach, projektowanie witryn internetowych nie zawsze uwzględnia preferencje krajowe lub kulturowe, w tym podstawowe różnice, takie jak język lub zlokalizowane treści. Jednak aby były skuteczne i atrakcyjne dla użytkowników, strony internetowe wymagają lokalizacji produktów lub usług na język użytkownika, a także wrażliwości na szczegóły, takie jak waluta, preferencje kolorystyczne, obrazy, symbole, grafika, role płciowe, układ strony i geografia. Lokalne lub odpowiednie kulturowo strony internetowe mają uzasadnienie ekonomiczne. Wcześniejsze badania wykazały, że jeśli międzynarodowi lub zróżnicowani kulturowo użytkownicy lubią stronę internetową, jest bardziej prawdopodobne, że ją odwiedzą, spędzą na niej czas i ponownie odwiedzą ją w przyszłości. Aby zademonstrować pewne różnice kulturowe w projektowaniu informacji, na przykład w Ameryce Północnej za pożądane uważa się znaczne ilości informacji o produkcie, podczas gdy we Francji podawanie zbyt wielu informacji jest postrzegane jako protekcjonalne. Istnieją również różne preferencje użytkowników dotyczące postrzeganego dostępu i prezentacji informacji o produkcie. Istnieją również różnice związane z projektowaniem wizualnym, a kolory mają różne znaczenia w różnych kulturach. Czerwony oznacza szczęście w Chinach, ale niebezpieczeństwo w Stanach Zjednoczonych. W Chinach lub Japonii użytkownicy zdecydowanie preferują elementy wizualne, w tym obrazy, jasne kolory i animacje. Co więcej, porównując indyjskie i amerykańskie strony internetowe związane z językiem, obrazami, symbolami i kolorami, można znaleźć znaczne różnice dotyczące użycia koloru. Jeśli chodzi o projektowanie nawigacji, Niemcy, którzy na ogół nie czują się komfortowo z niepewnością (zgodnie z porównaniami kulturowymi), preferują schematy nawigacji, które mają zapobiegać gubieniu się użytkowników. Z drugiej strony Europejczycy i mieszkańcy Ameryki Północnej preferują nawigację, która ułatwia poruszanie się i ułatwia korzystanie ze strony internetowej. Mieszkańcy Azji/Latynosów i Ameryki Południowej chcą, aby pomoce nawigacyjne zmieniały wygląd witryny bez obawy o ruch. Warto zauważyć, że elementy projektu strony internetowej, które wpływają na zaufanie użytkowników, również różnią się w zależności od kraju. W dochodzeniu dotyczącym handlu elektronicznego w Kanadzie, Niemczech i Chinach projekt nawigacji zaowocował zaufaniem w Kanadzie i Chinach, projekt wizualny zaowocował zaufaniem tylko w Chinach, a projekt informacji zaowocował zaufaniem tylko w Kanadzie. Wszystko to powinno zwiastować projektantom stron internetowych, że lokalizacja strony internetowej i zwracanie uwagi na różnice kulturowe są niezbędne do pomyślnego zaprojektowania strony internetowej. Mimo to wiele firm prowadzących działalność międzynarodową nie lokalizuje swojej oferty produktów lub usług.
Projektowanie dla różnorodności
Poza różnicami globalnymi, preferencje w projektowaniu stron internetowych wynikają z płci, wartości i różnic wiekowych. Począwszy od różnic między mężczyznami i kobietami, pojawiają się różne preferencje dotyczące kształtów, kolory i obrazy. Kobiety często mniej pozytywnie niż mężczyźni postrzegają strony internetowe pod względem bogactwa informacji, efektywności komunikacji i interfejsu komunikacyjnego. Dokładne opisy produktów i uczciwe ceny są ważne dla mężczyzn, podczas gdy dla kobiet ważniejsze są etykiety zwrotne (czyli możliwość zwrotu produktu). Jeśli chodzi o niektóre specyficzne cechy projektu, kobiety nie lubią dużej ilości interaktywności w witrynie i uważają animacje za mniej znaczące niż mężczyźni. Cechy wizualizacji, takie jak kolor, kształty i użycie specjalistycznego języka, różnią się między mężczyznami i kobietami, a także istnieją różnice w używaniu głosu, koloru i języka. Znaczenie obecności w serwisach społecznościowych różni się również w przypadku mężczyzn i kobiet. W przypadku witryny e-usług sprzedającej bilety na koncerty kobiety szukały treści hedonicznych, aby je "zaangażować", podczas gdy mężczyźni byli bardziej utylitarni w swoich komentarzach i bardziej skupiali się na informacjach, których ich zdaniem brakowało. W przypadku strony internetowej z minimalną obecnością w mediach społecznościowych kobiety komentowały, że jest nudna, ma za mało zdjęć, nie ma żywiołowości i nie zawiera emocji. Natomiast, komentując wyższe warunki obecności społecznej, kobiety zauważyły, że czują się zrelaksowane i lubią czytać stronę internetową, że wzbudza ona ich ciekawość i że strona bardziej przypomina pokój rozmów towarzyskich niż zimną, bezosobową stronę internetową sprzedającą koncerty bilety. Mężczyźni na ogół preferują strony internetowe tworzone przez mężczyzn, podczas gdy kobiety wolą strony internetowe tworzone przez kobiety. Biorąc to pod uwagę, większość projektantów stron internetowych to mężczyźni. W jednym badaniu porównującym 30 witryn stworzonych przez mężczyzn z 30 witrynami stworzonymi przez kobiety stwierdzono znaczące różnice w projekcie w odniesieniu do nawigacji i treści wizualnych. Strony internetowe zaprojektowane przez kobiety miały linki do więcej tematów niż te zaprojektowane przez mężczyzn. Używano innego języka: na stronach tworzonych przez mężczyzn było więcej odniesień do konkurencyjności, podczas gdy kobiety częściej używały skrótów i nieformalny język. Projekt wizualny różnił się w zależności od stron internetowych skierowanych do mężczyzn i kobiet, a na stronie pojawiały się obrazy przedstawiające własną płeć. Kobiety częściej niż mężczyźni używały zaokrąglonych, a nie prostych kształtów, większej liczby kolorów, układu poziomego i nieformalnych obrazów. Podczas gdy poprzednia dyskusja skupiała się na biologicznych różnicach dotyczących tego, czy ktoś jest mężczyzną, czy kobietą, to czy ktoś ma męską czy kobiecą orientację na wartości - określaną jako płeć psychologiczna - może również wpływać na postrzeganie strony internetowej. Wartości męskie (oparte na wcześniejszych badaniach) podkreślają cele pracy, takie jak sukces materialny, uznanie, wyzwanie, awans i osiągnięcie określone przez zarobki. Alternatywnie, wartości kobiece koncentrują się na celach związanych z jakością życia w pracy, takich jak wspierające i przyjazne środowisko pracy, współpraca, bezpieczeństwo pracy i osiągnięcia określone w odniesieniu do relacji zawodowych i kontaktów międzyludzkich. Te orientacje na wartości przekraczają granice płci. Na przykład mężczyzna może mieć kobiecą orientację na wartości, podczas gdy kobieta może wykazywać wartości uważane z natury za męskie. Mężczyźni i kobiety mogą jednocześnie wykazywać obie orientacje na wartości, co nazywa się androgynią. Koncentrując się na wartościach męskości i kobiecości, przeanalizowano zawartość ponad 90 północnoamerykańskich stron internetowych skierowanych do mężczyzn lub kobiet, aby zidentyfikować przekonania, postawy i retorykę, z odkryciem różnic w każdej kategorii. W kulturach o wyższej męskości elementy projektu interfejsu koncentrują się na tradycyjnych rozróżnieniach na płeć / rodzinę / wiek; zadania w pracy, role i opanowanie; nawigacja jest zorientowana na eksplorację i kontrolę; uwaga jest zdobyta poprzez gry i zawody; a grafika, dźwięk i animacja są wykorzystywane do celów użytkowych. Kultury kobiece kładą nacisk na zacieranie się ról płciowych, wzajemną współpracę i wzajemne wsparcie zamiast mistrzostwa i wygrywania, estetykę wizualną i odwoływanie się do wartości jednoczących. W związku z tym projektanci stron internetowych muszą zwracać uwagę nie tylko na różnice między mężczyznami i kobietami, ale także na bardziej subtelne różnice wartości. Wiek jest powszechnym wymiarem używanym do segmentacji konsumentów i grup użytkowników związanych z projektowaniem stron internetowych. W badaniach dotyczących użytkowników z pokolenia Y (w wieku 18-31 lat) ważna była estetyka i wygląd strony internetowej oraz atrakcyjność wizualna strony głównej. Użytkownicy poniżej 25 roku życia szukaj zabawy podczas zakupów online i pozytywnie reaguj na spersonalizowane oferty produktów, produkty zaprojektowane na zamówienie oraz przeglądając profile poprzednich klientów, którzy kupili przedmiot. W porównaniu ze starszymi użytkownikami młodsi użytkownicy są otwarci na różne metody płatności i chętniej korzystają z dwukierunkowego czatu i wideokonferencji w celu interakcji z przedstawicielami obsługi klienta. Alternatywnie, niektórzy badacze skupili się na unikalnych cechach konstrukcyjnych wymaganych przez osoby starsze, zwłaszcza w miarę wzrostu liczby osób w tej grupie. Format organizacji treści serwisu i ilość informacji pojawiających się na ekranie umożliwiają wyższą wydajność starszych użytkowników, ponieważ zmniejszają się ich umiejętności wyszukiwania wizualnego i selektywnej uwagi. W badaniu wirtualnych agentów zbadano takie cechy, jak płeć agenta, modalność, realizm i animacja dla użytkowników w wieku od 65 do 82 lat. Wyniki wykazały, że starsi użytkownicy uznali męskie głosy za łatwiejsze do zrozumienia, preferowali komunikację multimodalną z możliwością wyłączenia funkcji głosowej, nie lubili agentów humanoidalnych i lubili prostotę wizualną i mniejszych agentów (tj. Używanie tylko twarzy), a zamiast tego odrzucali animację decydując się na środki statyczne lub minimalny ruch. Porównując młodych (18-25 lat), dojrzałych (50-69 lat) i starszych (>70 lat) użytkowników e-commerce, starsi użytkownicy postrzegali strony internetowe jako przydatne, ale niegodne zaufania i mieli mniejszą łatwość w zbieraniu informacji. Na podstawie powyższego jasne jest, że unikalne cechy użytkownika odgrywają rolę w projektowaniu witryn internetowych w celu uzyskania optymalnej oceny i efektu.
Programowanie WWW to ogólny termin używany do wskazania zestawu działań służących do tworzenia stron internetowych lub aplikacji internetowych dla sieci World Wide Web (WWW, często nazywanej po prostu siecią). Do programowania stron internetowych dostępnych jest mnóstwo technologii i języków internetowych. Podstawowy zestaw technologii do programowania sieciowego to ten zalecany przez World Wide Web Consortium, międzynarodową społeczność organizacji współpracujących ze sobą na rzecz rozwoju standardów sieciowych i eksploracji pełnych możliwości sieci. Ten wpis dotyczy sposobu tworzenia stron internetowych, programowania stron internetowych po stronie serwera i klienta oraz procesu tworzenia stron internetowych.
Tworzenie stron internetowych za pomocą narzędzi internetowych
Jednym z podstawowych działań związanych z programowaniem stron internetowych jest tworzenie stron internetowych i ich funkcjonalności. Witryna internetowa to zbiór stron internetowych przechowywanych na serwerze sieciowym. Serwer WWW to system komputerowy, który oferuje usługi klientowi WWW, aplikacji, która komunikuje się z serwerem WWW w celu zażądania określonych usług. Załóżmy na przykład, że użytkownik chce uzyskać dostęp do dokumentu z określonej witryny internetowej: Internet może dostarczać tekst, obrazy, dźwięk, wideo, animacje i inne treści multimedialne. Dokument to plik zawierający jeden lub więcej rodzajów treści multimedialnych; w Internecie ten dokument jest nazywany stroną internetową. Wniosek o dokument odbywa się po stronie klienta za pomocą przeglądarki, która jest aplikacją służącą do wyszukiwania, wizualizacji i prezentacji informacji w sieci WWW. Powszechnym protokołem komunikacyjnym służącym do wymiany informacji w sieci jest protokół przesyłania hipertekstu (HTTP) wraz z odpowiednią bezpieczną wersją HTTPS. Przykładami innych dostępnych protokołów są ftp i jego odpowiednia bezpieczna wersja, sftp, do przesyłania plików do iz komputera zdalnego; mailto dla usługi e-mail; plik dla lokalnego systemu plików; i callto do inicjowania połączeń przez Skype lub podobne aplikacje. Przed pobraniem stron internetowych z witryny internetowej należy utworzyć witrynę internetową i przechowywać ją na serwerze sieciowym. Standardowym językiem używanym do tworzenia stron internetowych jest hipertekstowy język znaczników (HTML), zwykle używany w jego najnowszej wersji. W 2014 roku konsorcjum World Wide Web zatwierdziło piątą główną wersję języka, zwaną HTML5. Pisanie znaczników nie jest uważane za czyste programowanie w klasycznym tego słowa znaczeniu; jednak wraz z kodowaniem jest częścią tworzenia stron internetowych. HTML używa znaczników i innych poleceń do opisania układu dokumentu, który musi być renderowany przez przeglądarkę. Tagi to znaczące słowa kluczowe, które zawijają zawartość i informują przeglądarkę, jak ją sformatować i renderować. Tagi nie są wyświetlane przez przeglądarkę. Tag < body > obejmuje całą zawartość strony; tag < head > zawiera tytuł strony, który ma się pojawić na pasku narzędzi przeglądarki. Chociaż możliwe jest opisanie stylu dokumentu w pliku HTML, lepiej jest wyrazić to w osobnym pliku przy użyciu kaskadowego arkusza stylów (CCS) w jego najnowszej dostępnej wersji (np. CSS3). CSS to standardowy język arkuszy stylów do stylizacji, transformacji i animacji dokumentu. Oddzielenie struktury dokumentu od jego prezentacji jest szczególnie korzystne, ponieważ dla tego samego dokumentu można utworzyć wiele stylów CSS. Jest to szczególnie przydatne, biorąc pod uwagę różne potrzeby urządzeń mobilnych i standardowych. Plik CSS mówi, że strona opisana w tagu < body > musi mieć białe tło, a tekst musi być czerwony. Ponadto tekst między znacznikiem < h1 > musi być czarny iw kolejności należy użyć czcionki Arial lub Helvetica lub dowolnej czcionki bezszeryfowej, zgodnie z dostępnością czcionki na komputerze, na którym wyświetlana jest strona, oraz rozmiarem czcionki powinna być dwa razy większa od bieżącej czcionki.
Programowanie WWW po stronie serwera i po stronie klienta
Strona internetowa może być statyczna lub dynamiczna. Jeśli strona internetowa jest statyczna, cała zawartość danych dokumentu, który musi zostać wyrenderowany, jest dostępna w plikach przechowujących stronę internetową. Kiedy więc żądane są pliki, cały dokument jest przekazywany klientowi w celu wizualizacji. Zamiast tego wiele stron internetowych jest dynamicznych, co oznacza, że są one generowane lub przekształcane na serwerze przez program internetowy przed przesłaniem do klienta. Rozwój programów internetowych, które działają na stronie przed jej przesłaniem, nazywa się programowaniem sieciowym po stronie serwera. Wygenerowanie strony przed transmisją zapewnia dużą elastyczność; na przykład program internetowy po stronie serwera może sprawić, że strona internetowa będzie wyglądać inaczej dla różnych klientów. Wyobraź sobie, że musisz wyświetlić wszystkie posty w serwisie społecznościowym. Pisanie jednego statycznego pliku HTML dla każdego napływającego postu jest wysoce nieefektywne. Lepiej jest dynamicznie aktualizować zawartość strony, aby wyświetlać nowe posty, które pojawiały się za każdym razem, gdy strona jest żądana przez klienta przed wysłaniem jej do klienta. Wymaga to, aby program webowy działający po stronie serwera pomagał w zarządzaniu zawartością stron internetowych. Każdy otrzymany post lub ogólnie każda nowa treść dodana do witryny może być przechowywana bezpośrednio w scentralizowanym obszarze przechowywania, takim jak baza danych. Program wyodrębnia zawartość bezpośrednio z obszaru przechowywania i wstawia ją do dokumentu, który ma zostać wyświetlony. Operacje takie jak sprawdzanie uprawnień użytkowników i logowanie użytkowników są również wykonywane po stronie serwera. Do pisania programów WWW po stronie serwera używa się kilku języków. Najpopularniejsze, by wymienić tylko kilka, to PHP, C#, Visual Basic, C++, Java i JSP, Perl, Python i Ruby. Jednak nie wszystkie przekształcenia dokumentu internetowego zachodzą po stronie serwera. Istnieje wiele modyfikacji strony, które mogą wystąpić po stronie klienta po tym, jak dokument sieciowy opuścił już serwer. Ten typ programu internetowego, który działa na stronie po przesłaniu strony, nazywa się programowaniem internetowym po stronie klienta. Pozwala na tworzenie stron internetowych, które są bardziej interaktywne i użyteczne dla użytkownika końcowego. Językiem par excellence stworzonym w 1995 roku przez Brendana Eicha do programowania stron internetowych po stronie klienta jest JavaScript. JavaScript to mały, lekki język dla małych programów lub skryptów uruchamianych w środowisku hosta, takim jak przeglądarka klienta. Przez lata programiści stron internetowych używali skryptów do tworzenia bardziej dynamicznych i interaktywnych stron internetowych. Oczywiście wymaga to napisania bardziej złożonych i interaktywnych funkcji. Im bardziej złożony staje się kod, tym ważniejsze jest tworzenie czystego i dobrze zaprojektowanego kodu. Aby pomóc z rosnącą złożonością i poradzić sobie z niektórymi powtarzalnymi czynnościami i trudnościami napotykanymi przez programistów internetowych, stworzono wiele platform, bibliotek i narzędzi typu open source. Ten ekosystem narzędzi pomaga w pisaniu aplikacji jednostronicowych (SPA), które są aplikacjami internetowymi o wyglądzie i działaniu aplikacji komputerowych, które są podobne do wcześniejszych bogatych aplikacji internetowych, chociaż SPA są zwykle "cienkim klientem", podczas gdy bogate aplikacje internetowe zwykle być "grubym klientem". Na przykład asynchroniczny JavaScript i XML (extensiblemarkup language) lub AJAX to zestaw narzędzi, które wykorzystują kombinację wbudowanego w przeglądarkę obiektu XMLHttpRequest, używanego do żądania danych z serwera, oraz modelu obiektowego dokumentu JavaScript i HTML - model obiektowy skonstruowany przez przeglądarkę na podstawie strony używanej przez JavaScript do tworzenia dynamicznego kodu HTML - w celu wyświetlania lub używania danych. Dojo, jQuery, Prototype i Mootools to biblioteki JavaScript, które pomagają zautomatyzować i uprościć typowe zadania internetowe. Angular.js i React to front-endowe platformy aplikacji internetowych, które odpowiadają na niektóre wyzwania w rozwoju SPA. Podczas gdy JavaScript jest używany głównie po stronie klienta programowania, Node.js to otwarte, wieloplatformowe narzędzie obsługiwane przez Google, które umożliwia używanie JavaScript do skryptów po stronie serwera. Node.js uruchamia skrypty po stronie serwera, aby wygenerować dynamiczną zawartość strony internetowej, zanim strona zostanie wysłana do przeglądarki internetowej użytkownika. Dostępne są również różne frameworki dla języków programowania WWW po stronie serwera, w tym Express i Hapi dla Node.js, Ruby on Rails dla Ruby, Django dla Pythona oraz Symfony, Lavarel i CakePhp dla PHP. Rysunek 3 przedstawia przykład JavaScript osadzonego w pliku HTML oraz dwie wersje strony - pierwszą zaraz po zażądaniu strony, a drugą po kliknięciu przycisku. Skrypt zmienia tekst "Nazywam się . . ". do imienia "Angela Guercio" po naciśnięciu przycisku "Kliknij mnie, aby odkryć moje imię". Microsoft VBScript to alternatywny język skryptowy. Wzorowany na Visual Basic, działa zarówno po stronie serwera, jak i klienta i jest szczególnie przydatny do zarządzania zaawansowanymi konstrukcjami programistycznymi. Podczas gdy JavaScript jest domyślnym językiem skryptowym we wszystkich przeglądarkach, VBScript nim nie jest.
Proces tworzenia stron internetowych i systemy zarządzania treścią stron internetowych
Aby stworzyć funkcjonalne, atrakcyjne, przyjazne dla użytkownika i wysoce interaktywne strony internetowe, niezawodne programowanie stron internetowych musi być poprzedzone dobrym cyklem życia oprogramowania inżynierskiego. Analiza i projektowanie wymagań strony internetowej musi poprzedzać ich wdrożenie. Należy przedstawić plan rozwoju. Przejrzysty obraz architektury strony internetowej musi zostać zaprojektowany na podstawie analizy wymagań, aby stworzyć plan strony internetowej przed kodowaniem. Procesowi muszą towarzyszyć testy, aby zweryfikować, czy wytwarzany jest pożądany i właściwy produkt. Tworzenie i zarządzanie aplikacjami internetowymi wymaga umiejętności i doświadczenia. Ponieważ strony internetowe stały się niezbędne do codziennego życia, dostępne są systemy zarządzania treścią internetową (WCMS), które wspierają tworzenie cyfrowych treści internetowych i zarządzanie nimi. WCMS zapewnia narzędzia do tworzenia, administrowania i współpracy witryn internetowych, ułatwiające tworzenie witryn i zarządzanie nimi. Przykładami systemów WCMS są Drupal, Wordpress, Joomla, SilverStripe, GoogleSites i ModX. Chociaż WCMS nie zastępują programowania stron internetowych, są szczególnie przydatne dla osób o niewielkiej wiedzy na temat programowania stron internetowych lub języków znaczników do tworzenia stron internetowych i zarządzania nimi. Nowsze WCMS, takie jak Grid, wykorzystują sztuczną inteligencję i analizę treści do projektowania stron internetowych. The Grid z pomocą kreatora o imieniu Molly tworzy strony, pyta użytkownika końcowego o opinię i uczy się z niej. Sieć wciąż ewoluuje i istnieje wiele obszarów jej zastosowań, które wciąż wymagają zbadania. Programowanie sieciowe zapewni w przyszłości nowatorskie aplikacje wykorzystujące nowe możliwości wykorzystania mocy sieci.
Oprogramowanie szpiegowskie - które ma wiele nazw, w tym oprogramowanie naruszające prywatność, technologię negatywną i technologię pasywnego gromadzenia danych - jest częścią złośliwego oprogramowania (mal odnosi się do łacińskiego rdzenia oznaczającego "zły"), które jest ogólnym terminem dla każdego oprogramowania utworzonego za pomocą złych intencjach, w tym szpiegostwo. Chociaż nie ma jednej oficjalnej definicji, najczęściej uważa się, że spyware to oprogramowanie przeznaczone do wykorzystywania własnego połączenia internetowego użytkownika bez jego wiedzy lub świadomej zgody w celu przesyłania prywatnych danych tego użytkownika w zdalne miejsce docelowe. Istnieje wiele odmian tego tematu, ale najbardziej uderzające elementy to (a) tajność operacji, (b) potajemna komunikacja ze stroną trzecią oraz (c) zbieranie informacji bez zgody właściciela. Rodzaje informacji gromadzonych przez oprogramowanie szpiegujące obejmują działania użytkownika (tj. wzorce kliknięć), hasła, zakupy online i inne dane, które można wykorzystać. Sytuację komplikuje fakt, że nie każde takie gromadzenie prywatnych informacji jest nielegalne; na przykład powszechne stosowanie plików cookie do zapisywania różnych preferencji użytkownika nie jest nielegalne, co pozwala skutecznie zakamuflować niewłaściwe wykorzystanie technologii gromadzenia danych wśród legalnych działań. Kluczową cechą oprogramowania szpiegującego jest jego skryty charakter. Uświadomienie użytkownikom, że oprogramowanie szpiegujące istnieje lub może istnieć w pobranym przez nich oprogramowaniu, niewiele zmienia, ponieważ to ciągłe istnienie i tajne działanie oprogramowania szpiegującego jest ukryte. Dlatego nawet użytkownicy, którzy początkowo byli świadomi, że w instalowanym przez nich oprogramowaniu może znajdować się oprogramowanie szpiegowskie, często później zapominają o ciągłym działaniu oprogramowania szpiegującego w tle. Oprogramowanie szpiegujące stanowi coraz większy problem w informatyce ze względu na potencjalne naruszenia prywatności, kradzież cennych danych, w tym danych osobowych, oraz ułatwianie popełniania innych cyberprzestępstw. W tym wpisie wyjaśniono najważniejsze fakty dotyczące oprogramowania szpiegującego, zbadano kilka powodów, dla których użytkownicy padają jego ofiarą, i zakończono krótkim omówieniem aktualnych sposobów obrony.
Cele oprogramowania szpiegującego
Do różnych typów oprogramowania szpiegującego stosuje się wiele terminów, zwykle w oparciu o określone funkcje oprogramowania szpiegującego. Tabela 1 zawiera krótkie podsumowanie terminów często używanych w literaturze do opisania różnych typów złośliwego oprogramowania z funkcjami spyware. Ta lista nie jest bynajmniej wyczerpująca. Istnieją różne opinie na temat tego, jakie rodzaje oprogramowania należy zaliczyć do programów szpiegujących. Termin spyware może obejmować podklasy, takie jak adware, keyloggery, instalatory drive-by i konie trojańskie. Jednak nierzadko można znaleźć dyskusje traktujące oprogramowanie typu adware i spyware jako odrębne terminy. Oprogramowanie reklamowe zostało po raz pierwszy zidentyfikowane i nazwane już w 1987 r. Oprogramowanie szpiegowskie jako odrębna klasa oprogramowania inwazyjnego zostało po raz pierwszy zidentyfikowane około 2003 r. Inne powszechnie znane zagrożenia dla komputerów, takie jak wirusy i robaki, mają zwykle inne cele niż oprogramowanie szpiegowskie i są zwykle traktowane jako osobna kategoria pod bardziej ogólnym tagiem "malware", który może odnosić się do dowolnego złośliwego oprogramowania, w tym oprogramowania szpiegującego. Przydatnym podsumowaniem podstawowej różnicy między wirusami a oprogramowaniem szpiegującym jest to , że wirusy i robaki powodują zniszczenia, szkody lub niedogodności dla swoich ofiar, podczas gdy oprogramowanie szpiegujące polega na ukryciu eksploracji informacji, kradzieży danych i wykorzystywania skradzionych danych. Oprogramowanie szpiegowskie, podobnie jak wirusy, ewoluowało z biegiem czasu, osiągając coraz wyższy poziom wyrafinowania i wynikające z tego zagrożenie dla swoich ofiar. Szczególnie niebezpieczną tendencją wydaje się rosnąca zdolność oprogramowania szpiegującego do osadzania się w rdzeniu systemów operacyjnych dla komputerów stacjonarnych, takich jak Windows, skutecznie przechwytując części systemu operacyjnego, a tym samym unikając wykrycia i usunięcia za pomocą konwencjonalnych środków. Ten stosunkowo nowy typ oprogramowania szpiegującego wykorzystuje składnik systemów operacyjnych zwany "rootkitami", które umożliwiają dostęp do funkcji systemu operacyjnego na poziomie systemu. To, co utrudnia radzenie sobie z exploitami typu rootkit, to fakt, że rootkity są pełnoprawną częścią systemu operacyjnego, a ich funkcje z założenia nie zawsze są widoczne dla użytkowników końcowych - na przykład funkcja w systemie Windows umożliwiająca użytkownikom ukrywanie niektórych typów plików przed dostępem widoczne w Eksploratorze plików. Oznacza to, że usunięcie oprogramowania szpiegującego opartego na rootkitach, nawet jeśli zostanie wykryte, może wymagać specjalistycznej wiedzy technicznej w celu ustalenia jego prawdziwego pochodzenia i funkcji, ponieważ przypadkowe usunięcie legalnych składników rootkitów może spowodować uszkodzenie systemu.
W jaki sposób spyware dostaje się do komputera?
Oprogramowanie szpiegujące zwykle dostaje się do systemów komputerowych poprzez pobieranie i instalowanie przez użytkowników oprogramowania zawierającego wbudowane oprogramowanie szpiegowskie. Jednak oprogramowanie zawierające oprogramowanie szpiegowskie można zdobyć na wiele innych sposobów, a znaczny wzrost publicznego korzystania z Internetu od początku XXI wieku oznacza, że coraz częściej oprogramowanie szpiegowskie można zdobyć, gdy użytkownicy po prostu klikają łącza znajdujące się na stronach internetowych oraz w e-mailach. Użytkownicy są często zachęcani do klikania takich linków obecnością elementów przynęty - na przykład wyskakującej reklamy z napisem "Pilne! Masz 2 nowe wiadomości" z przyciskiem OK do naciśnięcia. Kliknięcie przycisku przekierowuje użytkownika do stron, które mogą pobrać spyware. Phishing i inne techniki inżynierii społecznej należą do tej samej szerokiej kategorii oszukiwania użytkownika końcowego, aby w efekcie zaprosił diabła do środka lub przynajmniej przekazał klucze. Klasa złośliwego oprogramowania zwana końmi trojańskimi (lub po prostu trojanami) jest często odpowiedzialna za przenikanie programów szpiegujących do systemów komputerowych. Konie trojańskie to kody ataku osadzone w pozornie legalnych ofertach oprogramowania, takich jak atrakcyjne wygaszacze ekranu, "poręczne" narzędzia diagnostyczne (potencjalnie obejmujące narzędzia, które obiecują wykrywanie i usuwanie wirusów i programów szpiegujących) lub filmy. Oferty sklepowe zawierające trojany zdobywają dostęp za pomocą pewnego rodzaju przynęty, takiej jak wyskakująca reklama lub kuszące wideo w strumieniu. Użytkownicy, którzy klikną łącze, zostaną poinformowani, że aby obejrzeć film, potrzebują aktualizacji swojego odtwarzacza multimedialnego, i otrzymają link, który należy kliknąć. Po kliknięciu pobierane jest oprogramowanie zawierające trojana, które często może z kolei pobierać inne programy spyware. Trojan zidentyfikowany w 2005 roku jako Trojan-Downloader-Zlob działał, wyświetlając komunikat, że wideo, które użytkownik chciał odtworzyć, wymaga nowego kodeka, zapewniając jednocześnie wygodny odsyłacz do ukrytej pułapki. Jeszcze bardziej podstępne formy oprogramowania szpiegującego, takie jak rootkity, przedostają się do systemów po uprzednim podłączeniu przez konia trojańskiego, który następnie osadza złośliwy kod w konwencjonalnym kodzie systemu operacyjnego. Takie oprogramowanie szpiegowskie staje się wysoce odporne na wykrycie, ponieważ jest ukryte za pomocą legalnych mechanizmów ukrywania, które są częścią systemu. Badania sugerują, że oprogramowanie szpiegowskie z powodzeniem penetruje wiele mechanizmów obronnych organizacji, ponieważ oprogramowanie szpiegujące jest zaprojektowane do atakowania na poziomie komputerów stacjonarnych, ale wiele organizacji stosuje wyrafinowane zabezpieczenia tylko na obrzeżach sieci, które można ominąć za pomocą oprogramowania szpiegującego zaprojektowanego w celu uniknięcia wykrycia sieci. Oprogramowanie szpiegujące może również przenikać do sieci korporacyjnych, w których stosowane są nieodpowiednie zasady użytkowania przez użytkowników końcowych, mimo że zabezpieczenia techniczne, takie jak zapory sieciowe, mogą być aktywne. Takie zasady mogą obejmować zezwalanie użytkownikom na odwiedzanie serwisów społecznościowych, takich jak Facebook, mimo że te witryny mogą oferować użytkownikom miniaplikacje, które mogą zawierać oprogramowanie szpiegowskie. Zezwolenie użytkownikom sieci wewnętrznej na korzystanie z systemów poczty internetowej, takich jak Hotmail lub Yahoo, w celu prowadzenia prywatnej wymiany e-maili, może również stanowić zagrożenie dla organizacji. Te osobiste e-maile internetowe często nie podlegają oprogramowaniu monitorującemu używanemu do monitorowania oficjalnych biurowych systemów pocztowych, przez co stają się potencjalnym źródłem oprogramowania szpiegującego i innego złośliwego oprogramowania. Indywidualni użytkownicy korporacyjni stanowią szczególną lukę w zabezpieczeniach komputerów, ponieważ są zaufanymi jednostkami w środowisku sieciowym.
Jak działa spyware w komputerze?
Konwencjonalne oprogramowanie szpiegujące działa, rezydując jako procesy w tle (np. w operacjach procesora), z których wykonują swoje zaprojektowane funkcje, takie jak monitorowanie użytkownika lub systemu, gromadzenie danych i tajna komunikacja ze stroną trzecią za pośrednictwem połączenia internetowego ofiary. Jednym z najłatwiejszych celów dla oprogramowania szpiegującego do zbierania danych są pliki cookie, które są małymi plikami tekstowymi umieszczanymi na komputerze użytkownika przez odwiedzaną witrynę internetową i używanymi do przechowywania danych o komputerze docelowym, takich jak system operacyjny, zainstalowane wtyczki, informacje o lokalizacji, użytkownik informacje i odwiedzane strony internetowe. Większość takich plików cookie jest umieszczana na komputerze użytkownika z całkowicie uzasadnionych powodów przez witryny działające w dobrej wierze. Przy kolejnej wizycie użytkownika na stronie właściciela (np. banku, dużej sieci handlowej lub instytucji edukacyjnej) strona pobiera pliki cookies, a zapisane w nich dane mogą być wykorzystane do różnych celów, takich jak rozpoznanie klienta, hasło lub -Pozyskiwanie identyfikatora i ukierunkowane dane marketingowe, takie jak wcześniejsze preferencje zakupowe. Użytkownicy końcowi, którzy nie chcą, aby ich tożsamość lub działania były w ten sposób rejestrowane i śledzone, mogą usunąć konwencjonalne pliki cookie, ale bardziej wyrafinowana klasa plików cookie zwana Flash Cookies jest zarządzana przez dodatek Flash, który jest powszechnie pobierany przez użytkowników systemu Windows, aby umożliwić im uruchamianie animacji i grafik Flash popularnych w wielu witrynach internetowych. Pliki cookie Flash nie są przechowywane razem z tradycyjnymi plikami cookie systemu Windows i nie podlegają normalnym ustawieniom bezpieczeństwa systemu Windows ani funkcjom usuwania plików cookie. W związku z tym bezpieczeństwo tych plików cookie jest tylko tak dobre, jak zapewniane przez podmiot zewnętrzny (Flash), a bezpośrednie zarządzanie nimi w sposób, w jaki mogą przeglądać i zarządzać konwencjonalnymi plikami cookie systemu Windows, nie jest łatwe ani oczywiste dla użytkowników. Uzasadnione wykorzystywanie plików cookie w celu ułatwienia rutynowych interakcji między organizacjami i użytkownikami końcowymi jest dobrze ugruntowane, a bardziej dokładne i przydatne jest postrzeganie plików cookie jako technologii, która może być niewłaściwie wykorzystywana, zamiast klasyfikowania wszystkich plików cookie jako z natury złośliwej technologii, która może się czasem zdarzyć w popularnych mediach. Z tego powodu należy dokonać rozróżnienia między zwykłymi plikami cookie używanymi do celów zgodnych z prawem a plikami cookie oprogramowania szpiegującego używanymi do niecnych celów (np. do przechowywania danych użytkownika w celu późniejszego tajnego przesłania). Rootkit spyware, gdy jego kod zostanie wykonany, żyje niezależnie od oprogramowania konia trojańskiego, za pomocą którego uzyskał dostęp. Przejmując części kodu systemu operacyjnego, oprogramowanie szpiegujące oparte na rootkitach może zapewnić sobie przetrwanie nawet po wykryciu i usunięciu oryginalnego konia trojańskiego przez oprogramowanie antyszpiegowskie. Po wejściu do systemu operacyjnego atak typu rootkit polega na podłączeniu się do interfejsu programowania aplikacji w systemie operacyjnym komputera. W tym momencie legalne funkcje systemu operacyjnego, takie jak możliwość ukrywania i ochrony wybranych plików, mogą być używane do ukrywania i ochrony programów szpiegujących w celu uniemożliwienia wykrycia i usunięcia lub uniemożliwienia ich wykrycia.
Strony odpowiedzialne za oprogramowanie szpiegowskie i ich motywacje
Niepokojąca jest tendencja do tworzenia złośliwego oprogramowania, w tym oprogramowania szpiegującego, przez zawodowych przestępców lub organizacje przestępcze, których celem są ofiary specjalnie w celu osiągnięcia wysokich korzyści finansowych lub innych wysokich korzyści, w przeciwieństwie do wcześniejszej dominacji hakerów-amatorów, którzy robią to dla osobistych korzyści, takich jak złośliwe satysfakcji lub przechwalania się prawami. W związku z tym oprogramowanie szpiegujące można postrzegać jako ewolucyjny postęp w stosunku do wirusów, w przypadku którego głównym motywatorem było powodowanie szkód lub niedogodności. Dominująca motywacja twórców złośliwego oprogramowania zmieniła się z chęci wyrządzania ostentacyjnych szkód na chęć uzyskania przewagi poprzez tworzenie oprogramowania szpiegującego zaprojektowanego w celu kradzieży cennych danych bez pozostawiania śladów włamania. Jednym z najczęściej wymienianych zagrożeń jest naruszenie prywatności związane z działaniem spyware. Jest to szeroko zakrojony problem, który obejmuje niezamierzone ujawnienie danych osobowych stronom trzecim oraz kradzież danych osobowych z konsekwencjami, takimi jak straty finansowe i kradzież tożsamości, obecnie uznawaną za odrębną i rosnącą kategorię cyberprzestępczości. Niedawny wzrost zgłaszanych przypadków ofiar oprogramowania ransomware jest symptomatyczny dla roli oprogramowania szpiegującego w ułatwianiu naruszenia prywatności.
Powody, dla których użytkownicy padają ofiarą oprogramowania szpiegującego
W badaniach zaproponowano szereg czynników wpływających na decyzje użytkowników dotyczące pobierania i instalowania oprogramowania, które może zawierać oprogramowanie szpiegujące. Nie będąc wyłącznym, są to:
• Użyteczność: Oprogramowanie oferowane w Internecie zwykle ma silny urok użytkowy, to znaczy jest reklamowane jako przydatne i mogące pomóc użytkownikowi rozwiązać bieżący problem. Można rozsądnie uogólnić, że treści internetowe, które w rzeczywistości nie są przydatne, zwykle nie przetrwają długo. To podkreśla fakt, że użyteczność, obietnica rozwiązania, jest często wystarczająco silnym atraktantem, aby przesłonić wiedzę o potencjalnych zagrożeniach.
• Zaufanie: wydaje się, że internauci na ogół ufają Internetowi. Pomimo wielu doniesień medialnych o wielu oszustwach, w tym oprogramowaniu ransomware, naruszeniach prywatności przez oprogramowanie szpiegujące i innych cyberprzestępstwach, w tym o stale obecnej możliwości tajnych działań cyberwojnych w Internecie, w żaden sposób nie zmniejszyło to wysokiego poziomu interakcji użytkowników z Internet, w tym pobieranie oprogramowania. W efekcie użytkownicy dokonują kalkulacji ryzyka i konsekwentnie dochodzą do wniosku, że korzyści znacznie przewyższają ryzyko. W przypadku ofiar cyberprzestępczości często tak nie jest.
• Ignorancja i nadmierna pewność siebie: Użytkownicy ogólnie rozumieją zagrożenia występujące w Internecie, ale nie mają zbyt szczegółowej wiedzy na temat tych zagrożeń, w tym potencjalnych kosztów stania się ofiarą jakiegokolwiek złośliwego oprogramowania. Chociaż dzisiejsi użytkownicy mają wyraźnie większą wiedzę na temat komputerów niż w początkach informatyki i są bardziej biegli w zakresie technologii informatycznych niż kiedykolwiek wcześniej, znaczna część tej wiedzy opiera się na znajomości i pewności wynikającej z udanego codziennego korzystania z komputerów i Internetu. Niestety może to prowadzić do nadmiernej pewności siebie w zakresie wykrywania i przeciwdziałania zagrożeniom, takim jak oprogramowanie szpiegujące. W ten sposób karmi się ignorancja i nadmierna pewność siebie w wyżej wymienione wektory kalkulacji ryzyka i opowiedzieć się za podejmowaniem ryzyka.
• Wysoki poziom umiejętności obsługi komputera: Użytkownicy o wysokim poziomie umiejętności obsługi komputera mają wysoką skuteczność, to znaczy pewność, że są w stanie identyfikować i rozwiązywać problemy z komputerem lub rozpoznawać rzeczywiste zagrożenia. Chociaż wykazano również, że ta grupa jest bardziej skłonna do korzystania z narzędzi obronnych, takich jak programy antywirusowe lub antyszpiegowskie, negatywną stroną tego zjawiska jest wyraźnie zmniejszona obawa o możliwe naruszenia prywatności, zwiększona atrakcyjność oprogramowania o wysokiej użyteczności i wynikająca z tego wysokie ryzyko związane z częstym pobieraniem bezpłatnego oprogramowania.
Ta lista nie jest wyczerpująca i nie może być wyczerpująca ani wyczerpująca ze względu na ograniczony charakter dowolnego zbioru danych wykorzystywanego w badaniach nad tymi zagadnieniami.
Dostępne zabezpieczenia przed programami szpiegującymi i ich skuteczność
Obecna obrona osobista przed oprogramowaniem szpiegującym obejmuje działania polegające na unikaniu użytkowników, takie jak powstrzymywanie się od pobierania bezpłatnego oprogramowania, chyba że ze znanych, renomowanych źródeł, zwracanie uwagi na taktyki socjotechniczne, znacznie większa świadomość rzeczywistej wartości własnych danych osobowych, instalowanie oprogramowania antyszpiegowskiego do wykrywania i usuwania oprogramowania, oraz, co równie ważne, ciągłe aktualizowanie takiego oprogramowania. Główne firmy produkujące oprogramowanie zabezpieczające przyznały, że konwencjonalne technologie wykrywania wirusów (w tym programów typu spyware), które są oparte na identyfikacji sygnatur, od kilku lat tracą skuteczność, w dużej mierze z powodu wykładniczego wzrostu samej liczby sygnatur wirusów oraz w coraz większym stopniu ze względu na problem coraz częstszych interakcji użytkowników z Internetem, co pozwala na występowanie większej różnorodności naruszeń bezpieczeństwa. Korzystanie z zabezpieczeń opartych na Internecie zamiast polegania wyłącznie na zabezpieczeniach lokalnych lub obwodowych może być częściowym rozwiązaniem problemu przytłaczającej liczby sygnatur i wariantów złośliwego oprogramowania, które musi sprawdzić aplikacja antywirusowa. Konieczność sprawdzania plików pod kątem stale rosnącej liczby sygnatur zagrożeń jest jednym z powodów, dla których pakiety antywirusowe generalnie spowalniają wydajność komputera o wymierne marginesy. Dzięki wykorzystaniu internetowych metod identyfikacji opartych na eurystyce możliwe jest, że zabezpieczenia oparte na Internecie mogą zapewnić skuteczniejsze i bliższe reakcji w czasie rzeczywistym na pojawiające się zagrożenia lub zagrożenia dnia zerowego. Zaproponowano podejścia zapobiegawcze, w ramach których można zastosować algorytmy do umów licencyjnych użytkownika końcowego w celu wykrycia, czy użytkownicy, wyrażając zgodę na warunki licencji, zgodziliby się w ten sposób na zainstalowanie potencjalnego oprogramowania szpiegującego. Takie podejście ma na celu rozwiązanie niemal powszechnego problemu polegającego na tym, że użytkownicy końcowi zazwyczaj ignorują żmudne warunki umowy licencyjnej i przechodzą od razu do przycisku "Zgadzam się", narażając się w ten sposób na nieodłączne ryzyko, takie jak nieświadoma zgoda na to, że oprogramowanie może mieć prawo do pobierania innych powiązanych pakietów lub mieć prawa dostępu do prywatnych danych, takich jak listy kontaktów użytkowników. Pomimo proponowanych ulepszeń, dla większości użytkowników komputerów korzystanie z popularnego pakietu oprogramowania antywirusowego/antyspyware z regularnymi aktualizacjami oraz bycie na bieżąco i czujność pozostaje podstawą obrony użytkownika końcowego przed oprogramowaniem szpiegującym.
Prawo internetowe, zwane też prawem cybernetycznym, to jeden z najnowszych działów studiów prawniczych i sporów sądowych. Początków tej dziedziny prawa można doszukiwać się w połowie lat 90., mniej więcej w czasie, gdy Internet stał się dostępny dla ogółu społeczeństwa. Kiedy pojawił się Internet, regulacje nie wydawały się konieczne. Jednak przy stale rosnącej liczbie użytkowników i różnorodności działań online działania związane z Internetem nie mogą obejść się bez regulacji. Ten wpis opisuje prawo internetowe i omawia prawnie istotne cechy Internetu. Następnie omówiono różne dziedziny prawa internetowego: (a) zarządzanie Internetem, (b) własność intelektualna, (c) handel elektroniczny, (d) cyberprzestępczość i bezpieczeństwo cybernetyczne oraz (e) ochrona danych i prywatność. Prawo internetowe można krótko scharakteryzować jako dziedzinę prawa, w której Internet odgrywa centralną rolę w analizie prawnej. Istniejące prawo, czasem po interpretacji, jest często wykorzystywane do rozwiązywania problemów prawa internetowego. Wiele praw zostało napisanych, gdy nie istniał Internet, a przynajmniej nie w takim stopniu, w jakim jest on dzisiaj. Prawa te nigdy nie były przeznaczone dla Internetu, gdzie pojedyncze "kliknięcie" może mieć ogromne konsekwencje i można łatwo dotrzeć do prawie nieskończonej liczby osób. Istnieją również nowe normy, które zostały opracowane specjalnie dla Internetu, takie jak te dotyczące spamu, plików cookie, umów elektronicznych i cyberprzestępczości. Obowiązujące ramy prawne są w ciągłym rozwoju. Niektórzy twierdzą, że prawo internetowe jest jedynie połączeniem tradycyjnych dziedzin prawa. We wczesnych latach Internetu sędzia Frank Easterbrook niesławnie użył w tym kontekście terminu "prawo konia". Z tym terminem zaciekle sprzeciwiał się koncepcji definiowania prawa Internetu jako odrębnej sekcji studiów prawniczych i postępowania sądowego. Jego zdaniem skupienie się na prawie związanym z Internetem jako takim byłoby równie nieistotne, jak stworzenie niezależnej dziedziny prawa dla koni. Jednak techniczny rozwój Internetu przyspieszył, przekształcając go w cyfrową złożoność, która odegrała nieodzowną rolę w naszym społeczeństwie. Dlatego inni twierdzą, że potrzebny jest wyspecjalizowany prawnik internetowy, który ma dogłębną wiedzę na temat Internetu, prawa internetowego i powiązanych technologii. Niezależnie od zajmowanego stanowiska, w praktyce prawniczej wielu prawników zajmuje się zagadnieniami związanymi z prawem internetowym, a na uniwersytetach oferowane są specjalne programy licencjackie i magisterskie, które koncentrują się na prawie internetowym. Istotne z prawnego punktu widzenia
Charakterystyka Internetu
W prawie internetowym pokrewne cechy Internetu mogą odgrywać znaczącą rolę w analizie prawnej. Po pierwsze, transgraniczny charakter Internetu prowadzi do problemów jurysdykcyjnych. Z jednej strony w przypadku działalności online nie zawsze łatwo jest ustalić, jakie prawo powinno mieć zastosowanie, az drugiej strony wiele krajów może ubiegać się o jurysdykcję dla tej samej działalności. Po drugie, działania w Internecie mogą być łatwo wykonywane anonimowo. Ma to konsekwencje w zakresie odpowiedzialności. Na przykład osoba stojąca za groźbą lub zniewagą nie zawsze jest identyfikowalna, a przypisanie cyberataków do konkretnego przestępcy, wrogiego rządu, terrorysty lub aktywisty jest trudne. Po trzecie, działania w Internecie podlegają znacznie większej skalowalności niż w świecie fizycznym. Każda czynność wykonywana przez kogoś w Internecie jest teoretycznie dostępna dla każdego, kto ma dostęp do Internetu. Nie można tego powiedzieć o innych dziedzinach prawa, w których konsekwencje są generalnie ograniczone terytorialnie. Internet ma charakter ponadnarodowy i dlatego raczej trudno jest określić, które prawo krajowe ma zastosowanie. Po czwarte, Internet i związane z nim technologie stale się rozwijają. Aby nadążyć za tymi zmianami, prawa powinny być formułowane w sposób otwarty i neutralny pod względem technologicznym. W ten sposób rządy mogą nadążać za obecną technologią, o ile otwarte standardy nie są zbyt niejasne lub niejednoznaczne. Ponadto Internet jest złożony zarówno technicznie, jak i organizacyjnie. Podczas pracy nad prawem internetowym potrzebna jest dostateczna znajomość Internetu i związanych z nim trudności technicznych.
Dziedziny prawa internetowego
Rośnie grupa prawników internetowych, ale liczba tematów jest tak ogromna, że nie jest możliwe, aby jedna osoba objęła je wszystkie. Wśród tematów poruszanych w prawie internetowym znajdują się hazard online, płatności elektroniczne, wojna cybernetyczna, odpowiedzialność dostawcy usług internetowych (ISP), zniesławienie w Internecie, przechowywanie danych, witryny nienawiści, pornografia zemsty, duże zbiory danych i kwestie mediów społecznościowych. Wybitnym podpolem jest wolność słowa. Dzięki skalowalności Internetu jednostki mogą niemal natychmiast dotrzeć do całego świata. Wiąże się to z obowiązkami, ponieważ nie wszystkie kraje zezwalają na wolność słowa. Ponadto niektóre stany używają Internetu do nadzorowania swoich obywateli.
Zarządzanie Internetem
Zarządzanie Internetem obejmuje opracowywanie i stosowanie wspólnych zasad, norm i reguł do działań online, zarówno na poziomie technicznym, jak i społecznym. Zarządzanie Internetem jest zwykle definiowane jako rozwój i stosowanie przez rządy, sektor prywatny i społeczeństwo obywatelskie wspólnych zasad, norm, procedur podejmowania decyzji i programów, które nadają formę rozwojowi i korzystaniu z Internetu. Do zarządzania Internetem można podchodzić z wąskiej lub szerokiej perspektywy. Zgodnie z tą dychotomią zarządzanie Internetem w wąskim znaczeniu obejmuje tylko te kwestie, które odnoszą się do infrastruktury technicznej lub architektury Internetu. Zarządzanie Internetem w szerokim znaczeniu obejmuje również te kwestie polityczne, które są zasadniczo różne, gdy patrzy się na nie z perspektywy Internetu. Zarządzanie Internetem w szerokim znaczeniu obejmuje również takie tematy, jak wolność wypowiedzi, prywatność, prawa autorskie, handel elektroniczny oraz przepaść cyfrowa między bogatymi, dobrze połączonymi krajami a światem rozwijającym się. Dyskutując na temat tego, czy, jak i przez kogo Internet powinien być regulowany, należy zdać sobie sprawę z tego, że nie da się dokonać pełnego rozdziału między zarządzaniem Internetem w wąskim i szerokim tego słowa znaczeniu. Przy podejmowaniu decyzji o infrastrukturze technicznej lub architekturze Internetu można również wpływać na tematy dotyczące szeroko rozumianego zarządzania Internetem. Na przykład technicznie można zezwolić na śledzenie plików cookie lub nie, a ta decyzja techniczna ma konsekwencje dla prywatności. Do złożonych problemów związanych z zarządzaniem Internetem można podchodzić z różnych punktów widzenia. Jednym z nich jest to, że Internet jest wolnym i samorządnym miejscem, które nie powinno podlegać żadnym regulacjom rządowym, jak stwierdził John Perry Barlow w 1996 roku w swojej Deklaracji Niepodległości Cyberprzestrzeni. Jednak niektóre nieodłączne cechy Internetu sprawiają, że rządom bardzo trudno jest nie ingerować w regulacje dotyczące Internetu. Regulacja Internetu może opierać się na prawie krajowym lub międzynarodowym. Istnieje napięcie między nieodłącznym transgranicznym charakterem terytorialnie ograniczonego prawa krajowego i prawa międzynarodowego. Prawo międzynarodowe lepiej nadaje się do radzenia sobie z globalnym charakterem Internetu, ale ze względu na różne, a czasem przeciwstawne interesy zaangażowanych krajów, opracowywanie i podpisywanie traktatów jest procesem powolnym, często zakończonym niepowodzeniem. Alternatywą są tzw. inicjatywy transnarodowe regulujące kwestie transgraniczne. Internetowa Korporacja Nadawania Nazw i Numerów (ICANN) jest najbardziej udanym przykładem ponadnarodowej organizacji pozarządowej działającej na podstawie umów między zainteresowanymi stronami, które regulują Internet. ICANN koordynuje główne procesy techniczne umożliwiające ruch internetowy. Te procesy to system nazw domen i system adresów protokołu internetowego (IP). Siły ekonomiczne mają ogromny wpływ na kwestię regulacji Internetu. Wielcy gracze technologiczni działają jak półpaństwa i mogą ustalać normy. Nie mogą jednak działać w pełni autonomicznie, ponieważ muszą uwzględniać m.in. przepisy prawa oraz interesy konsumentów i interesariuszy. Wreszcie kod i architektura Internetu rządzą Internetem. W swojej książce z 1999 roku, Code and Other Laws of Cyberspace, Lawrence Lessig napisał: "Code is law" (s. 60), odnosząc się do tej koncepcji. Decyzja, które podejście jest najbardziej odpowiednie, zależy od rozwiązywanego problemu. Często kombinacja jest idealna do rozwiązywania złożonych problemów związanych z zarządzaniem Internetem. Jednym z głównych tematów zarządzania Internetem jest neutralność sieci. Neutralność sieci dotyczy zasady równego traktowania całego ruchu internetowego i jest skierowana przede wszystkim do dostawców usług internetowych i rządów. W całkowicie neutralnym Internecie nie ma żadnego rozróżnienia ani dyskryminacji między dostawcą, oferowaną usługą ani rodzajem informacji przesyłanych przez Internet. Zróżnicowanie lub dyskryminacja może przybierać postać różnic w kosztach, a także w szybkości transmisji danych. W czerwcu 2010 roku Chile jako pierwszy kraj na świecie uchwaliło prawo gwarantujące do pewnego stopnia neutralność sieci, a wiele innych krajów poszło w jego ślady. Ściśle związana z neutralnością sieci jest cenzura internetowa, która polega na kontrolowaniu lub zakazywaniu wszelkiego rodzaju treści w Internecie, w większości przypadków przez podmiot rządowy. Cenzura jest często wykorzystywana do celów politycznych, ale może być również środkiem ochrony norm społecznych lub moralności, na przykład poprzez ograniczanie dostępu do pornografii lub treści promujących przestępczość lub nienawiść wobec określonych grup społecznych. Innymi powodami cenzury w Internecie mogą być względy bezpieczeństwa lub ochrona własności intelektualnej, jak miało to miejsce w przypadku rządów w wielu jurysdykcjach zakazujących dostępu do The Pirate Bay. Zarówno neutralność sieci, jak i brak cenzury w Internecie są częścią "otwartego Internetu", idealistycznej koncepcji, w której każda osoba może swobodnie korzystać z Internetu bez ingerencji rządu lub osób trzecich. Ponieważ niektórzy ustawodawcy i rządy nieustannie próbują regulować Internet, prawdziwie otwarty Internet wydaje się zwykłą fikcją, przynajmniej od 2016 roku.
Własność intelektualna
Internet jest medium publicznym, ale prawa jednostki mogą wymagać ochrony. Ponadto nie wszystkie treści internetowe są swobodnie dostępne. Prawa własności intelektualnej istnieją w odniesieniu do wytworów ludzkiego umysłu. Prawa własności intelektualnej przyznają ludziom postanowienia zakazujące, których mogą oni niezależnie dochodzić. Istnieje wiele różnych praw własności intelektualnej, takich jak prawo patentowe, prawa do wzorów przemysłowych, prawa do odmian roślin, prawa pokrewne i prawa do baz danych. Dwa najważniejsze prawa własności intelektualnej w obszarze prawa internetowego to (1) prawo autorskie i (2) prawo dotyczące znaków towarowych.
Prawa autorskie
Prawo autorskie chroni twórczość autorów, dając im wyłączne prawo do korzystania i rozpowszechniania ich pracy. W kontekście online dystrybucję utworów można określić jako publiczne udostępnianie tych utworów. Prawa autorskie powstają po stworzeniu oryginalnego dzieła i nie jest wymagana rejestracja. Próg oryginalności jest niski; wystarczy kilka słów lub prosty obrazek lub rysunek. Prawo autorskie zostało uregulowane w skali międzynarodowej przez Konwencję Berneńską z 1886 r., którą do 2016 r. podpisały 172 kraje. W 1996 r. Konwencja Berneńska została rozszerzona na środowisko cyfrowe na mocy Traktatu o prawach autorskich Światowej Organizacji Własności Intelektualnej, który do 2016 r. podpisały 94 kraje. Bardziej ogólne Porozumienie Światowej Organizacji Handlu w sprawie handlowych aspektów praw własności intelektualnej z 1995 r. zostało podpisane przez 164 kraje do 2016 r. Większość środowisk internetowych, takich jak platformy mediów społecznościowych, światy wirtualne i gry online, wykorzystuje licencje do przyznawania prawo do korzystania ze swojego otoczenia. Licencje te zawierają również warunki, zgodnie z którymi ktoś pozostaje właścicielem praw autorskich do wszystkiego, co tworzy, ale jednocześnie dostawca uzyskuje wyłączną licencję na robienie z treścią wszystkiego, co mu się podoba. Ogólnie rzecz biorąc, w Internecie każdy ma prawo do oglądania wideo, słuchania piosenki lub czytania tekstu, ale do rozpowszechniania lub publikowania dzieł chronionych prawem autorskim, takich jak przesyłanie chronionego prawem autorskim zdjęcia lub wideo na swoją stronę internetową, potrzebna jest zgoda właściciela praw autorskich. Pozwolenie nie jest konieczne w przypadku niektórych zastosowań wyłączonych, na przykład gdy utwór jest używany w parodii. Ważnym ogólnym wyjątkiem jest dozwolony użytek. W Stanach Zjednoczonych bierze się pod uwagę cztery czynniki określające, czy określone wykorzystanie utworu jest dozwolone w ramach dozwolonego użytku: (1) cel i charakter wykorzystania, (2) charakter dzieła chronionego prawem autorskim, (3) ilość i istotność pobranej części oraz (4) wpływ wykorzystania na potencjalny rynek. Takie podejście skutkuje tzw. otwartym systemem norm. Inne podejście prezentuje Unia Europejska (UE), gdzie zdefiniowano wyczerpującą listę dziesiątek dozwolonych wyjątków i ograniczeń praw autorskich. Państwa członkowskie UE mogą wybrać z tej listy wyjątki, które chcą wprowadzić do swojego prawa krajowego. Prawo autorskie znalazło się pod presją ze względu na gwałtowny rozwój Internetu - na przykład anonimowość i globalna dostępność ułatwiają naruszanie praw autorskich. Użytkownicy mogą łatwo przesyłać i pobierać materiały naruszające prawa autorskie. Powszechnie stosowaną metodą udostępniania utworów w Internecie są hiperłącza. Witryny BitTorrent, takie jak The Pirate Bay, udostępniają łącza do nielegalnych treści i umożliwiają dużym grupom ludzi łatwe pobieranie dzieł chronionych prawem autorskim. Linki odnoszą się do komputerów poszczególnych użytkowników, więc platforma po prostu przekierowuje i nie udostępnia żadnych nielegalnych treści. Użytkownicy przechowują treści, a domyślnym protokołem jest to, że użytkownik, który pobiera w tym samym czasie, przesyła materiał. Posiadacze praw, aw szczególności organizacje zarządzające prawami, czasami podejmują działania przeciwko zwykłym użytkownikom, ale zwykle działania prawne ograniczają się do naruszeń na dużą skalę. Jako centralne węzły komunikacyjne w komunikacji internetowej, dostawcy usług internetowych są często proszeni o pomoc posiadaczom praw. Tak zwane procedury powiadamiania i usuwania są oferowane przez większość hostów internetowych jako dodatkowa usługa dla użytkowników w celu zgłaszania nielegalnych treści, które następnie można odpowiednio usunąć. Pośrednicy internetowi (np. wyszukiwarki, dostawcy usług internetowych i platformy mediów społecznościowych) przyczyniają się do naruszeń, często nieświadomie, ułatwiając dostęp do treści naruszających prawo. Odpowiedzialność pośredników internetowych jest jednym z głównych tematów prawa cybernetycznego, zarówno w środowisku akademickim, jak iw prawie i polityce. Zasadniczo dostawcy usług internetowych nie mogą zostać pociągnięci do odpowiedzialności, jeśli działają jako neutralna strona trzecia, która po prostu przekazuje informacje w sposób pasywny i techniczny, a więc nie odgrywa aktywnej roli i nie ma wiedzy ani kontroli nad danymi. Jednym z pierwszych kodeksów prawnych ustanawiających ten immunitet od odpowiedzialności była amerykańska ustawa Digital Millennium Copyright Act z 1998 r. Niezaprzeczalnie Internet ma również pozytywny wpływ na dystrybucję oryginalnych dzieł. Autorom łatwo jest rozpowszechniać i sprzedawać swoje dzieła. Na przykład artyści mogą przesyłać, odtwarzać i udostępniać swoje treści za pośrednictwem usług takich jak SoundCloud i YouTube. Usługi przesyłania strumieniowego, takie jak Netflix i Spotify, pokazują, że przynajmniej w niektórych przypadkach użytkownicy są skłonni płacić za treści online. Popularność tych serwisów spowodowała spadek piractwa internetowego.
Prawo znaków towarowych
Znak towarowy to symbol, nazwa, wzór lub cecha, których firmy używają do wyróżnienia się, a także do informowania klientów o pochodzeniu produktu. Aby uzyskać znak towarowy, firma musi
zarejestruj to. Firmy często starają się nabywać i odnawiać znaki towarowe, ponieważ dają one firmom większe bezpieczeństwo prawne niż prawa autorskie. Właściciele znaków towarowych mogą wykorzystywać Internet do zwiększania świadomości swoich marek za pomocą internetowych usług reklamowych, takich jak Google Adwords. Internet stworzył nowe znaki towarowe, takie jak Amazon, ale ułatwia również naruszenia (np. zarówno rząd amerykański, jak i chiński skrytykowały serwisy e-commerce prowadzone przez Alibabę za sprzedaż podróbek opatrzonych logo firm), które stanowią poważne zagrożenie dla wizerunku właścicieli znaków towarowych, a także narazić ich na utratę zysków w miarę pojawiania się tańszych zamienników ich produktów. Utrapieniem w dziedzinie znaków towarowych bezpośrednio powiązanych z Internetem są tzw. main name grabbers lub cybersquatters: ludzie, którzy rejestrują nazwy domen podobne do nazw dobrze ugruntowanych marek w nadziei na wykorzystanie firmy będącej właścicielem znaku towarowego dla korzyści finansowych. Powszechną formą cybersquattingu jest typosquatting, gdzie domeny podobne do znanych znaków towarowych lub nazw domen są rejestrowane w nadziei na sprzedaż nazwy domeny samym właścicielom witryny. Na przykład typosquatters rejestrują domeny, takie jak "Goggle" lub "Gooogle", w nadziei, że użytkownicy błędnie wpiszą Google. Jeśli to zrobią, użytkownicy zostaną przekierowani na stronę internetową pełną reklam. Sprawy związane z cybersquatem można rozstrzygnąć szybko, niedrogo i poza sądem poprzez internetowe rozstrzyganie sporów. Utworzono różne platformy internetowego rozstrzygania sporów, które oferują jednolite zasady rozstrzygania sporów dotyczących nazw domen ICANN; najbardziej znana usługa jest prowadzona przez Światową Organizację Własności Intelektualnej.
e-Commerce
"e" w e-commerce odnosi się do elektronicznego. Handel elektroniczny dotyczy kupowania lub sprzedawania towarów lub usług przez Internet. Podczas zakupów w Internecie, otrzymywania usług online lub zamawiania produktów, istotne stają się przepisy związane z handlem. Różnią się one od zwykłych przepisów dotyczących handlu i dlatego są określane jako prawo dotyczące handlu elektronicznego. Pierwszą firmą, która zrealizowała sprzedaż internetową była Pizza Hut w 1994 roku. W 2010 roku pierwsza płatność Bitcoinem za usługę nieinternetową dotyczyła zamówienia dwóch pizz. Handel elektroniczny stał się istotną częścią sprzedaży detalicznej. Statystyki pokazują, że w 2016 roku sprzedaż e-commerce stanowiła 8,7% całkowitej sprzedaży detalicznej na świecie i oczekuje się, że będzie rosnąć.
Ze sklepu do sieci
Internet radykalnie zmienił sposób prowadzenia transakcji biznesowych. Istnieją pewne aspekty handlu elektronicznego, które odzwierciedlają "staroświecki" handel. Na przykład zawarcie umowy dotyczy kupującego i sprzedającego. W tym sensie e-commerce nie różni się od wizyty w sklepie stacjonarnym. Jednak podczas zakupów kupujący online nie mogą sprawdzić i trzymać produktu w dłoniach przed zakupem. Ponadto kupujący napotykają ryzyko, takie jak oszustwo lub nieotrzymanie towaru, ponieważ często nie znają tożsamości i miejsca pobytu drugiej strony. To jest w szczególności w przypadku globalnych platform biznesowych między konsumentami i konsumentami za pośrednictwem platform internetowych. Handel elektroniczny sprawił, że zakupy transgraniczne stały się znacznie bardziej dostępne i wykonalne. W tym kontekście zasadą prawa międzynarodowego jest kraj pochodzenia, a nie kraj docelowy. Pierwsza zasada oznacza, że dostawca towarów lub usług musi przestrzegać przepisów kraju, w którym firma ma siedzibę lub mieszka. Ta ostatnia zasada jest czasami stosowana w przypadku ochrony konsumentów, pozwalając polegać na prawie kraju macierzystego konsumenta.
Cztery przykłady regulacji handlu elektronicznego
W tej sekcji omówiono cztery przykłady, aby szczegółowo opisać różnice między handlem tradycyjnym a e-commerce. Najbardziej oczywistą różnicą jest odległość między umawiającymi się stronami. Brakowi "dotyku i dotyku" można zaradzić ustawowym prawem do zwrotu przedmiotów zakupionych na odległość, jakie istnieje w UE. Ogólnie rzecz biorąc, wymogi w zakresie informacji lub obowiązki w zakresie ujawniania informacji mogą pomóc w zaradzeniu brakowi bliskości. Informacje o głównych cechach produktu lub usługi pomagają w podjęciu świadomej decyzji. Inne istotne informacje dotyczą nazwy sprzedawcy, jego fizycznej lokalizacji oraz sposobu bezpośredniego kontaktu (np. przez e-mail lub telefon). Zbieżność woli to sytuacja prawna, w której wola wszystkich zaangażowanych stron ma na celu zawarcie umowy. Jest kluczowy w każdej umowie, a zatem niezbędny w handlu. W świecie off-line wolę strony można w zasadzie wykazać, a później udowodnić, podpisując umowę. Kiedy umowa jest podpisywana online, skąd można mieć pewność, że druga strona nie jest oszustem? W Internecie tak zwane zaufane strony trzecie są wykorzystywane do wystawiania certyfikatów tylko wtedy, gdy potwierdzą tożsamość strony. Gdy obie strony podpiszą cyfrowo dokument, zaufana strona trzecia zwraca dokument stronom z tak zwaną plombą zabezpieczającą przed manipulacją. Ta pieczęć pokazuje, czy dokument został zmieniony od czasu podpisania dokumentu. Płatność to kolejny kluczowy element każdej formy handlu. e-Payment to internetowy odpowiednik e-commerce, w którym stosowane są zasadniczo dwie metody płatności. Po pierwsze, pieniądze można przekazywać za pomocą narzędzi e-płatności. Firmy tradycyjnie odpowiedzialne za przesyłanie pieniędzy w analogowym systemie finansowym w dużej mierze włączyły płatności elektroniczne do swojej codziennej działalności. Po drugie, pieniądze online są określane jako e-gotówka. e-gotówka może być elektroniczną odmianą istniejących wyrażonych walut, ale może również istnieć tylko online w postaci takiej jak Bitcoin. Bitcoiny korzystają z sieci peer-to-peer, która działa na szczycie Internetu i, podobnie jak Internet, jest zdecentralizowana i rozproszona, więc nie jest kontrolowana przez organ centralny, taki jak bank. Protokół peer-to-peer wykorzystuje szyfrowanie, dlatego "monety" nazywane są kryptowalutami. Wartość e-walut waha się swobodnie w stosunku do walut, które są kontrolowane przez banki centralne, a także istnieją w świecie off-line. e-Cash rzuca wyzwanie rządom na całym świecie, jeśli chcą zachować kontrolę nad handlem. Oprogramowanie Geo-id może być wykorzystywane do dyskryminacji cenowej poprzez zmianę ceny w zależności od tego, gdzie wydaje się znajdować kupujący na podstawie jego adresu IP. Szczególnym zastosowaniem oprogramowania do identyfikacji geograficznej jest blokowanie geograficzne, które służy do kontrolowania dystrybucji towarów i/lub treści cyfrowych. Jeden wniosek dotyczy ograniczenia możliwości zakupu towarów lub dostępu do treści cyfrowych przez konsumentów ze względu na ich lokalizację. Praktyka ta dotyka wolności prowadzenia działalności gospodarczej i uczciwej (internetowej) konkurencji. Blokowanie geograficzne może mieć negatywny wpływ na transgraniczny handel elektroniczny, ponieważ uniemożliwia konsumentom zakup towarów lub dostęp do treści cyfrowych online z innych krajów. Mówiąc bardziej ogólnie, uświadomienie sobie uczciwej konkurencji jest wyzwaniem, przed którym stoją rządy. Z jednej strony rynki, które kiedyś były lokalne, mają obecnie większą konkurencję ze względu na międzynarodowy handel elektroniczny. Oznacza to, że zasoby są zarządzane w inny sposób, a ceny mogą spaść. Z drugiej strony globalizacja prowadzi do powstawania większych i potężniejszych firm, co pozostawia niewiele możliwości wejścia na rynek nowym firmom. Kwestie te są również uznawane przez UE. Komisja Europejska oraz Federalna Komisja Handlu mają na celu ochronę wyboru konsumentów i zapewnienie równych szans w konkurowaniu. Aby to osiągnąć w kontekście globalnym, konieczne są skuteczne regulacje międzynarodowe.
Cyberprzestępczość i Cyberbezpieczeństwo
Powszechne i intensywne korzystanie z Internetu nieuchronnie czyni go podatnym na przestępczość. Oprócz regulacji przestępstw internetowych i uprawnień śledczych, częścią obszaru cyberbezpieczeństwa jest próba stworzenia bezpiecznego Internetu. W połowie lat 90. cyberprzestrzeń była postrzegana głównie jako pomocne narzędzie do wysyłania komuś wiadomości, ale teraz od niej zależy prawie cały świat fizyczny i jego gospodarka. Wraz z rozwojem Internetu i jego zalet, pojawiły się nowe sposoby kradzieży, włamań, zastraszania, oszukiwania i innych rodzajów niewłaściwych zachowań i przestępstw. Co więcej, wszystkie te przestępstwa nie są już popełniane w świecie fizycznym, ale w wirtualnym świecie cybernetycznym, który w porównaniu z Ziemią jest znacznie bardziej złożony i większy. Na przykład Ziemia ma wiele krajów, a wszystkie kraje mają granice. Granice te określają, który kraj ma prawo ścigać. Mówiąc prościej, jeśli ktoś ukradnie coś we Francji, Francja ma prawo do ścigania. Kraje stają przed dylematem, gdy przestępstwo zostaje popełnione w świecie bez granic lub jakiegokolwiek innego wyróżniającego wyglądu fizycznego. Powstaje następujące pytanie: "Który kraj jest uprawniony do ścigania?" A nawet jeśli jest to jasne jaki kraj może ścigać, nie jest łatwo wyśledzić sprawcę w cyberprzestrzeni. Nie ma fizycznych dowodów, których należałoby szukać, a przestępcy, którzy wiedzą, co robią, mogą dość łatwo zatrzeć większość swoich śladów. Kolejną dużą różnicą między przestępstwem fizycznym a cyberprzestępstwem jest skala, na jaką można popełnić przestępstwo. Profesjonalny haker może zaatakować niemal nieskończoną liczbę innych urządzeń elektronicznych z odpowiednią wiedzą i sprzętem. To powiedziawszy, chociaż cyberprzestrzeń i świat fizyczny mocno od siebie zależą, bardzo trudno je porównać. W tej sekcji opisano, w jaki sposób cyberprzestrzeń jest chroniona przez technologię oraz nowe rodzaje przestępstw, które przyniósł nam cyberświat.
Bezpieczeństwo cybernetyczne
Zależność społeczeństwa od Internetu prowadzi do rosnącej odpowiedzialności rządów i firm za utrzymywanie i ochronę infrastruktury internetowej oraz za utrzymywanie wszystkich danych w tajemnicy i poufności w razie potrzeby. Bez wchodzenia w szczegóły techniczne dotyczące ochrony komputera lub sieci, najlepszym sposobem wyjaśnienia cyberbezpieczeństwa jest zbiór technologii, procesów i praktyk zaprojektowanych w celu ochrony sieci, komputerów, programów i danych przed atakami, uszkodzeniami, lub nieautoryzowany dostęp. Jedną z największych trudności w utrzymaniu dobrego i bezpiecznego środowiska cybernetycznego jest stale zmieniający się i ewoluujący charakter zagrożeń bezpieczeństwa. Zagrożenia rozwijają się szybciej, niż jesteśmy w stanie za nimi nadążyć, a każdy opis ryzyka dla konkretnego systemu szybko staje się nieaktualny.
Definicja cyberprzestępczości
Cyberprzestępczość, znana również jako przestępczość komputerowa, to nielegalna działalność związana z urządzeniami komputerowymi lub sieciami komputerowymi. Ponieważ większość urządzeń elektronicznych zawiera chipy komputerowe, każdy może stać się ofiarą tej przestępczej działalności nawet bez korzystania z zasobów technologii informacyjno-komunikacyjnych. Wynika to z faktu, że przestępcy komputerowi mogą łatwo manipulować chipami. Ponieważ Internet nie zna granic, cyberprzestępczość również ich nie zna, dlatego rządy potrzebowały traktatu, aby osiągnąć łatwiejszy sposób ścigania transgranicznego i lepszą współpracę między narodami. Konwencja budapeszteńska z 2001 r. została stworzona przez Radę Europy w celu prowadzenia wspólnej polityki kryminalnej mającej na celu ochronę społeczeństwa przed cyberprzestępczością, w szczególności poprzez przyjęcie odpowiedniego ustawodawstwa i wspieranie współpracy międzynarodowej. W 2016 roku 51 krajów podpisało i ratyfikowało tę konwencję, w tym kraje niebędące członkami Rady Europy, takie jak Stany Zjednoczone, Japonia i Kanada. We wszystkich krajach istnieją różne organy ścigania i różne przepisy dotyczące ścigania cyberprzestępczości, ale Konwencja Budapeszteńska zapewnia pewną spójność między krajami podczas tworzenia przepisów mających na celu skuteczną walkę z cyberprzestępczością.
Rodzaje cyberprzestępczości
Rozwinęły się nowe rodzaje przestępstw, a niektóre już istniejące przestępstwa, takie jak pornografia dziecięca, kradzież wirtualnych przedmiotów w Internecie, cyberstalking i kradzież tożsamości, przeniosły się do sieci. Cyberprzestępstwa można zazwyczaj podzielić na przestępstwa o niskim poziomie zaawansowania technologicznego (przestępstwa wykorzystujące cyberprzestępczość) lub zaawansowane technologicznie (zaawansowane przestępstwa cybernetyczne). Główna różnica między tymi typami polega na tym, że zaawansowane technologicznie cyberprzestępstwa to złożone ataki ukierunkowane na sprzęt komputerowy i oprogramowanie, podczas gdy cyberprzestępstwa o niskim poziomie zaawansowania technologicznego to przestępstwa, które koncentrują się na bardziej tradycyjnych przestępstwach, które mają miejsce w codziennym społeczeństwie podczas korzystania z komputera i/lub Internetu połączenie. Wyraźnym przykładem przestępczości internetowej jest phishing, który można uznać za przestępstwo związane z zaawansowanymi technologiami. W przypadku tego rodzaju oszustwa osoba atakująca próbuje odkryć informacje, głównie informacje o koncie, wysyłając wiadomości e-mail lub tworząc strony, które wyglądają jak legalne witryny firmowe. Kiedy cele gryzą "przynętę", atakujący może manipulować lub wykorzystywać informacje o celach. Ponadto phishing może zostać wykorzystany do zainstalowania złośliwego oprogramowania na urządzeniu użytkownika. Złośliwe oprogramowanie, skrót od złośliwego oprogramowania, odnosi się do korzystania z oprogramowania zaprojektowanego w celu uszkodzenia lub zakłócenia działania urządzenia. Instalując złośliwe oprogramowanie, cyberprzestępcy mogą gromadzić dane osobowe, łatwo usuwać lub manipulować plikami na urządzeniach do przechowywania lub przejmować czyjś komputer. Przykładem cyberprzestępstwa o niskim poziomie zaawansowania technologicznego jest oszustwo związane z tożsamością online. Oszustwo związane z tożsamością online ma miejsce, gdy cyberprzestępca wykorzystuje skradzioną tożsamość w mediach społecznościowych w celu oszukania opinii publicznej lub uzyskania towarów lub usług.
Ściganie Cyberprzestępczości
Szanse na złapanie za popełnienie cyberprzestępstwa są stosunkowo niewielkie. Większość organów ścigania nie ma wystarczających zasobów, aby skutecznie ścigać cyberprzestępców. Wpływ cyberprzestępczości może być jednak ogromny, ponieważ cyberprzestępcy mogą łatwo dotrzeć do dużej grupy ludzi. Problemem jest nie tylko skala, na jaką może działać cyberprzestępczość, ale jeszcze bardziej problematyczny jest jej międzynarodowy charakter. Zaledwie jedno kliknięcie myszką daje przestępcom możliwość natychmiastowego dotarcia do dużej grupy i pokonywania dużych odległości. Ściganie przestępcy mieszkającego w kraju, który nie podpisał Konwencji Budapeszteńskiej, wymaga wielu formalności, a współpraca nie jest gwarantowana.
Prywatność w Internecie
Kwestie prywatności zyskują coraz większą uwagę na całym świecie. Prywatność jest opisana jako podstawowe prawo do bycia pozostawionym w spokoju. Zagwarantowanie tego prawa w świecie wirtualnym okazało się znacznie trudniejsze niż w świecie fizycznym. Ochrona podstawowego prawa ludzi do prywatności wymaga zatem aktywnego zarządzania. Pojęcie prywatności było znane i pisane w całej (zachodniej) historii ludzkości, począwszy od pism Arystotelesa. Ale dopiero w 1890 roku zostało wprowadzone do dziedziny prawa jako "prawo do bycia pozostawionym w spokoju", kiedy artykuł "Prawo do prywatności" autorstwa Samuela Warrena i Louisa Brandeisa ukazał się w Harvard Law Review. Autorzy rozwinęli temat prywatności jako prawa podstawowego. Od tego czasu stała się stałym elementem zachodnich systemów sądowniczych, a ostatnio w pozostałych częściach świata. Od czasu wprowadzenia World Wide Web na początku lat 90. XX wieku prawo do prywatności stało się ważną kwestią, która jest nierozerwalnie związana z rewolucją cyfrową. Podczas gdy pojęcie prywatności początkowo odnosiło się do ochrony przestrzeni osobistej, w erze cyfrowej warunki prywatności dotyczą przede wszystkim ochrony danych osobowych i danych zebranych z cyfrowego śladu, jaki dana osoba pozostawia w Internecie. Biorąc pod uwagę fakt, że Internet stał się również istotną częścią życia domowego, od parkometru na ulicy po inteligentną lodówkę w kuchni, oznacza to, że prawie wszystko staje się połączone. Dzięki temu gromadzona jest nieograniczona ilość danych. Zbieranie danych i możliwe nadużycia informacji sprawiają, że ochrona danych jest bardzo ważną kwestią w tej epoce. Niezależnie od tego, czy chodzi o nieupoważnione użycie lub niewłaściwe użycie danych przez strony trzecie, czy o ich ciągłość i dostępność, ochrona danych jest kluczowym aspektem ochrony prywatności. W Karcie UE ochrona danych osobowych została nawet wprowadzona jako prawo podstawowe obok prywatności.
Ewolucja Internetu
W ewolucji Internetu można wyróżnić dwie fazy. Na początku lat 90. strony internetowe traktowano jako źródło informacji. Nie było interakcji między odwiedzającym stronę internetową a jej właścicielem. W rezultacie przeglądanie sieci było dość anonimowe. Odwiedzający nie miał tożsamości online, ponieważ nie było takiej potrzeby lub było jej mało. Od czasu wprowadzenia bardziej interaktywnych stron internetowych na początku XXI wieku w tak zwanej Web 2.0 tożsamość online stała się bardziej niezbędna do różnych zadań, od kupowania produktów konsumenckich po dbanie o finanse. Rozwój ten ma silną korelację z faktem, że coraz większa część życia przeciętnego człowieka odbywa się w Internecie. Nie jest już tylko źródłem informacji; każda codzienna czynność, w tym zakupy, wypoczynek, życie towarzyskie i finanse, ma odpowiednik online. Dla wszystkich tych działań niezbędna jest tożsamość online.
Cyfrowy ślad
Bezpośrednią konsekwencją tego rozwoju jest to, że czyjeś kroki w Internecie pozostawiają cyfrowy ślad. Niezależnie od tego, czy jest to adres IP, historia wyszukiwarek, śledzące pliki cookie, czy po prostu za pośrednictwem mediów społecznościowych sieci, cała aktywność jest rejestrowana. Okruchy chleba pozostawione przez ludzi podczas przeglądania Internetu wiele mówią o człowieku. Dzięki tym informacjom zaczynają pojawiać się wzorce, a ludzie stają się przewidywalni. Informacje te stają się towarem o coraz większej wartości od lat 90. Dane dotyczące ludzkich zachowań online mają ogromną wartość. Wiele firm opiera się na wykorzystaniu danych osobowych. Niektóre usługi i produkty wydają się być bezpłatne w Internecie iz tego powodu są bardzo popularne, ale za tą fasadą firmy zarabiają niespotykane dotąd pieniądze na informacjach generowanych przez korzystanie z ich usług i produkty.
Rozporządzenie
Wiele osób ma niewielką świadomość tego, w jaki sposób ich dane są rejestrowane i zarabiane. Nie mają też świadomości, że ich działania są monitorowane przez agencje rządowe z całego świata. Regulacja w tym obszarze jest szczególnie trudna ze względu na ponadnarodowy charakter Internetu. Istnieją międzynarodowe traktaty, w których mowa o prawie do prywatności, takie jak Międzynarodowy pakt praw obywatelskich i politycznych, przyjęty przez Zgromadzenie Ogólne ONZ w 1966 r., ale nie są one ukierunkowane na aktualny stan techniki i problemy, które się z tym wiążą. W Europie Europejska Konwencja Praw Człowieka również odnosi się do kwestii prywatności, a Europejski Trybunał Praw Człowieka pomaga określić obecny stan przepisów dotyczących prywatności poprzez swoje orzecznictwo.
Ochrona danych osobowych
Prywatność w Internecie to szerokie pojęcie, które obejmuje coś więcej niż tylko ochronę danych. Prawo do bycia pozostawionym w spokoju jest zdefiniowane w sposób, który nie jest już wystarczający do ochrony danych osobowych. Niedobór ten wynika z różnic w uprawnieniach i możliwościach technologicznych między administratorami danych a osobami, których dane dotyczą. Rozbieżność w zakresie uprawnień informacyjnych doprowadziła do powstania zasad i środków regulacyjnych dotyczących ochrony danych osobowych ze względu na obawy przed możliwym naruszeniem życia osobistego przez rozwój technologiczny. Dane osobowe obejmują informacje dotyczące osób fizycznych i ich zachowania lub dane, które umożliwiają identyfikację żyjącej osoby. Wszystko, co można zrobić z danymi, nazywa się przetwarzaniem. Przykładami tego są gromadzenie, porządkowanie, przechowywanie, zabezpieczanie i usuwanie danych. Osoby, których dane dotyczą, to osoby, których dotyczą informacje. Administratora danych można zdefiniować jako podmiot decydujący o celu i środkach przetwarzania danych. Podmiotem realizującym faktyczne przetwarzanie danych osobowych jest podmiot przetwarzający dane. Przepisy i zasady regulujące przetwarzanie danych mają na celu przede wszystkim odpowiednią jakość gromadzonych danych. Ponadto te prawa i zasady mają na celu umożliwienie podmiotom wpływania na przetwarzanie tych danych w celu zapewnienia określonego poziomu prywatności. Ostatnim celem jest kontrola własnej tożsamości online. Kontrola osób, których dane dotyczą, nad ich danymi jest określana jako prawo do samostanowienia. Unijne Ogólne rozporządzenie o ochronie danych, zatwierdzone przez Parlament Europejski w 2016 r., ma na celu wzmocnienie kontroli osób, których dane dotyczą, nad ich danymi. Jednak w dobie datafikacji całkowita kontrola jest iluzją. Zasada rzetelnego i zgodnego z prawem przetwarzania leży u podstaw ochrony danych osobowych, którą można podzielić na kilka konkretnych zasad. Ze względu na globalne oddziaływanie Internetu ochrona danych nie ogranicza się do jednego kraju. Przekazywanie danych osobowych między różnymi krajami może stanowić problem ze względu na rozbieżności w standardach ochrony w różnych krajach suwerennych, z których każdy ma własne prawa i zasady dotyczące ochrony danych.
Socjolodzy używają terminu pornografia w odniesieniu do mediów przedstawiających nagość lub graficzne akty seksualne mające na celu podniecenie widzów. Ponieważ dostęp do Internetu staje się coraz bardziej powszechny w Stanach Zjednoczonych a na całym świecie zdecydowana większość osób konsumujących pornografię uzyskuje teraz dostęp do tych filmów i obrazów przez Internet, a nie przez inne platformy, takie jak czasopisma lub płyty DVD. W rzeczywistości ostatnie szacunki niektórych badaczy wskazują, że 13% wszystkich wyszukiwań w Internecie dotyczy treści pornograficznych. Chociaż tradycyjna pornografia była badana przez wiele dziesięcioleci, zarówno naukowcy, jak i laicy zastanawiali się, w jaki sposób Internet może zmienić sposób, w jaki konsumenci wchodzą w interakcję z pornografią. Ten wpis obejmuje najnowszą literaturę na temat konsumpcji pornografii internetowej, w tym wskaźniki wykorzystania i motywacje do ekspozycji; predyktory użycia; treści pornograficzne w Internecie (np. zachowania, dynamika władzy i przemoc); i możliwych skutków konsumpcji, które obejmują zmiany zachowań i postaw seksualnych, uzależnienie, agresję i satysfakcję. Naukowcy odkryli, że niektóre eksploracje pornografii internetowej są normatywne w okresie dojrzewania i dorosłości, ponieważ ludzie zwracają się do pornografii internetowej z różnych powodów. Płeć jest wyraźnym predyktorem korzystania z pornografii internetowej, ponieważ mężczyźni zgłaszają częstsze korzystanie z niej niż kobiety. Czynniki takie jak wyższa impulsywność i słabsze więzi międzyludzkie lub instytucjonalne również wykazały spójność predykcyjną. Inne czynniki, takie jak przynależność religijna lub biologiczna znaczniki nie są tak dobrze rozumiane. Treść pornografii internetowej ciągle się zmienia, jednak badania pokazują, że jest to norma seksualna najczęściej pojawiają się zachowania. Chociaż niektóre treści pornograficzne w Internecie mogą być szczególnie brutalne lub poniżające, wiele filmów i zdjęć w najbardziej popularnych i popularnych witrynach nie obejmują skrajnej przemocy. Jeśli chodzi o skutki korzystania z pornografii internetowej, wydaje się, że bardziej liberalne zachowania i postawy seksualne są konsekwentnie powiązane z używaniem, podobnie jak miary agresji. Powiązania z czynnikami, takimi jak wyniki w zakresie zdrowia psychicznego, problemy z uzależnieniami i wpływ na satysfakcję związaną z sobą lub partnerem, są mniej pewne.
Korzystanie z pornografii internetowej
Wskaźniki konsumpcji pornografii internetowej są bardzo zróżnicowane i zostały zróżnicowane probabilistycznie w zależności od cech demograficznych i psychograficznych użytkowników. Najnowsze dane dostarczają jednak przybliżonych szacunków, ile osób uzyskuje dostęp do pornografii internetowej i korzysta z niej w szerszym zakresie. Dane zebrane w 2013 roku przez Pew Research Center wskazują, że około 25% mężczyzn i 8% kobiet w Stanach Zjednoczonych ogląda pornografię online, co jest zbliżone do wyników badań z początku XXI wieku, w których wykorzystano losowo wybrane dane krajowe z General Social Survey i stwierdzono, że więcej ponad 20% mężczyzn i około 4% kobiet oglądało pornografię online w ciągu ostatnich 30 dni. Jedno z badań amerykańskich nastolatków wykazało, że 42% zgłosiło kontakt z pornografią internetową w poprzednim roku. Badacze śledzili również konsumpcję pornografii w innych krajach. Badania te zwykle koncentrują się na młodzieży i nastolatkach. Na przykład badanie dotyczące korzystania z pornografii przez uczniów z Hongkongu wykazało, że zgłosiło to 20%. używania w ciągu ostatnich 2 lat (większość z nich to mężczyźni) i że wskaźniki te wzrastały w okresie rozwoju młodzieży. Podobne badanie przeprowadzone w Izraelu wykazało, że blisko 50% nastolatków w wieku od 7 do 11 klas miało dostęp do pornografii internetowej. Badanie przeprowadzone na mniejszą skalę w Australii wykazało, że 84% chłopców i 60% dziewcząt w wieku od 16 do 17 lat oglądało pornografię online. W badaniu przeprowadzonym na Sri Lance 53% mężczyzn i 31% studentek uniwersytetów zgłosiło korzystanie z pornografii internetowej. Konsumpcja pornografii internetowej może się różnić w zależności od wieku, motywacji i intencji.
Wiek ekspozycji
Badania nad ekspozycją na pornografię internetową często dowodzą, że używanie w okresie dojrzewania jest normatywne, ponieważ większość nastolatków ogląda pornografię internetową (dobrowolnie lub niechętnie) w pewnym momencie, zanim ukończy 18 lat. Jedno z badań amerykańskich studentów wykazało, że 93% nastolatków płci męskiej zgłosiło oglądanie pornografii internetowej przed ukończeniem 18 roku życia, a 62% nastolatków płci żeńskiej zgłosiło to samo. Badanie to wykazało również, że stosunkowo niewiele osób zgłosiło oglądanie pornografii online przed ukończeniem 12 lat, a średni wiek ekspozycji wynosił blisko 14 lat. Ponieważ wiele przeglądów konsumpcji pornografii internetowej łączyło oglądalność z korzystaniem z Internetu w ogóle, rozsądne wydaje się oczekiwanie, że w miarę jak młodzież zacznie korzystać z Internetu w coraz młodszym wieku, średni wiek pierwszego kontaktu z pornografią internetową będzie nadal spadał.
Motywacje do użycia
W wielu badaniach próbowano ocenić motywacje osób korzystających z pornografii internetowej, zwłaszcza jeśli chodzi o korzystanie z niej przez młodzież. Reprezentatywne badanie krajowe przeprowadzone w Stanach Zjednoczonych, stwierdziły, że fizyczne i seksualne podniecenie i uwolnienie są głównymi powodami oglądania, a także spełniania fantazji i seksualnych ciekawostek. Badania konkretnych grup (np. studentów) znajdują podobne motywacje. Na przykład jedno badanie studentów studiów licencjackich pogrupowało motywacje w cztery kategorie: (1) motywacje do związków, które obejmują korzystanie z pornografii internetowej w celach społecznych (z przyjaciółmi lub partnerem), a także w celu zwiększenia wspólnych czynności seksualnych (w celu poprawy podniecenia podczas / przed seks z partnerem); (2) motywacje do zarządzania nastrojem, które obejmują stosowanie w celu złagodzenia napięcia, nudy lub stresu; (3) nawykowe używanie, w tym nakłanianie do korzystania z pornografii; oraz (4) fantazje. Wszystkie cztery z tych motywacji były częściej cytowane przez mężczyzn niż kobiety. Badania motywacji nastolatków są nieco bardziej powszechne, a powody przytaczane przez młodzież są pod pewnymi względami inne, zwłaszcza jeśli dotyczą rozwoju seksualnego i fizycznego. Podobnie jak u dorosłych, motywacje nastolatków obejmują podniecenie/podniecenie seksualne oraz zaspokojenie ciekawości związanej z seksem. Jednak nastolatki zgłaszały również, że korzystają z pornografii internetowej, aby dowiedzieć się więcej o seksie lub sprawić, by rówieśnicy chcieli oglądać lub patrzeć na to razem. W połączeniu z badaniami na dorosłych, powody te są znacznie częściej cytowane przez mężczyzn niż przez nastolatki, które często powołują się jedynie na niezamierzone oglądanie.
Niezamierzone użycie
Zapytania dotyczące motywacji korzystania z pornografii internetowej często wskazują na nieumyślne lub przypadkowe oglądanie. Zwłaszcza nastolatki często zgłaszają przypadkowe obejrzenie pornografii podczas korzystania z Internetu. Australijskie badanie oszacowało, że odsetek przypadkowego oglądania wynosi blisko 85% dla mężczyzn i 60% dla nastolatków. Badania amerykańskie wykazały podobne wskaźniki, przy czym rozpowszechnienie wzrasta w okresie dojrzewania, ponieważ starsze nastolatki mogą częściej korzystać z Internetu. Wydaje się, że chociaż nastolatkowie płci męskiej częściej zgłaszają oglądanie pornografii internetowej, częściej zgłaszają również konkretne motywacje. Z drugiej strony kobiety i dziewczęta rzadziej zgłaszają celowe oglądanie. Niektórzy argumentowali, że kobiety i dziewczęta mogą rzadziej zgłaszać motywacje do korzystania z pornografii ze względu na oczekiwania społeczne, że kobiety nie są zainteresowane przypadkowym, nierelacyjnym seksem.
Predyktory użytkowania
W wielu badaniach zbadano czynniki, które przewidują wykorzystanie pornografii internetowej: przede wszystkim czynniki psychologiczne, demograficzne, społeczne i biologiczne.
Czynniki psychologiczne
Jednym z głównych czynników psychologicznych związanych z korzystaniem z pornografii internetowej jest poszukiwanie wrażeń lub skłonność do nowych doświadczeń fizycznych lub psychicznych. Przekrojowe badania ankietowe zarówno wśród nastolatków płci męskiej, jak i żeńskiej udokumentowały silny związek między wyższymi wynikami w skalach poszukiwania sensacji a częstszym kontaktem z pornografią internetową. Kompulsywność, często powiązana z poszukiwaniem doznań, została również dobrze udokumentowana w związku z konsumpcją pornografii internetowej. Ogólne tendencje obsesyjne, a zwłaszcza kompulsywność seksualna, zostały powiązane z częstszą lub problematyczną konsumpcją pornografii. Związany z hipotezą ta cecha kompulsywności zwiększa prawdopodobieństwo częstszego korzystania z pornografii, jedno badanie wykazało, że więcej czasu spędzanego na graniu w gry online było dodatnio skorelowane z częstszym korzystaniem z Internetu i konsumpcją pornografii. Istnieje zatem wiele danych sugerujących, że poszukiwanie doznań i impulsywność mogą być związane z korzystaniem z pornografii internetowej. Psychologicznie konceptualizowane czynniki demograficzne, w tym męskość i religijność, również zostały powiązane z korzystaniem z pornografii internetowej. Pełne miary męskości nie zostały jeszcze empirycznie powiązane z korzystaniem z pornografii internetowej, pomimo konceptualizacji ich związku i przytłaczających dowodów , że mężczyźni zgłaszają większą konsumpcję pornografii niż kobiety. Jednak badania powiązały pewne aspekty męskich norm (np. Erotofilię, władzę nad kobietami i ideał "playboya") z konsumpcją pornografii internetowej. Religijność była również badana jako korelat konsumpcji pornografii internetowej, przy czym ustalenia dotyczące kierunku związku wydają się mieszane w zależności od poziomu analizy (dane zagregowane vs. dane na poziomie indywidualnym). Na przykład ogólnostanowe badania korzystania z pornografii internetowej oparte na analizie witryn internetowych pokazują wyższe wskaźniki konsumpcji pornografii internetowej w bardziej religijnych krajach USA. Dane te należy jednak traktować ostrożnie, ze względu na wyzwania dla wnioskowania, jakie stwarza analiza międzypoziomowa. Badania na poziomie indywidualnym wykazały skromne odwrotne zależności między religijnością wewnętrzną i zewnętrzną a konsumpcją pornografii internetowej. Dane te przedstawiają złożony związek między religijnością a korzystanie z pornografii internetowej, które należy dokładniej zbadać.
Wskaźniki demograficzne
Oczywiste jest, że płeć jest głównym czynnikiem w korzystaniu z pornografii, przy czym mężczyźni zgłaszają znacznie większą konsumpcję niż kobiety. Odkrycie to było widoczne na przykład w krajowych badaniach nastolatków i dorosłych z Holandii, dorosłych i nastolatków ze Stanów Zjednoczonych oraz nastolatków z Tajwanu i Chin. Inne różnice demograficzne są rzadziej badane, ale przyczyniają się do naszego zrozumienia, kto jest bardziej skłonny do konsumpcji pornografii lub kto konsumuje pornografię z większą częstotliwością. Jedno z badań holenderskich dorosłych i nastolatków wykazało, że osoby, które identyfikowały się jako nie tylko heteroseksualne, częściej korzystały z pornografii internetowej. Inne badanie różnic demograficznych przeprowadzone na podobnie dużej próbie w Stanach Zjednoczonych wykazało, że osoby o niższym poziomie wykształcenia, niższej klasie społecznej, niższych dochodach, bezrobociu i dłuższym czasie pracy częściej korzystały z pornografii internetowej w ciągu ostatnich 30 dni. Wcześniejsza analiza danych z US General Social Survey wykazała, że korzystanie z pornografii online było bardziej powszechne wśród uczestników, którzy rzadziej chodzili do kościoła i byli bardziej liberalni.
Czynniki społeczne
Podczas gdy niektórzy skupiali się na różnicach demograficznych, inni badacze badali rolę rówieśników i relacji społecznych w korzystaniu z pornografii internetowej. Jedno z badań wykazało, że użytkownicy byli bardziej samotni i odizolowani społecznie. Inne badanie skupiające się na nastolatkach wykazało, że słabsze więzi społeczne, słabsze więzi rodzinne, niższe postawy prospołeczne i mniejsze zaangażowanie w szkołę były powiązane z częstszym korzystaniem z pornografii internetowej. Dane te, w połączeniu z danymi dotyczącymi korelatów demograficznych, wydają się sugerować, że osoby mniej związane z instytucjami i innymi osobami mogą być częstszymi użytkownikami pornografii internetowej.
Czynniki biologiczne
Badania nad biologicznymi korelatami korzystania z pornografii internetowej są znacznie rzadsze niż badania nad innymi czynnikami. Jednak czynniki biologiczne mogą być związane z konsumpcją. Jedno z badań wykazało specyficzne neurologiczne różnice w mózgach osób ze zgłoszonymi objawami uzależnienia od pornografii internetowej, tak że struktury mózgowe związane z oczekiwaniem nagrody funkcjonowały inaczej podczas oglądania preferowanej pornografii internetowej. Odkrycie to może pomóc wyjaśnić omówione wcześniej tendencje do kompulsywności. Inne czynniki biologiczne, w tym czas dojrzewania, również zostały powiązane z używaniem. W szczególności wiele badań powiązało zaawansowany stan dojrzewania u dorastających chłopców i względny wczesny stan dojrzewania u dorastających dziewcząt z korzystaniem z pornografii.
Treść pornografii internetowej
Zainspirowani publicznymi obawami dotyczącymi różnic między tradycyjną pornografią a pornografią dostępną w Internecie, badacze przyjrzeli się zawartości pornografii internetowej, najczęściej skupiając się na filmach.
Zachowania seksualne
Jedno badanie, skupiające się na dwóch najpopularniejszych kategoriach pornografii internetowej ("MILF" [matki, które chciałbym przelecieć] i "Nastolatki") wykazało, że stosunek waginalny i fellatio to dwa najczęstsze zachowania seksualne, co pokazano w więcej ponad 85% wszystkich filmów w badaniu. Zachowania takie jak stymulacja manualna, widoczny wytrysk, mineta i pocałunki były obecne w 40% do 60% wszystkich filmów, podczas gdy klapsy dotyczyły prawie 30%, a zachowania penetracyjne i ustno-analne były obecne w 15%. Mniej częste (<5%) zachowania obejmowały przytulanie, używanie zabawek erotycznych i używanie prezerwatyw. Inne badanie, skupiające się na gejowskiej pornografii internetowej, wykazało, że seks oralny, seks analny i masturbacja były najczęściej przedstawianymi zachowaniami, podczas gdy klapsy i zachowania związane z niewolą, dominacją / uległością oraz sadyzmem / masochizmem były obecne tylko u 10% badanych. 16% filmów. Badanie to koncentrowało się również na ryzykownych zachowaniach seksualnych, zauważając, że odsetek seksu analnego z zabezpieczeniem (36%) i bez zabezpieczenia (34%) był prawie identyczny, większość seksu oralnego odbywała się bez zabezpieczenia (99,5%), a inne niebezpieczne zachowania (np. i odbytu lub jamy ustnej) występowały rzadziej (7-18%).
Władza, przemoc i treści niezgodne z prawem
Analiza internetowych filmów pornograficznych i ich witryn hostingowych ujawnia, że wiele takich samych struktur władzy, jakie występują w "tradycyjnych" mediach pornograficznych, jest wykorzystywanych w pornografii internetowej, być może w jeszcze większym stopniu. Na przykład te strony internetowe nadal traktują priorytetowo męskie spojrzenie i uległość kobiet; idealizują także białe ciała i erotyzują lub fetyszyzują osoby kolorowe. Język używany w opisach i tytułach filmów online często zwraca uwagę na hierarchie seksualne, które stawiają mężczyzn w roli dominującej, podkreślając podporządkowanie i uprzedmiotowienie kobiet. Analizy dwóch oddzielnych grup badawczych sugerują nie tylko, że przedstawiana jest równość mężczyzn i kobiet, ale także, że gdy władza jest nierówno rozłożona, mężczyzna jest zwykle dominującym partnerem. Podczas gdy niektóre analizy pokazują, że ekstremalna przemoc (np. przemoc inna niż klapsy i duszenie) oraz seks bez zgody są stosunkowo rzadkie na głównych stronach internetowych z pornografią, wydaje się również, że kobiety są częściej przedstawiane jako ofiary manipulacji seksualnych i przemocy fizycznej, brak równowagi płci które mogą być jeszcze bardziej przesadzone w amatorskiej pornografii (w porównaniu z profesjonalnie wyprodukowaną pornografią). Inne badanie skupiło się w szczególności na internetowych witrynach pornograficznych poświęconych seksowi bez zgody i chociaż naukowcy przyznają, że język i obrazy na tych stronach różni się znacznie od witryn głównego nurtu, ich raport pokazuje, że kobiety są często przedstawiane jako ofiary gwałtu, które często są krzywdzone bronią i innymi środkami ekstremalnej siły fizycznej i wyraźnie wyrażają skrajny ból. Inne analizy treści koncentrowały się na różnych aspektach pornografii internetowej. Na przykład w jednym z badań przeanalizowano e-maile ze spamem z witryn pornograficznych i stwierdzono, że treść tych witryn odzwierciedla treść e-maili: kobiety były często uprzedmiotowiane i przedstawiane jako posiadające ograniczona agencja seksualna. Chociaż e-maile często wydają się być wysyłane z kont z imionami żeńskimi, często są one pisane z perspektywy mężczyzny obiecującego dostęp do "prawdziwych" i bardzo drastycznych internetowych treści pornograficznych (np. "Ty i ja znamy dziewczyny takie jak
". ). W innej innowacyjnej analizie porównano komentarze pozostawione pod filmami pornograficznymi w Internecie z komentarzami pod filmami z YouTube. Badanie to wykazało, że komentarze użytkowników pornografii internetowej często odnosiły się do przyjemności seksualnej i czerpania przyjemności z treści oraz rzadko omawiane niezadowolenie lub krytyka. Język użytkowników skierowany do kobiet często zawierał uwłaczające słowa (np. dziwka) i odwoływał się do przemocy (np. niszczenie). Autor zauważył, że interakcja między komentatorami, która jest niezwykle powszechna w innych witrynach do udostępniania wideo (np. YouTube), generalnie nie występuje na stronach pornograficznych, być może dlatego, że widzowie zostawiają proste komentarze, aby wyrazić przyjemność, satysfakcję lub fantazję, a nie komentować do rozpoczęcia kłótni lub krytycznej dyskusji z innymi widzami.
Efekty (korelaty) użytkowania
Być może jednym z najbardziej solidnych obszarów badań dotyczących pornografii internetowej jest temat jej społecznych i psychologicznych skutków dla konsumentów. Częściowo ze względu na obawy zarówno opinii publicznej, jak i akademickiej dotyczące złych skutków korzystania z pornografii internetowej, badacze pilnie przyjrzeli się wielu możliwym skutkom. Oprócz tych omówionych tutaj mogą istnieć dodatkowe zmienne pośredniczące i moderujące, które wyjaśniają związki między konsumpcją pornografii internetowej a wynikami, które były dotychczas badane.
Zachowania seksualne
Wpływ na zachowania seksualne jednostek jest jednym z najczęściej dyskutowanych skutków konsumpcji pornografii internetowej. Naukowcy postawili hipotezę o wielu mechanizmach, poprzez które pornografia internetowa może wpływać na zachowania seksualne danej osoby, w tym na uczenie się społeczne i zmianę postawy. Jeśli chodzi o młodzież, jedno ogólnokrajowe badanie przeprowadzone wśród szwajcarskich nastolatków przyjrzało się szczególnie ryzykownym zachowaniom seksualnym (tj. pornografii rzadziej używali prezerwatywy podczas ostatniego doświadczenia seksualnego. Inne badania wykazały zależności między korzystanim z pornografii internetowej i większa liczba partnerów seksualnych, wielu partnerów seksualnych w ciągu ostatnich 3 miesięcy oraz używanie substancji psychoaktywnych podczas aktywności seksualnej. W innej interesującej populacji, mężczyzn uprawiających seks z mężczyznami, małe badanie jakościowe przeprowadzone w Stanach Zjednoczonych ujawniło, że ci mężczyźni uważają, że pornografia internetowa normalizuje seks analny bez zabezpieczenia i przyczynia się do pragnienia i oczekiwań na seks analny bez zabezpieczenia. Badania zachowań seksualnych osób dorosłych związanych z pornografią internetową użycia obejmują dwa dochodzenia w sprawie ryzykownych zachowań seksualnych w Stanach Zjednoczonych. Oba badania wykazały pozytywny związek między konsumpcją pornografii internetowej a liczbą partnerów seksualnych. Wśród mężczyzn konsumpcja pornografii internetowej była skorelowana z zaangażowaniem w seks pozamałżeński i płatny seks, ale nie w seksie bez zabezpieczenia. Na koniec systematyczny przegląd literatury na ten temat odzwierciedla większość tych ustaleń, powołując się na trend w kierunku związków między korzystaniem z pornografii internetowej a ryzykownymi zachowaniami seksualnymi.
Postawy seksualne
Dobrze udokumentowano również związki między postawami seksualnymi a oglądaniem pornografii internetowej, zwłaszcza wśród nastolatków. Badania wykazały, że konsumpcja pornografii internetowej jest istotnym predyktorem permisywnych postaw seksualnych na przykład u nastolatków z Chin, Tajwanu, Holandii i Ameryki. Przegląd narracji, w tym wiele międzynarodowych badań, potwierdza te ustalenia, sugerując normatywne doświadczenie dla nastolatków, w którym ekspozycja na pornografię poszerza postawy seksualne i pobłażliwość.
Stres psychiczny
Proponowane zagrożenia dla zdrowia publicznego związane z pornografią internetową nie ograniczają się tylko do ryzykownych zachowań i postaw seksualnych, ale także do stresu psychicznego. Dwa badania studentów płci męskiej w Stanach Zjednoczonych wykazały pozytywne związki między częstotliwością korzystania z pornografii a problemami ze zdrowiem psychicznym, w tym depresją, lękiem i stresem, chociaż każdy model przedstawiał różne pytania dotyczące kierunkowości związku między cierpieniem psychicznym a konsumpcją pornografii. Podczas gdy jedna analiza sugeruje związek przyczynowy między konsumpcją a problemami ze zdrowiem psychicznym, druga przedstawia mniejszą pewność co do kierunkowości depresji i stresu; wyniki te mogą wskazywać na dwukierunkową zależność między zmiennymi. Dalsze badania sugerują, że ten niepokój może nie ograniczać się do zdrowia psychicznego; jedno szeroko zakrojone badanie dorosłych użytkowników Internetu wykazało, że korzystanie z mediów o charakterze jednoznacznie seksualnym było związane z gorszym zdrowiem psychicznym i gorszym zdrowiem fizycznym.
Zadowolenie z siebie i partnera
Ściśle powiązane ze zmiennymi dystresu psychicznego są zmienne dotyczące poczucia własnej wartości i zadowolenia z ciała, a także zadowolenia z partnera. W wielu badaniach zbadano satysfakcję ciała mężczyzn w odniesieniu do konsumpcji pornografii internetowej. Jedno badanie Holendrów wykazało, że używanie było szczególnie związane z niezadowoleniem z rozmiaru penisa, podczas gdy inne, skupiające się na homoseksualnych i biseksualnych mężczyznach w Norwegii, wykazało, że oglądalność była związana z wyższą samooceną seksualną. W przypadku Holenderek badanie nie wykazało wpływu na zadowolenie z rozmiaru piersi. Wyniki te są często nieintuicyjne i niejasne ustalenia związane z efektami samozadowolenia wynikającymi z korzystania z pornografii internetowej. Inne badania wskazywały na niezadowolenie z partnera lub życia seksualnego w wyniku korzystania z pornografii internetowej. W jednym z przeglądów literatury stwierdzono, że istniejące badania potwierdzają tę hipotezę. Ale inne, nowsze badanie podłużne komplikuje dane, sugerując niewielki lub żaden związek między korzystaniem z pornografii internetowej a satysfakcją seksualną z partnerem.
Uzależnienie
Nowsze osiągnięcia w badaniach nad pornografią internetową to badania dotyczące problematycznego lub uzależniającego używania. Biorąc pod uwagę zwiększoną dostępność, różnorodność i intensywność pornografii internetowej, badacze stwierdzili, że tendencje do uzależnień mogą być bardziej palącym problemem, chociaż pomysł, że pornografia internetowa może sama w sobie uzależniać, został zakwestionowany przez innych. Rozpowszechnienie problematycznego / kompulsywnego korzystania z pornografii może oscylować między 15% a 20% użytkowników pornografii (w zależności od definicji i metodologii). Jednak jedno badanie wykazało, że pomimo zgłaszanych przez samych siebie negatywnych skutków korzystania z pornografii internetowej, nie było związku między postrzeganym uzależnieniem od pornografii internetowej a rzeczywistą częstotliwością używania, co sugeruje, że być może postrzegane uzależnienie jest spowodowane jakimś innym czynnikiem i że różnice indywidualne mogą odgrywać rolę ważna rola. W rzeczywistości przekonania religijne i moralna dezaprobata dla korzystania z pornografii są silniejszymi predyktorami postrzeganego uzależnienia niż rzeczywista częstotliwość używania. Konieczne są dalsze badania w tej dziedzinie, zwłaszcza że postrzegane uzależnienie od pornografii internetowej wiązało się z czasem z większym cierpieniem psychicznym.
Agresja
W tradycyjnych badaniach nad pornografią hipoteza, że pornografia powoduje późniejszą agresję lub jest z nią związana, została oceniona empirycznie i koncepcyjnie przez wiele zespołów badaczy. Jednak niewiele było badań empirycznych ukierunkowanych konkretnie na pornografię internetową jako możliwą przyczynę agresji. Biorąc pod uwagę, że zdecydowana większość pornografii, do której młodzież i dorośli mieli dostęp w ostatnich latach, pochodzi z Internetu lub jest w nim oglądana, ostatnie badania dotyczące ogólnego korzystania z pornografii (medium nieokreślone) i agresji są prawdopodobnie silnym wskaźnikiem związku między pornografią internetową i agresja. Na przykład dwa ostatnie badania, zarówno w Stanach Zjednoczonych, jak i na Tajwanie, powiązały wykorzystywanie pornografii przez nastolatków z nagabywaniem seksualnym w Internecie i molestowaniem seksualnym. Inne badania z próbkami dorosłych dały podobne wyniki. Jedno badanie przekrojowe wykazało, że częstsze korzystanie z pornografii przez mężczyzn (w połączeniu z innymi doświadczeniami z dzieciństwa) wiązało się z większym prawdopodobieństwem stosowania przymusu seksualnego, podczas gdy dwa badania podłużne wykazały pozytywny związek między używaniem pornografii a formami agresji seksualnej.
Prywatność w Internecie jest kontrowersyjna ze względu na swoje unikalne cechy, w których informacje online o ludziach przemieszczają się dalej i szybciej i pozostają publicznie dostępne, nawet wbrew ich woli, maksymalizując możliwą szkodę dla ich prywatności. W najwcześniejszym orzeczeniu Sądu Najwyższego Stanów Zjednoczonych w sprawie Internetu, Reno przeciwko American Civil Liberties Union, stwierdzono w 1997 r., że Internet jest miejscem, w którym informacje mogą być udostępniane jednocześnie wszystkim innym użytkownikom Internetu na całym świecie. Oznacza to, że wymiana w Internecie zawsze wiąże się z niebezpieczeństwem naruszenia prywatności. Jednocześnie siła Internetu umożliwiająca bezsilnemu mówcy dotarcie do dużej publiczności zasługuje na najwyższą ochronę przed ingerencją rządu. Sąd Najwyższy Korei Południowej orzekł w 2012 r., że Internet pozwala ludziom przezwyciężyć hierarchię ekonomiczną lub polityczną offline, a tym samym kształtować opinie publiczne wolne od różnic klasowych, statusu społecznego, wieku i płci. Dzięki temu sprawowanie rządów w większym stopniu odzwierciedla opinie ludzi z różnych środowisk, a tym samym dodatkowo promuje demokrację. W związku z tym należy wezwać do ograniczenia wymiany informacji ze względu na ochronę prywatności być moderowane ze względu na równość i demokrację. W tym wpisie omówiono, w jaki sposób prywatność w Internecie jest napięta z potencjałem Internetu do efektywnej wymiany informacji oraz jak ten problem rozwinął się w różnych częściach świata.
Kontekst historyczny w Stanach Zjednoczonych
Przed Internetem prywatność w postępowaniach karnych w USA była definiowana na wzór uzasadnionego oczekiwania prywatności zgodnie z orzeczeniem Sądu Najwyższego z 1967 r. w sprawie Katz przeciwko Stanom Zjednoczonym. Chodzi o to, że rzeczy, osoby i miejsca ludzi powinny być uważane za prywatne, gdy takie oczekiwanie jest uzasadnione. Zgodnie z tą ideą, aby przeszukać ich rzeczy, miejsca lub osoby do celów dochodzenia karnego, organy ścigania musiały uzyskać pisemną zgodę wydaną przez niezależnego funkcjonariusza publicznego niezainteresowanego i niezależnego od policji. Ta zgoda jest wydawana za pomocą nakazów, które z kolei są wydawane tylko wtedy, gdy istnieje prawdopodobny powód, by sądzić, że w rzeczach, miejscach lub osobach, które mają być przeszukane, znajdują się obciążające dowody. Jednak osoba traci prawo do prywatności i dlatego uważa się, że zezwoliła na przeszukanie bez nakazu, jeśli pozostawi dowody na widoku innych, jak określono w orzeczeniu Trybunału z 1987 r. w sprawie Arizona przeciwko Hicks. W sprawie Smith przeciwko Maryland Trybunał orzekł w 1979 r., że nawet jeśli ktoś zachowuje poufne numery telefonów, które wybrał w innych kontekstach, pozostawienie ich do wglądu przez stronę trzecią (w tym przypadku firmę telefoniczną) spełnia jego oczekiwania prywatności dla tej rzeczy jest nieuzasadnione, udostępniając je do przeszukania bez nakazu przez organy ścigania. Ta tak zwana doktryna trzeciej strony została poważnie zakwestionowana przez Kongres Stanów Zjednoczonych, który w ustawie o ochronie prywatności w komunikacji elektronicznej (ECPA) z 1986 r. dodał zapisy dotyczące rejestru/pułapek i śledzenia piór, które ograniczają zdolność organów ścigania do śledzenia numerów telefonów osób połączenia do lub z telefonu podejrzanego (ECPA 18 U.S.C. § 3121 i nast.) poprzez nałożenie wymogu wcześniejszego otrzymywania nakazów sądowych. Jednak doktryna strony trzeciej pozostaje prawem w zakresie, w jakim zgodnie z innymi częściami ECPA dostęp do wszystkich informacji przechowywanych na serwerze strony trzeciej przez ponad 180 dni oraz informacji o abonencie przekazywanych dostawcom usług komunikacyjnych jest możliwy zgodnie z prawem wykonanie bez zgody sądu. Ta sprzeczna z intuicją część ECPA jest częściowo zracjonalizowana przez odniesienie do architektury Internetu, zgodnie z którą dla każdego pakietu informacji przechodzącego przez ten Internet potencjalnie wszystkie komputery działają nie tylko jako twórcy i odbiorcy informacji, ale także jako mediatorzy, tworząc wielość stron trzecich, które mają potencjalny dostęp do ruchu przez nie przechodzącego. Jednak Sąd Apelacyjny Stanów Zjednoczonych dla Szóstego Okręgu stwierdził inaczej w swojej decyzji z 2010 r. w sprawie Stany Zjednoczone przeciwko Warshak, stwierdzając, że treść e-maili jest prywatna, a tym samym wymaga nakazu dostępu organów ścigania. Co więcej, zarys prywatności wydaje się szerszy, gdy ma na celu ochronę jednostek przed wścibskimi rówieśnikami, a nie przed organami ścigania. Kiedy prywatność została po raz pierwszy zamanifestowana jako prawo do wolności od współobywateli w przełomowym artykule Samuela Warrena i Louisa Brandeisa z 1890 r., miała chronić informacje już dostępne dla stron trzecich, które w przeciwnym razie wykraczałyby poza uzasadnione oczekiwania dotyczące prywatności w sprawach karnych. procedura. Autorzy zaproponowali stworzenie po raz pierwszy teorii prawnej, zgodnie z którą można zostać pociągniętym do odpowiedzialności za opisanie (lub ujawnienie lub uzyskanie faktów na temat) innej osoby wbrew jej woli, nawet jeśli taki opis lub ujawnienie nie zaszkodzi reputacji tej osoby, jak oskarżenia o zniesławienie. Autorzy argumentowali na przykład, że publikowanie informacji o osobie skromnej i przechodzącej na emeryturę, że ma ona wadę wymowy lub nie potrafi poprawnie pisać, jest nieuzasadnionym naruszeniem jej praw. Autorzy ograniczyli swoją nową teorię do wpływowej maksymy, że prawo do prywatności nie zabrania publikowania spraw, które leżą w interesie publicznym lub ogólnym. Jednak William Prosser, który po opublikowaniu artykułu Warrena i Brandeisa przeszedł kompleksową analizę niemal wszystkich spraw, w których pojawia się termin prywatność, doszedł do wniosku, że 70-letni rozwój odpowiednich orzeczeń sądowych skrystalizował się między innymi w dwóch teoriach: (1) publiczne ujawnienie faktów prywatnych i (2) wtargnięcie w odosobnienie, z których oba wymagają jako przesłanki pewnych opublikowanych faktów lub naruszonych obszarów, które wcześniej były ukryte przed publiczną obserwacją. Pewna miara wcześniejszej poufności pozostała wymogiem zachowania prywatności. Dwie inne ewolucje sądowe, sprzeniewierzenie i fałszywe światło, dotyczą interesów handlowych i reputacji, które nie grają na dostępie i ujawnianiu, głównych sferach dyskursu dotyczącego prywatności. Od tego czasu amerykańskie orzecznictwo dotyczące prywatności pozostaje mniej więcej stabilne, obejmując doktrynę strony trzeciej, która odcina prywatność za każdym razem, gdy następuje dobrowolne lub nieuniknione ujawnienie jakiejkolwiek stronie trzeciej.
Podejście europejskie
Europa przyjęła zupełnie inne podejście do tego, co zrobić z informacjami wcześniej ujawnionymi niektórym stronom trzecim, jeśli niekoniecznie publicznie. W ramach tego podejścia wszystkie dane dotyczące osób możliwych do zidentyfikowania są domyślnie kontrolowane przez te osoby (lub "osoby, których dane dotyczą"), chyba że wyważenie interesów wymaga inaczej. Zaczęło się od koncepcji uczciwej praktyki informacyjnej, którą Alan Westin rozwinął w swoim wpływowym tomie "Prywatność i wolność" z 1970 roku. (Książka pomogła również nabrać tempa w Kongresie Stanów Zjednoczonych, aby uchwalić ustawę Omnibus Crime Control and Safe Streets Act z 1968 r., Która ograniczyła podsłuchiwanie przez organy ścigania i inne techniki inwigilacji oparte na technologii i była prekursorem ECPA). W książce Westin omówił koncepcję tego, co nazwał inwigilacją danych, ideę, że inwigilacja może mieć miejsce nawet poprzez dobrowolne ujawnienie danych osobowych. Według Westin gromadzenie dobrowolnie ujawnionych danych może prowadzić do nadzoru, jeżeli odbiorca danych wykorzystuje je w sposób sprzeczny z wolą osoby, której dane dotyczą, dokonując pierwotnego ujawnienia lub udostępnia je innym podmiotom przetwarzającym dane wbrew woli osoby, której dane dotyczą. Aby zapobiec inwigilacji danych, Westin opowiadał się za uznaniem prawa jednostki do decydowania, jakie informacje na jej temat powinny być przekazywane innym iw jakich okolicznościach. Takie prawo zostało ustanowione w postaci Kodeksu Uczciwych Praktyk Informacyjnych w 1973 roku jako dobrowolne wytyczne dla agencji rządowych zajmujących się przetwarzaniem danych o obywatelach, którego nazwa jest inspirowana Kodeksem Uczciwych Praktyk Pracy. Następnie stał się popularny wśród wielu innych agencji w Stanach Zjednoczonych i za granicą i został zapisany w Wytycznych Organizacji Współpracy Gospodarczej i Rozwoju z 1980 r. w sprawie ochrony prywatności i transgranicznego przepływu danych osobowych, a ostatecznie jako wiążący dokument prawny, Dyrektywa Unii Europejskiej z 1995 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i swobodnym przepływem takich danych. Eskalację rzetelnych praktyk informacyjnych w obowiązujące prawo uprzedziła wpływowa decyzja spisu ludności z 1983 r., w której Federalny Trybunał Konstytucyjny Niemiec Zachodnich orzekł, że w kontekście nowoczesnego przetwarzania danych ochrona jednostki przed nieograniczonym gromadzeniem, przechowywaniem, wykorzystywaniem , a ujawnienie jego danych osobowych mieści się w zakresie ogólnych danych osobowych praw niemieckiej konstytucji. To podstawowe prawo gwarantuje, że jednostka zasadniczo decyduje o ujawnianiu i wykorzystywaniu swoich danych osobowych oraz że ograniczenia tego informacyjnego samostanowienia są dozwolone tylko w przypadkach nadrzędnego interesu publicznego. W ten sposób Trybunał uchylił ustawę federalną zezwalającą na udostępnianie danych spisowych innym organom administracyjnym i lokalnym w przypadku braku zgody respondentów spisu na takie udostępnianie. Od tego czasu koncepcja ochrony danych, zgodnie z którą zakłada się, że wszystkie dane publiczne i prywatne znajdują się pod kontrolą osób, których dane dotyczą, została skodyfikowana w Ogólnym Rozporządzeniu Unii Europejskiej o Ochronie Danych Osobowych z 2016 r. Takie podejście ma jednak oczywiście swoje wady na poziomie przeciwny koniec spektrum niż stanowisko USA. Bez względu na to, jak publicznie informacje zostały udostępnione, z wyboru osoby, której dane dotyczą, z mocy prawa lub w ramach naturalnego dyskursu społecznego, osoba, której dotyczą te informacje, może rościć sobie prawo do kontroli nad nimi, cenzurując dyskurs społeczny wokół tych informacji nawet gdy informacje są prawdziwe i zgodne z prawem pod innymi względami. Na przykład, gdzie znajdują się informacje podatkowe już publiczne z mocy prawa, udostępnianie tych informacji podatkowych innym osobom za pośrednictwem wiadomości tekstowych jest kontrowersyjne w świetle prawa o ochronie danych. Twórcy ogólnego rozporządzenia o ochronie danych starali się złagodzić problem cenzury w tego typu okolicznościach, dodając wyjątki dla przetwarzania do celów dziennikarskich. Dodali również, że jeśli osoba, której dane dotyczą, jest osobą publiczną lub istnieje interes publiczny w przetwarzaniu, unieważnia to taką kontrolę sprawowaną przez osoby, których dane dotyczą. Jednak zakres celów dziennikarskich i interesu publicznego są nie tylko trudne do zdefiniowania (jak w przypadku dwóch sprzecznych orzeczeń dwóch sądów najwyższych w Europie), ale także zbyt wąskie, aby chronić prawo ludzi do wypowiedzi i informacji, ponieważ wymóg wymiany informacji, aby dopasować określone wspólnie formy stoją w sprzeczności z pluralistycznym ideałem tego prawa człowieka. Zbyt często też o tym, czy dana informacja ma wartość dziennikarską lub leży w interesie publicznym, mogą decydować tylko osoby, które jeszcze nie miały do nich dostępu, a których dostęp będzie zagrożony przez prawo o ochronie danych.
Kontynuacja debaty
Nie jest jasne, czy preferowane jest podejście "jednorazowo publiczne do wszystkich celów publicznych", czy też podejście "wszystkie dane o mnie są moje". Internet tylko spotęgował tę zagadkę wraz ze wzrostem ilości informacji wymienianych między osobami prywatnymi oraz różnorodnością sposobów, w jakie odbywa się ta wymiana. Na przykład, czy uzyskanie publicznie dostępnych informacji o innej osobie (praktyka zwana profilowaniem), ułatwianie innym wysiłków w celu uzyskania takich informacji (jak robi to wyszukiwarka) oraz gromadzenie online, ale rozproszonych publicznie dostępnych informacji o innej osobie (jako reputacja platforma) stanowi naruszenie prywatności, są przedmiotem poważnego sporu po obu stronach Atlantyku. Zarówno w Europie, jak i poza nią pojawiły się obiekcje wobec podejścia do prywatności w Internecie, czego przykładem jest orzeczenie Trybunału Sprawiedliwości Unii Europejskiej z 2014 r. w sprawie Google Spain v. Costeja. W tej decyzji wyszukiwarce nakazano usunięcie z listy wyników wyszukiwania pewnego artykułu o osobie. Jednocześnie podejście przyjęte w Stanach Zjednoczonych zostało w tym kraju zakwestionowane, w szczególności w dwóch sprawach, w których Sąd Najwyższy Stanów Zjednoczonych stanął przed pytaniem, czy agregowanie informacji dostępnych nawet wielu osobom trzecim może stanowić naruszenie prywatności. W orzeczeniu z 2012 r. w sprawie Stany Zjednoczone przeciwko Jonesowi Trybunał orzekł, że przymocowanie urządzenia GPS do samochodu podejrzanego stanowi przeszukanie na podstawie Czwartej Poprawki i wymaga nakazu. Trybunał orzekł w 2014 r. w sprawie Riley przeciwko Kalifornii, że policja potrzebuje nakazu, aby przeszukać informacje na temat telefonu komórkowego przejętego od osoby, która została aresztowana. W każdym przypadku większość członków Trybunału aprobowała koncepcję, zgodnie z którą nowoczesne technologie komunikacyjne zwiększają gromadzenie i przetwarzanie informacji o ludziach do nadzwyczajnych rozmiarów oraz że potrzebne są pewne ograniczenia w celu ochrony prywatności osób fizycznych, nawet jeśli dotyczy to informacji, do których osoby trzecie mają już dostęp w inny sposób. strony (jak w sprawie Stany Zjednoczone przeciwko Jonesowi) lub dostępne dla organów ścigania (jak w sprawie Riley przeciwko Kalifornii).