CAPTCHA



CAPTCHA, akronim od "Completely Automated Public Turing test to tell Computers and Humans Apart", jest jednym z najczęstszych rozwiązań problemu udowodnienia, że użytkownik jest człowiekiem, czyli sprawdzenia, czy użytkownik próbuje wprowadzić strona internetowa to prawdziwa osoba lub zautomatyzowane oprogramowanie, zwykle nazywane botem i często wykorzystywane do złośliwych celów. Opracowano różne rodzaje testów CAPTCHA, aby rozwiązać problemy z dostępnością i bezpieczeństwem. W tym wpisie omówiono rozwój testów CAPTCHA i ich wykorzystanie w cyberbezpieczeństwie, różne rodzaje tych testów oraz trudności, jakie te testy mogą stwarzać dla użytkowników Internetu.

Bezpieczeństwo kontra dostępność

Złośliwe zautomatyzowane programy próbują uzyskać dostęp do stron internetowych z wielu powodów, na przykład w celu szpiegostwa przemysłowego lub prób cyberataków. Dostęp do strony internetowej może prowadzić do gromadzenia informacji i danych, uszkodzenia danych i/lub nawet penetracji wewnętrznej sieci firmy za pośrednictwem strony internetowej. Jednym z głównych problemów cyberbezpieczeństwa jest uzyskanie dowodu bycia człowiekiem, który dotyczy tego, czy agent próbujący dostać się na stronę internetową jest prawdziwą osobą, czy złośliwym zautomatyzowanym programem. CAPTCHA to jedno z najczęstszych rozwiązań tego problemu. "T" w nazwie oznacza "Test Turinga do powiedzenia", ponieważ testy CAPTCHA są jak testy Turinga. W oryginalnym teście Turinga, ludzki sędzia został poinstruowany, aby zadał serię pytań dwóm graczom, nie widząc ich. Jeden z graczy był komputerem, a drugi człowiekiem. Obaj gracze udawali ludzi, a sędzia musiał ich rozróżnić, decydując, który z nich jest maszyną. Testy CAPTCHA są podobne do testu Turinga, ponieważ odróżniają ludzi od komputerów, ale różnią się tym, że sędzią w testach CAPTCHA jest komputer. Test CAPTCHA został wynaleziony w 2000 roku przez Luisa von Ahna, Manuela Bluma, Nicholasa Hoppera i Johna Langforda z Carnegie Mellon University i jest używany do dziś. Korzystanie z testów CAPTCHA może chronić użytkowników i strony internetowe na kilka sposobów, takich jak zapobieganie przypadkom spamu na blogach, ochrona rejestracji stron internetowych, ochrona adresów e-mail przed scraperami i zapobieganie cyberatakom, zapewniając jednocześnie, że osoby, które wchodzą na stronę internetową, są ludźmi. Test przeprowadza proces uwierzytelniania typu challenge-response, przedstawiając wyzwanie użytkownikowi, a prawo dostępu do strony internetowej jest przyznawane tylko w przypadku rozwiązania wyzwania. Jeżeli użytkownik nie rozwiąże testu, to uważa się go za maszynę; w przeciwnym razie użytkownik jest uważany za autentycznego człowieka, a dostęp jest dozwolony. Aby rozwiązać test, użytkownik musi wykorzystać zdolności poznawcze, które w chwili obecnej są dla maszyn bardzo trudne, a nawet niemożliwe. Cyberzagrożenia stały się liczne, a próby dotarcia do komputerów przez nieautoryzowanych agentów rosną. Dlatego implementacje CAPTCHA można znaleźć w ponad 3,5 milionach witryn na całym świecie, we wszelkiego rodzaju witrynach, takich jak witryny używane do wypełniania formularzy, pisania komentarzy i kupowania biletów. Ludzie rozwiązują ponad 300 milionów testów CAPTCHA dziennie. Co więcej, aby zminimalizować problemy ze słabością haseł i "zmęczeniem haseł", firmy i badacze nie mogą się doczekać zastąpienia haseł testami CAPTCHA, jeszcze bardziej rozszerzając wykorzystanie CAPTCHA. Jednak niektóre podstawowe testy CAPTCHA zostały złamane, więc naukowcy starają się wzmocnić bezpieczeństwo, czyniąc rozwiązania testów CAPTCHA bardziej złożonymi. Należy zauważyć, że nie wszystkie boty są złośliwe. Istnieją zautomatyzowane programy, które uzyskują dostęp do stron internetowych, aby ułatwić dostarczanie użytkownikom dokładnych i nowych informacji z Internetu, takie jak roboty typu spider, handel, media i RSS. Białe listy dla łagodnych botów i czarne listy dla złośliwych botów to tylko niektóre z metod wykorzystywanych do filtrowania ruchu, który podejrzewa się, że pochodzi od bota.

Rodzaje CAPTCHA

Zdefiniowano i opracowano kilka rodzajów testów CAPTCHA. W tej sekcji opisano pięć najczęściej używanych ich typów. Inne typy testów CAPTCHA wywodzą się z tych podstawowych.

1. Tekstowy test CAPTCHA jest najczęściej stosowanym rodzajem testu, składającym się z sekwencji cyfr i liter, przekręconych i pokazanych w zniekształcony sposób, głównie z nagryzmolonym tłem, które utrudnia rozszyfrowanie znaków. Użytkownik musi określić, co jest wyświetlane i wpisać dokładną sekwencję w polu tekstowym. Jeśli użytkownik nie może rozszyfrować wyświetlanego tekstu, można ponowić próbę z innym tekstem. Istnieje również opcja odsłuchiwania liter, która została opracowana z myślą o osobach z dysfunkcją wzroku. W tej opcji użytkownik słyszy sekwencję liter i/lub cyfr i musi ją wpisać w pole tekstowe, ale często dzieje się to na hałaśliwym tle, co nie pomaga zbytnio. Kiedy tekst jest wpisywany pomyślnie użytkownik uzyskuje dostęp do serwisu. Jeden z mechanizmów tekstowych CAPTCHA, zwany reCAPTCHA, miał pierwotnie pomóc w digitalizacji drukowanego tekstu, który był trudny do odczytania za pomocą technologii optycznego rozpoznawania znaków. Google nabył ją w 2009 roku, aby zdigitalizować antyczne rękopisy, wykorzystując tzw. mądrość tłumów. Zasada jest prosta: użytkownik otrzymuje tekstowy test CAPTCHA składający się z dwóch słów. Pierwsze słowo to automatyczny test generowany przez system, na który odpowiedź jest znana systemowi. Drugie słowo to obraz nieodszyfrowanego słowa ze starej książki lub gazety, w którym zawiódł skomputeryzowany mechanizm optycznego rozpoznawania znakówdo digitalizacji. Jeśli osoba odpowiadająca na reCAPTCHA wpisze poprawnie pierwsze słowo, system zakłada, że drugie słowo również zostało wpisane poprawnie. Uzyskanie tej samej odpowiedzi od różnych użytkowników zatwierdzi tę decyzję, a słowo może zostać zaakceptowane i zdigitalizowane.

2. Wprowadzony w 2013 roku test no CAPTCHA reCAPTCHA rozpoczął wdrażanie analizy behawioralnej interakcji użytkownika z CAPTCHA i przeglądarką. Ta analiza jest wykonywana przez system, ukryty przed użytkownikiem, przed wyświetleniem testu CAPTCHA , a w przypadkach, gdy system jest zaniepokojony autentycznością użytkownika, przedstawia regularny i trudniejszy test tekstowy CAPTCHA. Od 2014 roku mechanizm ten jest osadzony w większości usług Google. Dla większości użytkowników jest to najprostszy test CAPTCHA, w którym wystarczy zaznaczyć okienko potwierdzające, że nie jest robotem.

3. Test CAPTCHA oparty na operacjach arytmetycznych zawiera bardzo podstawową operację arytmetyczną, na przykład "16 + 12 = ". Użytkownik musi wpisać wynik operacji w polu tekstowym. Ten rodzaj testu CAPTCHA wymaga podwójnego wysiłku poznawczego, po pierwsze, aby odszyfrować przedstawione liczby i znaki, a po drugie, aby wykonać właściwą operację arytmetyczną. Jednak liczba znaków i liczb arytmetycznych jest stosunkowo niewielka, więc tego rodzaju test jest bardziej podatny na złamanie.

4. Test CAPTCHA oparty na obrazkach zawiera kilka obrazków, które są pokazywane użytkownikowi, po których następuje proste pytanie. Użytkownik musi zidentyfikować zdjęcia, a następnie wybrać te, które przedstawiają poprawną odpowiedź. Nie trzeba pisać żadnego tekstu, wystarczy wskazać odpowiednie obrazki i kliknąć na nie. Istnieją pewne odmiany CAPTCHA opartego na obrazach, na przykład zniekształcone lub obrócone obrazy, które użytkownik musi przesuwać myszą lub palcem po dotykowym ekranie, aby uporządkować obraz. Czasami te zniekształcone zdjęcia zawierają reklamy firm. Kolejna odmiana polega na wyświetlaniu różnych zdjęć tego samego obiektu, na przykład różne zdjęcia kotów, i prosi użytkownika o wpisanie nazwy obiektu. W takim przypadku użytkownik musi znać konkretny język, na przykład angielski, aby napisać "kot". 5. Test CAPTCHA oparty na grze obejmuje łamigłówki lub małe interaktywne gry. Grywalizacja, zastosowanie zabawy i doświadczenia motywujące określone zachowanie, są coraz częściej omawiane jako sposób na poprawę doświadczenia użytkowników na stronach internetowych. Aby zachęcić użytkowników do wykonywania żmudnych, ale znaczących zadań, aktywność została wzbogacona o zabawną funkcję, wykorzystującą opcję "przeciągnij i upuść" myszy lub przeciągając obiekty palcem po dotykowym ekranie. Na rysunku 2 widać przykład gry. W tym przykładzie użytkownik musi przeciągnąć zdjęcia które są kwiatami w wazonie. Gdy wszystkie kwiaty zostaną wciągnięte do wazonu, użytkownik uzyska dostęp do strony internetowej.

Problemy z użytecznością

Jednak testy CAPTCHA nie są spersonalizowane. Wszyscy użytkownicy, pomimo swoich unikalnych cech, otrzymują od serwisu te same testy do rozwiązania. Szerokie wykorzystanie CAPTCHA pogarsza wrażenia użytkowników z niepełnosprawnościami, przeszkadza starszym użytkownikom, a nawet denerwuje zwykłych użytkowników. Niektórzy użytkownicy czują się zagrożeni, zirytowani i sfrustrowani tymi testami, ponieważ nie są w stanie zrozumieć potrzeby tych testów i ich częstego używania. Inni użytkownicy uważają, że wyświetlany tekst jest bardzo niejasny i mają trudności z jego rozwiązaniem. Większość użytkowników uważa testy CAPTCHA za przeszkody, które ich spowalniają i zakłócają ich działania na stronach internetowych. Ta irytacja powoduje w niektórych przypadkach spadek zadowolenia z doświadczenia użytkownika, a nawet może spowodować porzucenie strony przez użytkownika. Testy CAPTCHA, które są wdrażane na milionach stron internetowych, podkreślają luki między dostępnością a bezpieczeństwem w Internecie, ponieważ mogą stanowić przeszkodę dla osób niepełnosprawnych fizycznie oraz tych, którzy mają upośledzenie w umiejętności czytania i rozumienia tego, co jest prezentowane w test. Konflikt między dostępnością a ochroną w świecie Internetu jest złożonym zagadnieniem, dotyczącym konieczności z jednej strony umożliwienia szerokiemu gronu różnych użytkowników dostępu do pożądanej strony internetowej, a z drugiej uniemożliwienia dostępu złośliwym elementy. Testy CAPTCHA są skutecznym podejściem do tego celu, ale są trudne dla użytkowników niepełnosprawnych, zwłaszcza z trudnościami w uczeniu się, którzy mają trudności z czytaniem, rozumieniem i/lub wykonywaniem testów. Użytkownicy z problemami ze wzrokiem uważają, że rozszyfrowanie tekstów jest trudne, zwłaszcza ze zniekształconymi znakami. Osoby z trudnościami w uczeniu się mają trudności z czytaniem zwykłych tekstów; w ten sposób czytanie i rozszyfrowywanie zniekształconych liter, jak w przypadku testów tekstowych lub arytmetycznych CAPTCHA, wydłuży ich wysiłek w czytaniu, a zatem czas potrzebny na wykonanie zadania może być dłuższy. Wielu użytkowników z trudnościami w uczeniu się uzna te testy za frustrujące i wyczerpujące, ponieważ łączą wysiłek poznawczy i fizyczny. Muszą czytać zniekształcone teksty, rozumieć je, wykonywać obliczenia, a nawet precyzyjnie przesuwać małe obrazki. Grywalizacja testu może skutkować łatwiejszym zadaniem, którego wykonanie zajmuje mniej czasu dla użytkowników z trudności w uczeniu się. Testy CAPTCHA muszą być z jednej strony bardzo łatwe do przejścia dla użytkownika, a z drugiej bardzo trudne dla botów. Niektórzy badacze i hakerzy próbowali złamać testy CAPTCHA. Ponadto różne rodzaje testów CAPTCHA są wciąż opracowywane, w tym biometryczne alternatywy i kombinacje. Wszystkie opisane wcześniej typy testów wpływają w pewnym stopniu na wrażenia użytkownika. Żaden z tych typów testów nie jest sam w sobie idealny i nie ma idealnego rozwiązania dla całej populacji ze względu na wiele wyzwań związanych z dostępnością, użytecznością i doświadczeniem użytkownika w Internecie. Projektant witryny musi wziąć pod uwagę charakterystykę głównych odbiorców projektowanej witryny i wdrożyć najlepsze rozwiązanie dla tej konkretnej grupy odbiorców, niezależnie od tego, czy jest to konkretny rodzaj CAPTCHA, czy ich kombinacja. Właściwy projekt ze strony ekspertów ds. doświadczenia użytkownika, programistów, projektantów stron internetowych i badaczy może prowadzić do zastosowania rozwiązań, które są bardziej odpowiednie lub dla wielu użytkowników w ogóle, a zwłaszcza dla osób niepełnosprawnych. Takie rozwiązania mogłyby znacząco wpłynąć na dostępność Internetu i poprawić wrażenia użytkownika na wielu stronach internetowych.


Powrót

Chat Room



Pokój rozmów to elektroniczna przestrzeń w sieci, takiej jak Internet, w której użytkownicy prowadzą small talk, dzielą się pomysłami i realizują inne działania komunikacyjne. Komunikacja, która odbywa się w pokojach rozmów jest często synchroniczna, chociaż stopień, w jakim użytkownicy komunikują się jednocześnie, jak w sytuacjach twarzą w twarz, różni się w zależności od wielu zmiennych technologicznych, w tym prędkości przepustowości. Ten wpis opisuje pokoje rozmów, omawia ich aspekty społeczne i sposób, w jaki wpłynęły na globalną komunikację, a także przygląda się, jak pokoje rozmów ewoluowały wraz z innymi formami komunikacji online. Internauci zaznajomieni z narzędziami komunikacyjnymi lat 90. prawdopodobnie kojarzą czaty ze środowiskami tekstowymi, w których wielu użytkowników dyskutuje na wspólny temat. Jednak postęp technologiczny po 1990 r. zapewnia szereg narzędzi komunikacyjnych w wielu różnych formatach, w tym możliwości wideo, udostępnianie dokumentów i tablice interaktywne. Rzeczywiście, wiele wykorzystywanych obecnie czatów jest osadzonych w aplikacjach internetowych, w tym na platformach mediów społecznościowych. Pokoje rozmów są często synonimem przestrzeni elektronicznych, w których komunikacja odbywa się między wieloma użytkownikami omawiającymi wspólny temat.

Chociaż pokoje rozmów często opierają się na z góry określonym temacie lub temacie, badania pokazują, że użytkownicy często odchodzą od określonych tematów; w rzeczywistości, w zależności od medium, w którym odbywa się komunikacja (np. tekst lub głos), nierzadko zdarzają się schizmy konwersacyjne, w których użytkownicy pokoju rozmów negocjują wiele tematów jednocześnie. Komunikacja, która ma miejsce w dzisiejszych pokojach rozmów, również odbiega od tradycyjnych aplikacji, ponieważ takie przestrzenie mogą być i są często zajmowane przez dwóch użytkowników uczestniczących w zaimprowizowanej rozmowie. W tym sensie pokoje rozmów i komunikatory internetowe zapewniają tę samą funkcję komunikacyjną. Chociaż technologie które umożliwiają komunikacyjną funkcjonalność czatów i komunikatorów są podobne, ten pierwszy termin jest często zarezerwowany dla forów elektronicznych, na których wielu anonimowych (i często nieznajomych) użytkowników dyskutuje na z góry ustalone tematy. Popularność czatów osiągnęła szczyt na początku XXI wieku, gdy znaczna liczba osób online korzystała z tej formy komunikacji. America Online (AOL) Instant Messenger jest prawdopodobnie najbardziej kultowym pokojem rozmów w najnowszej historii, chociaż technologia komunikacji dla wielu użytkowników istniała wiele lat wcześniej. Oparte na tekście środowisko AOL Instant Messenger, które wymagało wysyłania i czytania wiadomości w krótkim odstępie czasu, stworzyło warunki dla nowej formy języka online, którą obecnie często określa się jako mówienie tekstowe, skróty czatu, "teksty" lub cyberslang. żeby wymienić tylko kilka; taki język można zobaczyć i doświadczyć w kilku odmianach i na wielu współczesnych platformach internetowych, które wspierają komunikację tekstową. Pod tym względem języki współczesnej komunikacji online, takie jak emotikony, można częściowo przypisać czatom z lat 90. i 2000.

Społeczne aspekty czatów

Czaty mają również kluczowe znaczenie dla większych dyskusji w Internecie dla stworzenia warunków do nadużyć. Oznacza to, że chociaż czaty przyczyniły się do gwałtownego wzrostu popularności Internetu, te elektroniczne przestrzenie wiążą się również z wieloma negatywnymi zjawiskami, w tym zachowaniami antyspołecznymi (np. cyberprzemocą i trollingiem) oraz drapieżnikami seksualnymi. Należy jednak zauważyć, że psychologia angażowania się w takie negatywne praktyki nie jest wynikiem uczestniczenia w czacie, ale raczej technologiczne afordancje komunikacji na czacie pozwalają aby osoby nadużywające przemocy angażowały się w złe zachowanie. Oznacza to wysyłanie wiadomości tekstowych do wielu użytkowników i dystans społeczny związany z komunikowaniem się w takich środowiskach internetowych (tj. brak fizycznych i społecznych wskazóweki spotkań twarzą w twarz) pozwalają poszczególnym osobom, jeśli tego chcą, ukryć się za tarczą anonimowości, jednocześnie lekceważąc i/lub wiktymizując innych uczestników czatu. Pomimo możliwości nadużyć, czaty były przedmiotem wielu badań, które wykazały pozytywną rolę, jaką takie przestrzenie elektroniczne odgrywają w różnych dziedzinach życia. Pokoje rozmów zapewniają użytkownikom o podobnych zainteresowaniach fora, na których mogą omawiać sprawy, które są kluczowe dla ich tożsamości i tego, jak postrzegają świat. Użytkownicy mogą szukać odpowiedzi na pytania i dyskutować na wrażliwe tematy w bezpiecznej, anonimowej przestrzeni. Czaty stanowią ważną sieć społecznościową dla wielu użytkowników, a przyjaźnie, które są następnie nawiązywane, mogą trwać przez całe życie i/lub przenieść się do "świata fizycznego". Dostęp do sieci podobnych użytkowników może również pomóc osobom z wieloma problemami psychologicznymi, w tym depresją i lękiem.

Globalne

Komunikacja i Pokoje czatów są również kluczowe w ogólnych dyskusjach na temat Internetu, ponieważ te przestrzenie elektroniczne dają możliwość komunikowania się użytkownikom online z geograficznie rozproszonych regionów. Chociaż zjawisko to nie dotyczy wyłącznie czatów, wiele uwagi w nauce poświęca się sposobom, w jakie internauci z różnych krajów wchodzą w interakcję we wspólnym języku. Podobnie jak większość platform internetowych i mediów, które ułatwiają interakcję między ludźmi, czaty przyczyniły się odpowiednio do wzrostu spotkań międzykulturowych na całym świecie. Łatwość dostępu i nagły wzrost liczby spotkań międzykulturowych wywarły głęboki wpływ na języki komunikacji online. W szczególności czaty przyczyniły się do globalnego rozpowszechnienia lingua francas, tworząc przestrzenie, w których użytkownicy online z różnych środowisk językowych i kulturowych wybierają język kontaktu odpowiedni do ich celów komunikacyjnych. Ponownie, podczas gdy pierwotna potrzeba i chęć komunikowania się i osiągnięcia wzajemnej zrozumiałości istniały na długo przed pojawieniem się Internetu, czaty i inne internetowe platformy komunikacyjne ułatwiły rozwój globalnej komunikacji w stopniu nigdy wcześniej nie widzianym. Badania wykazały, że chociaż w Internecie używa się wielu globalnych języków, to gdy użytkownicy online komunikują się z innymi geograficznie rozproszonymi uczestnikami, wspólnym językiem czatów jest często angielski. Innymi słowy, czaty przyczyniły się do roli języka angielskiego w globalnej komunikacji. Kiedy język angielski jest używany jako język kontaktowy między użytkownikami online z różnych środowisk językowych, rodzaj komunikacji, który ma miejsce, stawia uczonym szereg pytań teoretycznych i empirycznych. Na przykład rola, jaką odgrywa język angielski jako lingua franca, zmienia sposób, w jaki jednostki i społeczności postrzegają kwestie własności języka i wyobrażenia o tym, co jest komunikacyjnie dobre, a co złe. Oznacza to, że łatwo jest zakwestionować tradycyjny pogląd, że języki należą do określonych krajów lub są przez nie kontrolowane, gdy kwestia własności językowej (np. "Who owns English?") znajduje się w szerszej dyskusji na temat technologii komunikacji online. zacieranie granicy między językiem a narodem. Komunikacja, która odbywa się na czatach, stanowi obszar do przyszłych badań, które będą miały kluczowe znaczenie dla zrozumienia języków i interakcji międzyludzkich, a w szczególności języka angielskiego. Na przykład: "Czy pokoje rozmów umożliwiają użytkownikom odejście od istniejących norm komunikacyjnych w języku angielskim?" "Czy język angielski jest używany w komunikacji internetowej ewoluuje w szybszym tempie lub w innym kierunku niż komunikacja twarzą w twarz?" lub "Czy czaty doprowadzą do ewolucji nowych odmian języka angielskiego?" Niezależnie od tego, czy pokoje rozmów będą istnieć w nadchodzących latach, te pytania stanowią problemy, z którymi zmierzą się przyszłe pokolenia, komunikując się w środowiskach internetowych.

Ewolucja czatów

Ostatnie badania wskazują na gwałtowny spadek liczby użytkowników czatów; a w ostatnich latach wiele historycznych forów do czatowania, takich jak AOL Instant Messenger, Yahoo Messenger i MSN Messenger, przestało istnieć. Było to częściowo spowodowane pojawiającymi się technologiami, które oferują niektóre z korzyści płynących z komunikowania się w tych wycofanych pokojach rozmów, takich jak możliwość interakcji z osobami o podobnych poglądach i otrzymywania aktualizacji od dalszej rodziny i przyjaciół. Wraz ze zmianą i ewolucją technologii i zachowań w sieci, tak samo będą się zmieniać zastosowania bardziej popularnych form narzędzi komunikacji online, które są obecnie używane. Rzeczywiście, wzrost i spadek liczby czatów nie powinien dziwić, biorąc pod uwagę stosunkowo krótką, ale destrukcyjną i ciągle zmieniającą się historię komunikacji online. Nietrudno jednak znaleźć dowody na kierunek, w jakim zmierza komunikacja online. Na przykład, niegdyś przestrzeń do anonimowych rozmów i dzielenia się informacjami, najmodniejsze platformy mediów społecznościowych, w tym pokoje rozmów, są teraz zorganizowane wokół "prawdziwych" tożsamości użytkowników online. Przyszłość czatowania wydaje się podążać za tym trendem społecznym, ale tylko czas pokaże, czy czaty nadal będą pod wpływem powszechnych zachowań online, czy też będą katalizatorem zmian.


Powrót

Cloud Computing



Przetwarzanie w chmurze zostało zdefiniowane na wiele sposobów zarówno w środowisku akademickim, jak i przemysłowym, ale najprościej można je zdefiniować jako model świadczenia usług i dostępu, w którym dynamicznie skalowalne i zwirtualizowane zasoby (tj. wirtualne wersje serwerów, pamięci masowych, baz danych, sieci, aplikacji) i usług) są udostępniane jako usługa przez Internet. W tym wpisie dokładniej omówiono przetwarzanie w chmurze, a następnie omówiono jego zalety, ewolucję oraz modele i usługi wdrożeniowe. Przetwarzanie w chmurze (zwane również po prostu "chmurą") umożliwia dostęp do infrastruktury internetowej (np. Amazon Elastic Compute Cloud [EC2]), platformy (np. Google App Engine) i oprogramowanie (np. Salesforce), które są dostarczane przez dostawców chmury (np. Amazon, Google, Microsoft), zewnętrznych dostawców usług oraz dostawców usług i aplikacji po niskich kosztach na żądanie w dowolnym czasie i z dowolnego miejsca. Oferuje zasoby na żądanie z puli zasobów zwirtualizowanych, aby sprostać elastyczności i skalowalności zadań obliczeniowych na dużą skalę. Przetwarzanie w chmurze stało się dojrzałe i wszechobecne i jest powszechnie uznawane za niezbędne w zaspokajaniu potrzeb firm w pojawiających się obszarach, takich jak sztuczna inteligencja, uczenie maszynowe, analityka i orkiestracja. Niektóre powszechnie używane aplikacje i usługi oparte na chmurze to Apple iCloud, Siri firmy Apple, YouTube, Dropbox, Facebook, Twitter, Gmail i Office 365, żeby wymienić tylko kilka. Z technologicznego punktu widzenia przetwarzanie w chmurze stało się nie tylko integralną częścią najbardziej wpływowych technologii, takich jak mobilny Internet, automatyzacja wiedzy, Internet rzeczy i big data, ale także zostało zidentyfikowane jako następna generacja infrastruktura komputerowa. Z ekonomicznego punktu widzenia chmury oferują ogromne korzyści. Na przykład McKinsey Global Institute poinformował w 2013 r., że całkowity wpływ ekonomiczny technologii chmury może wynieść od 1,7 biliona do 6,2 biliona dolarów rocznie w 2025 r., a rozpowszechnianie i wyrafinowanie usług w chmurze może stać się główną siłą napędową ułatwiającą przedsiębiorczość.

Zalety przetwarzania w chmurze

Kluczowe zalety przetwarzania w chmurze można podsumować w następujący sposób:

Dynamiczne udostępnianie/cofanie udostępniania: Chmury zapewniają dynamiczne udostępnianie zasobów na żądanie. Tworzą instancję maszyny wirtualnej (VM) zawsze, gdy użytkownicy końcowi jej potrzebują i kończą ją, gdy tego nie potrzebują.
Elastyczność: Elastyczność pozwala na dynamiczne skalowanie - czyli udostępnianie i cofanie alokacji zasobów obliczeniowych na podstawie rzeczywistego zapotrzebowania. Elastyczność infrastruktury chmury umożliwia hipernadzorcy tworzenie maszyn wirtualnych lub kontenerów z zasobami pozwalającymi zaspokoić zapotrzebowanie w czasie rzeczywistym. Hiperwizor jest również znany jako monitor maszyny wirtualnej, co jest cienką warstwą oprogramowania, która tworzy i uruchamia wiele maszyn wirtualnych, a także zarządza działaniem zwirtualizowanego środowiska na górze prawdziwego węzeł hosta. Niektóre popularne hiperwizory to Xen, maszyna wirtualna oparta na jądrze, szybki emulator i Oracle VM VirtualBox.
Skalowalność: Skalowalność jest pożądaną właściwością każdego systemu, sieci lub procesu, która wskazuje albo na jego zdolność do obsługi zwiększonego obciążenia pracą, albo na jego potencjał do zwiększenia w celu dostosowania się do tego wzrostu. Istnieją dwa rodzaje skalowalności: (1) skalowalność pionowa i (2) skalowalność pozioma. Skalowalność pionowa (skalowanie w górę) jest osiągana przez dodanie większej ilości zasobów (np. większej ilości pamięci lub dodatkowych jednostek centralnych lub przeniesienie aplikacji do większej maszyny wirtualnej) do pojedynczego węzła w systemie. Skalowalność pozioma (skalowanie w poziomie) to z kolei możliwość zwiększania pojemności poprzez dodawanie wielu węzłów (VM) do systemu i dzielenie obciążenia między nie.
Wielodostępność: Wielodostępność to możliwość współdzielenia zasobów i kosztów w celu obsługi różnych aplikacji i wielu użytkowników końcowych.
Pay per use: Cloud computing oferuje model rozliczeń pay-per-use, dzięki któremu zmniejsza koszty i złożoność posiadania infrastruktury obliczeniowej i sieciowej.
Łatwość integracji: W środowiskach przetwarzania w chmurze można łatwo zintegrować wiele usług różnych stron trzecich. Ponadto otwarte interfejsy programowania aplikacji umożliwiają operatorom telekomunikacyjnym tworzenie usług potrzebnych do konkurowania z dostawcami treści i aplikacji, takimi jak Dropbox,Apple, Facebook, Google i Netflix, ponieważ dostawca usług świadczy jedną lub wiele usług (np. usługi w chmurze, komunikację, treści medialne, sieci społecznościowe) przez Internet. Oprócz wyżej wymienionych zalet, przetwarzanie w chmurze wiąże się z wieloma wyzwaniami, w tym między innymi z dużymi i zmiennymi opóźnieniami sieci rozległych (WAN), odpowiedzią w czasie rzeczywistym, niezawodnością i wysoką dostępnością, prywatnością i bezpieczeństwem oraz regulacjami i zgodnością.

Ewolucja przetwarzania w chmurze

Nadrzędna koncepcja przetwarzania w chmurze ma swoje korzenie w latach 60. XX wieku. Przetwarzanie w chmurze wdraża przetwarzanie użytkowe, pomysł omawiany przez Johna McCarthy′ego (znanego jako ojciec sztucznej inteligencji) w 1961 roku. W informatyce użytkowej przetwarzanie jest postrzegane jako użyteczność publiczna, podobnie jak system telefoniczny. Każdy klient musi zapłacić tylko za przepustowość, z której korzysta. Firmy telekomunikacyjne zaczęły oferować zwirtualizowane połączenia do sieci prywatnych w latach 90-tych. Ponieważ Internet zaczął oferować znaczną przepustowość dopiero w latach 90-tych, przetwarzanie w chmurze pojawiło się po późnych latach 90-tych. W lipcu 2002 r. Amazon wydał pierwszą wersję Amazon Web Services, dostarczając usługi internetowe przeznaczone dla programistów i właścicieli witryn internetowych po cenach podstawowych w tak zwanej chmurze korporacyjnej. Następnie Amazon uruchomił Simple Storage Service w marcu 2006 r., EC2 w sierpniu 2006 r. oraz Simple Database Service i Simple Queue Service w 2007 r. jako komercyjne usługi sieciowe. Simple Queue Service stała się jedną z najpopularniejszych i najszerzej używanych usług w chmurze. Podobnie IBM uruchomił Blue Cloud w listopadzie 2007 roku. Następnie Google wszedł na rynek przetwarzania w chmurze z wypuszczeniem Google App Engine w kwietniu 2008 roku. W listopadzie 2009 roku Microsoft wszedł w chmurę wraz z uruchomieniem Microsoft Azure. Kolejną ewolucją chmury obliczeniowej była integracja przetwarzania w chmurze ze środowiskiem mobilnym. Doprowadziło to do powstania tzw. paradygmatu mobilnego przetwarzania w chmurze, w którym urządzenia mobilne uzyskują bezprzewodowy dostęp do usług w chmurze, a przetwarzanie i przechowywanie danych przenosi się do potężnej scentralizowanej infrastruktury przetwarzania w chmurze. Mobilne przetwarzanie w chmurze dziedziczy wszystkie cechy przetwarzania w chmurze, w tym skalowalność, lepszą niezawodność, dynamiczne przydzielanie, obniżony koszt i łatwość integracji. Aplikacje urządzeń mobilnych wymagające dużej ilości zasobów można przenieść na mobilną chmurę obliczeniową, wydłużając w ten sposób żywotność baterii urządzeń mobilnych o ograniczonej pojemności baterii. Jednak niektóre aplikacje nie nadają się do działania w scentralizowanej infrastrukturze przetwarzania w chmurze ze względu na opóźnienia WAN i potencjalnie niską przepustowość. Niektóre aplikacje, w tym aplikacje wspomagające funkcje poznawcze, wykrywanie twarzy i analiza wideo w czasie rzeczywistym, wymagają odpowiedzi w czasie rzeczywistym, małych opóźnień i dużej przepustowości. Wprowadzenie możliwości podobnych do chmury (np. chmur) na obrzeżu sieci w celu spełnienia takich wymagań to nowa koncepcja. Cloudlets różnią się od konwencjonalnych chmur tym, że są zdecentralizowanymi jednostkami, które znajdują się na obrzeżach Internetu i są z nim dobrze połączone (np. przez światłowód); są tylko o jeden skok bezprzewodowy od powiązanych urządzeń mobilnych, umożliwiając w ten sposób obsługę nowych aplikacji, które są zarówno intensywne obliczeniowo, jak i wrażliwe na opóźnienia, na przykład pomoc poznawcza, rzeczywistość rozszerzona, rozpoznawanie twarzy i nawigacja dla powstającej robotyki w chmurze. Należy zauważyć, że intensywne obliczenie odnosi się do aplikacji, które wykonują intensywną pracę obliczeniową, podczas gdy wrażliwe na opóźnienia odnosi się do danych, które muszą zostać przesłane lub odebrane w określonym czasie. Koncepcje podobne do chmurek obejmują mikrocentrum danych, wielodostępowe przetwarzanie brzegowe i przetwarzanie mgły. Podstawowym celem projektowania chmury, przetwarzania mgły i mikrocentrum danych jest rozwiązanie podobnych problemów, takich jak między innymi zmniejszenie opóźnień w sieci WAN i zapewnienie wysokiej przepustowości użytkownikom mobilnym. Wszystkie te koncepcje wskazują, że przetwarzanie, przechowywanie, kontrola, konfiguracja i zarządzanie powinny być umieszczone na obrzeżach sieci komunikacyjnych w celu uzupełnienia paradygmatu scentralizowanego przetwarzania w chmurze.

Modele i usługi wdrażania

Cloud computing obejmuje trzy modele usług: (1) infrastruktura jako usługa (IaaS), (2) platforma jako usługa (PaaS) oraz (3) oprogramowanie jako usługa (SaaS).

IaaS to dostarczanie zasobów (np. przetwarzania, przechowywania, sieci) jako usługi przez Internet. Kluczowymi przykładami są Amazon EC2, GoGrid, Flexiscale, Layered Technologies, AppNexus i Rackspace. Między innymi IaaS reprezentuje realny paradygmat dla zestawu zastosowań naukowych, takich jak e-nauka i e-badania. PaaS zapewnia programistom platformę, w tym wszystkie systemy i środowiska składające się na kompletny cykl życia tworzenia oprogramowania. Kluczowymi przykładami PaaS są Google App Engine i Microsoft Azure. W porównaniu z konwencjonalnymi podejściami do tworzenia aplikacji, strategia ta skraca czas opracowywania, a także oferuje setki łatwo dostępnych narzędzi i aplikacji. SaaS jest również znany jako dostawca usług aplikacji, w którym wszyscy użytkownicy dzielą wspólne zasoby i pojedyncze wystąpienie kodu. Istotną cechą SaaS jest to, że użytkownicy końcowi nie muszą licencjonować i wspierać oprogramowania w tradycyjny sposób, ani kupować i wspierać infrastruktury do uruchamiania aplikacji. Biorąc pod uwagę rosnący trend "softwaryzacji" w telekomunikacji (np. włączanie softwaryzacji do projektowania, wdrażania, wdrażania i konserwacji sprzętu sieciowego i komponentów sieciowych w celu zmniejszenia nakładów kapitałowych i operacyjnych) oraz w branży technologii informacyjnych i komunikacyjnych, co wiąże się z naciskiem na Oczekuje się, że rozwiązania oparte na oprogramowaniu zapewniające zwinność, elastyczność, automatyzację, dynamikę i programowalność będą odgrywać istotną rolę w cyfrowej transformacji w przyszłości. Kluczowymi przykładami dostawców SaaS są Salesforce CRM, NetSuite, Oracle, IBM i Microsoft (np. Microsoft Office 365). Na przetwarzanie w chmurze składają się cztery tryby wdrażania: (1) chmury prywatne, (2) chmury publiczne, (3) chmury hybrydowe i (4) chmury społecznościowe. Chmury publiczne stały się częścią krajobrazu technologii informatycznych, gdzie chmura jest własnością jednego dostawcy (np. Amazon EC2, Rackspace) i jest wykorzystywana przez wielu użytkowników końcowych, a zasoby są dynamicznie udostępniane na zasadzie samoobsługi przez Internet. , za pośrednictwem usług/aplikacji internetowych. Minusem jest to, że istnieją większe szanse na zagrożenia bezpieczeństwa, takie jak rozproszony atak typu "odmowa usługi". W chmurach prywatnych dostawca (np. Eucalyptus, OpenStack) i użytkownicy końcowi są zazwyczaj powiązani z tą samą organizacją, w której dane i procesy są zarządzane wewnątrz organizacji bez ograniczeń w zakresie przepustowości sieci, zagrożeń bezpieczeństwa i wymogów prawnych. Chmura prywatna pomaga w integracji różnych aspektów, takich jak samoobsługa, monitorowanie i automatyzacja, tworząc w ten sposób infrastrukturę hiperkonwergentną. Chmury hybrydowe to połączenie chmur publicznych, prywatnych lub społecznościowych w celu współdzielenia usług i infrastruktury w ujednolicony sposób, co można uznać za podstawę nowej architektury technologii informatycznych. Oczekuje się, że ta unifikacja przyniesie wiele korzyści. Jednak zdolność chmur hybrydowych do zapewnienia wysoce wydajnego i odpowiedniego rozwiązania jest bardzo zróżnicowana, ponieważ zależy od tego, jaką formę chmury hybrydowej można sobie wyobrazić. Niektóre z ograniczeń obejmują brak płynnej migracji danych i złożoność dystrybucji aplikacji w chmurach prywatnych i publicznych. Chmury społeczności należą wyłącznie do określonej społeczności lub organizacji, która ma wspólne problemy, takie jak bezpieczeństwo lub misja. Nie są zależne od wielkich dostawców chmury, takich jak Amazon. Model ten jest odpowiedni dla małych i średnich przedsiębiorstw oraz instytucji naukowych i opieki zdrowotnej, ponieważ chmury społecznościowe pozwalają uniknąć katastrofalnych awarii i zapewniają rozproszoną własność zasobów.


Powrót

Cookies



Świadomie lub nie, większość ludzi napotyka pliki cookie protokołu przesyłania hipertekstu (HTTP) za każdym razem, gdy przeglądają Internet. Te małe pliki tekstowe są tworzone przez strony internetowe i przechowywane lokalnie na komputerze danej osoby, dzięki czemu strona internetowa może zapamiętać informacje o tej osobie podczas kolejnych wizyt. Zdolność do przypominania sobie, w jaki sposób ludzie wcześniej wchodzili w interakcję ze stroną internetową, jest integralną częścią wielu funkcji internetowych uważanych obecnie za standardowe. Na przykład koszyki zakupów internetowych i funkcje, które automatycznie wypełniają formularze, nie byłyby możliwe bez plików cookie. Ten wpis analizuje, czym są pliki cookie i jak działają. Ponadto rozważa, dlaczego strony internetowe używają plików cookie i różne zastosowania, do których są wykorzystywane. Wreszcie, ten wpis analizuje obawy dotyczące prywatności stwarzane przez pliki cookie i sposób, w jaki te obawy zostały do tej pory rozwiązane.

Czym są pliki cookie i jak działają?

Kiedy dana osoba wchodzi w interakcję ze stroną internetową (np. klikając hiperłącze), jej przeglądarka internetowa łączy się z serwerem witryny powiązanym z tym łączem i wysyła mu żądanie, na które serwer odpowiada. W przypadku hiperłącza serwer zazwyczaj odpowiada stroną internetową powiązaną z hiperłączem. Na początku istnienia Internetu serwer nie był w stanie odróżnić tysięcy różnych żądań, które otrzymał od przeglądarek wchodzących w interakcję z jego stronami internetowymi. Musiał zatem traktować każdy wniosek jako zupełnie nowy i niezwiązany z żadnym innym. Takie żądanie jest znane jako "bezstanowe", ponieważ nie jest kontekstualizowane wśród innych żądań wysyłanych przez tę samą przeglądarkę. Traktowanie każdego żądania jako bezstanowego jest prostsze, ale ostatecznie ogranicza funkcjonalność strony internetowej. W czerwcu 1994 r. Lou Montulli (wówczas pracownik Netscape Communications) opracował koncepcję plików cookie HTTP, aby rozwiązać problem bezstanowego przeglądania Internetu. Nazwę zaczerpnął od terminu magiczne ciasteczka, który był już używany w kręgach informatyki na określenie pakietów danych odbieranych przez program i zwracanych w niezmienionej postaci. Co ciekawe, pliki cookie nadal działają w bardzo podobny sposób, jak wtedy, gdy zostały po raz pierwszy opracowane. Kiedy dana osoba odwiedza stronę internetową, która używa plików cookie, serwer strony internetowej najpierw sprawdza, czy jej przeglądarka odwiedziła tę stronę wcześniej. Czyni to, przeszukując kolekcję plików cookie przeglądarki pod kątem wszelkich należących do tej strony internetowej. Jeśli zostanie znaleziony poprzedni plik cookie, serwer wykorzysta te informacje do odpowiedniego dostosowania swojej strony internetowej (np. poprzez ustawienie preferowanej waluty przeglądarki). Jeśli serwer nie znajdzie żadnych poprzednich plików cookie należących do strony internetowej, zleci wysłanie nowego pliku cookie na komputer osoby za pomocą fragmentu kodu znanego jako nagłówek HTTP. Poniżej znajduje się przykład konkretnego nagłówka HTTP odpowiedzialnego za wysyłanie pliku cookie z serwera do przeglądarki, znanego jako Set-cookie:

Set-Cookie: cookie=sage; domain=sagepub.com;
path=/cookies; expires=Sun, 01-Jan-2017 00:00:
00 GMT; secure; HttpOnly

Nagłówek Set-Cookie składa się z maksymalnie siedmiu elementów, które zostały szczegółowo omówione w kolejnych sekcjach.

Nazwa i wartość

Nazwa i wartość pliku cookie są określane przez połączenie tych dwóch elementów za pomocą znaku równości. Tekst w tych dwóch polach może składać się z dowolnej kombinacji znaków (z wyjątkiem ",", ";", "=" lub spacji) i są jedynymi obowiązkowymi elementami pliku cookie. Wspomniany przykład utworzy plik cookie o nazwie "cookie" i wartości "sage".

Domena

Parametr domain określa, które strony internetowe mogą odczytać plik cookie zapisany na komputerze użytkownika. W przypadku pozostawienia bez zmian przywracany jest adres strony internetowej, która wysłała plik cookie, i jest wyrażany jako ścieżka Uniform Resource Locator (URL). Oznacza to, że domyślnie strona internetowa może odczytywać tylko pliki cookie, które wysyła do komputera danej osoby. Strony internetowe, które wykorzystują wiele form tego samego adresu domeny (np. au.sagepub.com, us.sagepub.com) mogą używać pola domeny w celu rozszerzenia, które z ich stron internetowych mogą uzyskać dostęp do określonego pliku cookie. Ze względów bezpieczeństwa parametr wartości domeny musi być częścią strony internetowej wysyłającej plik cookie (np. serwer "sagepub.com" nie mógł ustawić wartości domeny "google.com"). Gwarantuje to, że strona internetowa nie może wysłać pliku cookie, który może być odczytany przez inną, całkowicie oddzielną stronę internetową. Chociaż ten mechanizm bezpieczeństwa jest wdrożony, istnieje godne uwagi obejście (nazywane plikami cookie stron trzecich) i jest często wykorzystywane do celów reklamowych i łączności w mediach społecznościowych. Ta klasa plików cookie jest dokładniej omówiona w kolejnych sekcjach.

Ścieżka

Parametr path dodatkowo kontroluje, które strony internetowe mogą odczytać plik cookie przechowywany na komputerze danej osoby. Jest również wyrażony jako fragment ścieżki URL. Po zweryfikowaniu domeny żądającej strony internetowej przeglądarka sprawdzi, czy adres URL żądającej strony internetowej zawiera konkretną ścieżkę zawartą w pliku cookie. Co ważne, ścieżka URL żądającej strony internetowej musi zawierać tylko określoną ścieżkę; nie musi dokładnie do niego pasować. Dlatego w powyższym przykładzie zarówno strony internetowe "sagepub.com/cookies", jak i "sagepub.com/cookiesinfo" będą mogły uzyskać dostęp do przykładowego pliku cookie.

Data wygaśnięcia

Parametr wygaśnięcia określa, jak długo przeglądarka powinna przechowywać plik cookie przed jego usunięciem. Data ważności musi być wyrażona w formacie "DD-MON-RRRR GG:MM:SS GMT". Jeśli nie zostanie ustawiona konkretna data, plik cookie wygaśnie po zamknięciu przeglądarki internetowej i zazwyczaj zostanie wtedy usunięty. Te tymczasowe pliki cookie są znane jako sesyjne lub przejściowe pliki cookie. Alternatywnie, jeśli określono datę wygaśnięcia, przeglądarka zachowa plik cookie do daty wygaśnięcia. Pliki cookie tego drugiego rodzaju są znane jako trwałe lub trwałe pliki cookie.

Bezpieczne

Parametr secure wskazuje, czy plik cookie zawiera potencjalnie poufne informacje i należy się nim specjalnie zająć. W przeciwieństwie do innych parametrów, działa tylko jako flaga i po nim nie trzeba dodawać żadnej dodatkowej wartości. Jeśli plik cookie zawiera parametr secure, może zostać wysłany tylko do serwera żądającego jego odebrania za pomocą bezpiecznej metody (tj. Secure Sockets bezpieczny protokół przesyłania warstwy lub hipertekstu). Ogranicza to możliwość przechwycenia pliku cookie przez złośliwą stronę trzecią i podszywania się pod osobę na stronie internetowej.

Tylko http

Podobnie jak bezpieczny parametr, ten tag chroni również plik cookie przed przechwyceniem przez osoby trzecie, zapewniając, że tylko serwer (używający protokołu HTTP) może uzyskać do niego dostęp. Pomaga to zapobiegać dostępowi do pliku cookie złośliwym skryptom innym niż HTTP, które mogą również znajdować się na stronie internetowej.

Dlaczego strony internetowe używają plików cookie?

Witryny internetowe wykorzystują pliki cookie do różnych celów, z których mogą skorzystać poszczególni użytkownicy, sama strona internetowa i/lub strony trzecie. Dostosowanie użytkownika Witryna internetowa może wykorzystywać pliki cookie wcześniej zapisane na komputerze użytkownika w celu dostosowania witryny internetowej do jej preferencji. Na przykład, jeśli dana osoba wcześniej ustawiła swój język na wielojęzycznej witrynie internetowej, trwały plik cookie zapisujący tę preferencję zostanie zapisany na jej komputerze. Dzięki temu strona internetowa automatycznie ładuje preferowany język osoby podczas kolejnych wizyt. Strona internetowa może również wykorzystywać sesyjne pliki cookie do przechowywania informacji związanych z bieżącym przeglądaniem przez daną osobę sesji. Na początku sesji witryna wyśle plik cookie o unikalnej wartości na komputer osoby. Działa to jako "nazwa" przeglądarki na czas trwania sesji. Serwer strony internetowej jest wtedy w stanie zapamiętać, w jaki sposób dana osoba wchodzi w interakcję ze stroną internetową, rejestrując działania wraz z unikalną nazwą przypisaną jej w sesyjnym pliku cookie. Pozwala to osobie do robienia rzeczy, takich jak przechowywanie przedmiotów w swoim koszyku zakupów online lub szybkie nawigowanie z powrotem do strony internetowej, którą odwiedziła w tej samej sesji przeglądania.

Analiza odwiedzających witrynę

Witryna internetowa może również wykorzystywać pliki cookie do zbierania przydatnych informacji o interakcjach użytkowników z ich stronami internetowymi. Za pomocą sesyjnych plików cookie witryna może określić, które strony w jej witrynie uzyskują największy i najniższy ruch. Może również określić najczęstsze ścieżki, które ludzie obierają za pośrednictwem ich witryny. Informacje te mogą pomóc witrynie rozwiązać problemy z przepływem ruchu w witrynie lub określić liczbę powracających użytkowników.

Pliki cookie stron trzecich

Witryna internetowa może również umożliwiać stronom trzecim wysyłanie i uzyskiwanie dostępu do własnych trwałych plików cookie za pośrednictwem swojej witryny internetowej. Witryna robi to, umieszczając na swoich stronach element (często obraz) od strony trzeciej. Z tego elementu strona trzecia może wysyłać i uzyskiwać dostęp do własnych plików cookie zapisanych wcześniej na komputerze osoby. Powszechnym zastosowaniem tego mechanizmu jest przycisk "udostępnij" w mediach społecznościowych. Ten element umożliwia witrynie mediów społecznościowych dostęp do trwałych plików cookie przechowywanych na komputerze danej osoby, dzięki czemu zawartość strony internetowej, na której osadzony jest przycisk "Udostępnij", może być udostępniana z konta w mediach społecznościowych tej osoby. Bardziej kontrowersyjnym zastosowaniem tej funkcji jest reklama ukierunkowana. Zagadnienie to zostanie omówione bardziej szczegółowo w następnej sekcji.

Pliki cookie i obawy dotyczące prywatności

Jak pokazano w poprzedniej sekcji, pliki cookie mogą być bardzo pomocne zarówno dla użytkowników Internetu, jak i właścicieli stron internetowych. Jednak niektóre zastosowania plików cookie stanowią potencjalne zagrożenie dla prywatności osób. Reklama ukierunkowana to jedno z takich zastosowań, które może zagrażać prywatności danej osoby w Internecie. Reklama ukierunkowana zazwyczaj działa przy użyciu trwałych plików cookie stron trzecich w celu stworzenia profilu nawyków przeglądania Internetu przez daną osobę i jest zazwyczaj realizowana przez specjalistyczne firmy zajmujące się reklamą internetową (np. "DoubleClick"). Strony internetowe wykorzystujące reklamy ukierunkowane będą umieszczać na swojej stronie element firmy reklamowej. Kiedy przeglądarka osoby uzyskuje dostęp do strony internetowej, wbudowany element firmy reklamowej wyszukuje wszelkie poprzednie należące do niej pliki cookie przechowywane na jej komputerze (lub tworzy nowy, jeśli nie znaleziono poprzedniego pliku cookie). Ten plik cookie zawiera unikalny identyfikator, który jest przypisywany do przeglądarki. Pozwala to firmie reklamowej śledzić, które witryny odwiedziła przeglądarka i oferować spersonalizowane reklamy w oparciu o nawyki przeglądania danej osoby. Chociaż te pliki cookie są technicznie anonimowe (przeglądarki są znane tylko po ich unikalnym identyfikatorze), ta anonimowość nie zawsze jest zachowywana. Na przykład możliwe jest powiązanie unikalnego identyfikatora przeglądarki z danymi osobowymi, które dana osoba wprowadziła na stronie internetowej lub w serwisie społecznościowym (np. imię i nazwisko lub adres). Pozwala to firmie reklamowej na utworzenie szczegółowego profilu na temat nawyków przeglądania tej osoby, który jest następnie powiązany z jej danymi osobowymi. Te profile są potencjalnie bardzo cenne i mogą być sprzedawane innym organizacjom, które chcą wykorzystać te informacje do celów marketingowych. W odpowiedzi na to postrzegane zagrożenie dla prywatności wiele krajów ustanowiło przepisy opracowane specjalnie w celu uregulowania korzystania z plików cookie przez strony internetowe. W 2011 roku wszystkie kraje Unii Europejskiej (UE) przyjęły dyrektywę Parlamentu Europejskiego dotyczącą plików cookie. Dyrektywa zobowiązała wszystkie kraje członkowskie do uchwalenia przepisów wymagających od stron internetowych ujawniania, w jaki sposób wykorzystują pliki cookie i uzyskiwania zgody od odwiedzających na to użycie. Przepisy te mają zastosowanie zarówno do stron internetowych z siedzibą w krajach członkowskich UE, jak i do stron internetowych na całym świecie, które obsługują klientów z UE. Kanadyjskie prawo antyspamowe również reguluje pliki cookie w podobny, ale mniej rygorystyczny sposób.


Powrót

Crowdfunding



Finansowanie społecznościowe, powszechnie rozumiane jako pozyskiwanie niewielkich wkładów od dużej liczby osób, ma długą historię. Latem 1885 roku Statua Wolności była kompletna, ale niezmontowana, rozrzucona na kawałki w porcie w Nowym Jorku. Baltimore, Boston, San Francisco i Filadelfia rywalizowały o posąg, proponując, że zapłaci za piedestał i montaż, jeśli zostanie przeniesiony do ich miasta. Chcąc zachować Statuę Wolności w Nowym Jorku, wydawca gazety Joseph Pulitzer poprowadził kampanię crowdfundingową, aby zebrać fundusze niezbędne do opłacenia budowy granitowego cokołu i instalacji posągu. W zamian za datki Pulitzer zaoferował modelowe statuetki: 5 dolarów za model 12-calowy i 1 dolar za model 6-calowy. Wszyscy fundatorzy, niezależnie od wysokości ich wkładu, mieli również swoje nazwiska opublikowane w jego gazecie The New York World. Kampania crowdfundingowa Pulitzera zakończyła się sukcesem: zebrał więcej niż potrzebne 100 000 dolarów, a Statua Wolności pozostała w Nowym Jorku. W XXI wieku finansowanie społecznościowe zyskało popularność jako online ,media społecznościowe i platformy handlowe nadal sprawiają, że praktyka staje się bardziej dostępna i rozpowszechniona. W tym wpisie omówiono rodzaje finansowania społecznościowego, historię finansowania społecznościowego online, jego różnice i pokrywanie się z tradycyjnymi podejściami do finansowania oraz potencjalne przyszłe zastosowania.

Charakterystyka finansowania społecznościowego

Udana kampania crowdfundingowa Pulitzera pod koniec XIX wieku miała wiele cech współczesnych internetowych kampanii crowdfundingowych:

(a) pozyskiwanie kampanii za pośrednictwem jednego medium lub platformy, (b) dużą liczbę stosunkowo niewielkich wkładów ze strony społeczeństwa oraz (c) pewną nagrodę lub wynagrodzenie przyznawane fundatorom za ich wkład.

Po pierwsze, Pulitzer opublikował wezwania do wpłat i poinstruował sponsorów, gdzie wysyłać gotówkę za pomocą swojej gazety The New York World. W XXI wieku digitalizacja informacji i szeroki zasięg internetu jeszcze bardziej ułatwia takie projekty. Właściciele projektów mogą teraz publikować swoje kampanie crowdfundingowe na portalach internetowych, takich jak Indiegogo, RocketHub i Kickstarter, gdzie łączą się z potencjalnymi sponsorami. Po drugie, w 1885 r. Pulitzer wykorzystał swoją reputację wydawcy, aby ułatwić transakcje. Było to konieczne, ponieważ Grover Cleveland, ówczesny gubernator Nowego Jorku, odmówił wykorzystania miejskiej gotówki na sfinansowanie budowy posągu, a Kongres nie mógł uzgodnić źródła finansowania. Ostatecznie Statua Wolności pozostała w Nowym Jorku z powodu niewielkich wkładów poszczególnych członków społeczeństwa. Obecnie finansowanie społecznościowe jest dostępne dla większej liczby osób, ale nadal działa na tych samych podstawowych zasadach. W przeciwieństwie do tradycyjnych źródeł pozyskiwania kapitału, które opierają się na dużej kwocie pieniędzy od jednego lub kilku profesjonalnych inwestorów i są zwykle obsługiwane przez osobiste transakcje finansowe, finansowanie społecznościowe opiera się na niewielkich wkładach dużej liczby osób. Taki model wymaga wiarygodnych i oszczędnych pośredników. Obecnie systemy płatności online, takie jak PayPal i Amazon Pay, ułatwiają finansowanie społecznościowe online. Wreszcie, podczas swojej kampanii crowdfundingowej. Pulitzer oferował modelowe statuetki i uznanie jako nagrody dla współpracowników. Charakter nowoczesnych nagród jest bardzo zróżnicowany, w zależności od ukierunkowania projektu (np. technologii lub sztuki) i modelu finansowania (w oparciu o kapitał własny, dług, nagrody lub darowizny). Trzy najbardziej podstawowe elementy finansowania społecznościowego online historycznie i do dziś są następujące:

1. Pojedyncza platforma promocji lub nagabywania
2. Stosunkowo niewielki wkład wnoszony przez duże ilości osób ze społeczeństwa
3. Nagroda lub uznanie za wkład

Oprócz tych trzech podstawowych elementów, kampanie crowdfundingowe online można również odróżnić od tradycyjnego finansowania krótkim czasem realizacji (zwykle krótszym niż 90 dni), stałymi celami finansowania i anonimowymi współtwórcami.

Historia crowdfundingu online

Finansowanie społecznościowe online zaczęło się jako rozszerzenie finansowania przez przyjaciół i rodzinę. Tradycyjnie osoby z pomysłami na biznes zbierały pieniądze od lokalnych społeczności. Dzięki crowdfundingowi online mogą to zrobić od każdego, kto ma dostęp do Internetu. Finansowanie społecznościowe online pojawiło się w następstwie kryzysu finansowego z 2008 r., głównie z powodu trudności rzemieślników, przedsiębiorców, firm we wczesnej fazie rozwoju i filantropów z pozyskiwaniem pieniędzy z tradycyjnych źródeł kapitału. Kiedy banki i anioły rodziny były mniej chętne do pomocy, ludzie zaczęli szukać kapitału gdzie indziej. Bardzo szybko finansowanie społecznościowe online zaczęło zyskiwać popularność w wielu rozwiniętych gospodarkach, w tym w Australii, Wielkiej Brytanii, Kanadzie, Holandii, Włoszech i Stanach Zjednoczonych. Zjawisko to zaczyna teraz przyciągać znaczną uwagę również w krajach rozwijających się. Finansowanie społecznościowe nie tylko demokratyzuje alokację zasobów finansowych - od profesjonalnych inwestorów do ogółu - ale także wykorzystuje możliwości podejmowania decyzji w oparciu o tłumy i innowacje. Korzystając z sieci społecznościowych, profili społecznościowych i wirusowego charakteru komunikacji internetowej, osoby fizyczne i firmy mają potencjał do mobilizowania zasobów na pomysły, których tradycyjne źródła kapitału nie byłyby w stanie sfinansować. Twórcy projektów mogą szukać kapitału korzystając z kilku form crowdfundingu.

Formy crowdfundingu online

Wraz z rozprzestrzenianiem się serwisów crowdfundingowych i wzrostem popularności finansowania społecznościowego online, platformy przyjęły różne modele finansowania. Modele różnią się ich inwestycjami i oczekiwaniami potencjalnych inwestorów. W finansowaniu społecznościowym opartym na nagrodach inwestorzy otrzymują korzyści, takie jak wczesny lub wyłączny dostęp do produktu kapitałowego, a nie zwrot finansowy. Dobrze znanymi przykładami projektów crowdfundingowych opartych na nagrodach są "inteligentny zegarek" Pebble i gogle wirtualnej rzeczywistości Oculus Rift. W przypadku finansowania społecznościowego opartego na kapitale twórcy projektów sprzedają niewielkie udziały własnościowe w swojej firmie. W 2012 roku amerykańska Komisja Papierów Wartościowych i Giełd wdrożyła ustawę Jumpstart Our Business Startups Act, która pozwoliła małym firmom i start-upom zebrać z tłumu nawet 50 milionów dolarów. Finansowanie społecznościowe oparte na długu obejmuje inwestorów udzielających mikropożyczek przedsiębiorcom. W niektórych przypadkach inwestorzy zobaczą, że ich inwestycja zostanie im zwrócona z odsetkami; w niektórych platformach inwestowania społecznościowego inwestorom zwracany jest tylko kapitał. Wreszcie, finansowanie społecznościowe oparte na darowiznach to zbiorowy wysiłek jednostek na rzecz pomocy charytatywnej. Fundusze zebrane przezdarowizny mają na celu poprawę problemów społecznych lub środowiskowych, a co za tym idzie poprawę życia i przestrzeni publicznej. Crowdfunding online różni się pod kilkoma względami od tradycyjnych form finansowania.

Różnice w stosunku do tradycyjnych form finansowania

Przedsiębiorcy angażujący się w finansowanie społecznościowe mają różne cele. Wiele projektów crowdfundingowych ma na celu zebranie niewielkiej kwoty kapitału, często poniżej 1000 USD. Coraz częściej jednak finansowanie społecznościowe jest wykorzystywane do pozyskiwania znacznie większych kwot pieniędzy. W przeciwieństwie do tradycyjnych źródeł finansowania, twórcy projektów angażują się w finansowanie społecznościowe dla wielu celów. Finansowanie społecznościowe zostało wykorzystane do wykazania popytu na proponowany produkt, co może prowadzić do finansowania z bardziej tradycyjnych źródeł. Na przykład inteligentny zegarek Pebble został początkowo odrzucony przez finansowanie venture, ale po udanej kampanii crowdfundingowej zapewnił dużą kwotę finansowania venture capital i ostatecznie został przejęty przez Facebooka za 2 miliardy dolarów. I odwrotnie, brak wsparcia ze strony tłumu pozwala na porażkę pomysłu na projekt bez znacznych inwestycji czasu i pieniędzy. Finansowanie społecznościowe może być również wykorzystywane do celów marketingowych, wzbudzając wczesne zainteresowanie rozwojem nowego i nowatorskiego pomysłu. Jest to szczególnie ważne w branżach, w których tradycyjni inwestorzy mają trudności z prognozowaniem przyszłego sukcesu produktu, a zatem unikają inwestowania w produkt. Motywacje crowdfundingowe również różnią się od motywacji tradycyjnych inwestorów. Niektóre modele finansowania społecznościowego stawiają fundatorów w pozycji patrona, a nie partnera w transakcjach biznesowych. Inwestorzy patronowi są bardziej zainteresowani ostatecznym sukcesem pomysłu lub przedsiębiorcy niż zwrotem finansowym z ich inwestycji. Inne modele traktują fundatorów jak konsumentów. W takich przypadkach twórca projektu "przedsprzedaje" pomysł lub produkt sponsorom. Prawdopodobnie najważniejszą różnicą między tradycyjnymi modelami finansowania a finansowaniem społecznościowym jest to, że podczas gdy cele tradycyjnych inwestorów są jednorodne (tj. zwrot z kapitału podwyższonego ryzyka), cele funduszy społecznościowych nie.

Podobieństwa do tradycyjnych form finansowania

Finansowanie społecznościowe online to nowy sposób na pozyskiwanie pieniędzy. Chociaż jest nowością, finansowanie społecznościowe online ma podobieństwa do tradycyjnych form mobilizacji kapitału. Po pierwsze, znaczenie sygnałów jakościowych wydaje się mieć znaczenie w przypadku finansowania społecznościowego online. Sygnały jakości sugerują sponsorom, że twórcy projektów mogą wywiązać się ze swoich obietnic. To, że takie sygnały są istotne dla finansowania społecznościowego online, sugeruje, że duża grupa rozproszonych, amatorskich sponsorów przeprowadza pewien rodzaj należytej staranności przed zainwestowaniem. Jednak sposób sygnalizowania jakości w wirtualnym środowisku online jest znacznie mniej zdefiniowany niż sposób sygnalizowania jakości w środowisku tradycyjnym. Po drugie, finansowanie społecznościowe zachowuje pewne znaczenie stowarzyszeń geograficznych i społecznych tradycyjnych źródeł finansowania. Istniejące tarcia w sieciach społecznościowych off-line, które są kosztami związanymi z utrzymywaniem silnych powiązań z "przyjaciółmi i rodziną" wymaganych do mobilizacji kapitału, nie są eliminowane przez ustawienie finansowania społecznościowego online. Jednak inne rodzaje tarcia związane z odległością wydają się być eliminowane przez platformy crowdfundingowe. W porównaniu z tradycyjnymi formami finansowania społeczności internetowe i sieci społecznościowe zyskują na znaczeniu w finansowaniu społecznościowym, a finansowanie społecznościowe stanowi wyraźny sposób, w jaki społeczności internetowe mogą wpływać na powstawanie nowych przedsięwzięć. W ten sposób finansowanie społecznościowe online zmniejsza znaczenie tradycyjnych ograniczeń geograficznych i społecznych, ale narzuca nowe. Wreszcie, projekty crowdfundingowe borykają się z niektórymi z tych samych ograniczeń, z którymi borykają się tradycyjnie finansowane przedsięwzięcia (tj. zawyżone obietnice i niedostateczne dostawy). Ogromna liczba sponsorów próbuje dostarczyć produkty na czas, ale stosunkowo niewielu to robi. Problem ten pogłębia się, gdy ostateczna kwota dofinansowania przekracza oczekiwania twórcy projektu. Na przykład BLOCKS, pierwszy na świecie modułowy inteligentny zegarek, przekroczył cel kampanii wynoszący 250 000 USD w ciągu pierwszych 60 minut finansowania społecznościowego. Dwanaście miesięcy po obiecaniu pierwszej dostawy firma BLOCKS wciąż opracowywała działający prototyp. Nie jest jasne, czy duże projekty nie są realizowane na czas, ponieważ nie są w stanie oszacować swoich celów, czy też podejmują się skomplikowanych zadań, a przez to mają bardziej skomplikowane problemy z koordynacją i planowaniem.

Przyszły potencjał crowdfundingu online

Finansowanie społecznościowe może odgrywać znacznie ważniejszą rolę niż zwykłe finansowanie venture. Finansowanie społecznościowe może potencjalnie wywołać prawdziwą zmianę społeczną, taką, która nie jest możliwa, a przynajmniej niemożliwa tak szybko, za pośrednictwem istniejących firm lub istniejących systemów mobilizacji kapitału. Duże firmy mogą przetrwać i pozostać niezrównoważone na dłuższą metę, reagując na presję zewnętrzną poprzez kompensowanie, ale nie eliminowanie szkód społecznych lub środowiskowych. Podobnie tradycyjne źródła finansowania kładą nacisk na zwrot z kapitału podwyższonego ryzyka, a nie na opiekę społeczną. Nowy kontekst instytucjonalny finansowania społecznościowego może odegrać ważną rolę we wspieraniu radykalnych idei zrównoważonego rozwoju. Niektóre z tych pomysłów zawierają potencjalne rozwiązania, jak osiągnąć prawdziwy zrównoważony rozwój, a nie tylko kompensować szkody.

Końcowe przemyślenia

Wraz z rozprzestrzenianiem się platform crowdfundingowych każdy może uczestniczyć w rozwoju nowych pomysłów. Takie uczestnictwo może przybrać formę pożyczania, darowizny, kupowania nagród lub inwestowania w zamian za udział w przedsiębiorstwie. Więcej możliwości uczestniczenia w projektach to dobra rzecz zarówno dla założycieli, jak i fundatorów. Dla założycieli finansowanie społecznościowe online zwiększyło dostęp do kapitału i wsparcie dla pomysłów, które w innym przypadku zostałyby zignorowane przez profesjonalnych inwestorów. Dla podmiotów finansujących finansowanie społecznościowe online stanowi platformę do dokonywania inwestycji kapitałowych i przyczyniania się do osobistych ważnych celów. Crowdfunding online jest wciąż młody. Nadal musimy się wiele nauczyć o roli, jaką odegra w finansowaniu i sukcesie nowych pomysłów biznesowych i projektowych. Niektóre obawy dotyczące długoterminowej stabilności finansowania społecznościowego online koncentrują się na asymetrii informacji między twórcami projektów a potencjalnymi sponsorami. Ze względu na ograniczoną ilość dostępnych informacji o projekcie i jego twórcach, inwestorzy internetowi mogą mieć zbyt mało informacji, aby oddzielić złe projekty od dobrych, przez co niewłaściwie alokują zasoby na pomysły o słabych perspektywach. Istniejące dowody, choć ograniczone, sugerują, że inwestorzy mogą i odgradzają złe projekty od dobrych. Wielu naukowców z optymizmem patrzy na przyszłość crowdfundingu. Ponieważ w najlepszym interesie platform jest stworzenie bezpiecznej i bezproblemowej transakcji, platformy finansowania społecznościowego prawdopodobnie stworzą system, który chroni i przynosi korzyści zarówno sponsorom, jak i założycielom. Finansowanie społecznościowe może wreszcie przyczynić się do pozytywnej zmiany społecznej poprzez demokratyzację finansowania. Podczas gdy motywacja finansowania tradycyjnej dostawcy kapitału, tacy jak aniołowie biznesu i firmy venture capital, zwykle ograniczają się do zysków finansowych, rozproszony charakter tłumu oznacza, że na sukces finansowania wpłynie kontekst instytucjonalny społeczeństwa. Oznacza to, że ryzykowne, innowacyjne i społecznie pożądane projekty będą częściej wspierane przez finansowanie społecznościowe, nawet kosztem krótkoterminowych zwrotów finansowych. Taka demokratyzacja przedsiębiorczych decyzji o finansowaniu może być katalizatorem zmian w prawdziwie zrównoważonych organizacjach.


Powrót

Crowdsourcing



Crowdsourcing

Crowdsourcing to obiecujący i rozwijający się sposób pozyskiwania innowacyjnych pomysłów na produkty, usługi lub procesy od dużej liczby osób poprzez rozpowszechnianie krytycznego problemu dotyczącego innowacji za pośrednictwem Internetu. Crowdsourcing jako mechanizm innowacyjnego rozwiązywania problemów sięga XVIII wieku, kiedy to obywatele brytyjscy zostali poproszeni o rozwiązania problemów nawigacyjnych. Wraz z nadejściem Internetu organizacje mogą teraz rzucać problem na światową publiczność, a coraz częściej osoby z tłumu zaczynają współpracować w celu rozwiązywania bardziej złożonych problemów. Crowdsourcing jest wykorzystywany do rozwiązywania problemów i tworzenia możliwości innowacji w wielu różnych dziedzinach - na przykład innowacyjne firmy projektujące grafikę na koszulki (np. Threadless.Com), korporacyjne badania naukowe i rozwój w dziedzinie farmacji i materiałoznawstwa (np. InnoCentive.Com ), opracowywanie oprogramowania typu open source (np. stackoverflow.com) oraz bezpłatne repozytoria wiedzy online (np. Wikipedia). Wiele otwartych połączeń crowdsourcingowych początkowo opierało się na konkurencji, aby zmotywować tłum do generowania innowacyjnych rozwiązań dzięki wiedzy i doświadczeniu poszczególnych osób. Jednak ostatnio crowdsourcing zaczął stawać się bardziej oparty na współpracy, uznając, że innowacyjne rozwiązania złożonych problemów wyłaniają się z integracji wiedzy jednostek. Zamiast polegać na małej grupie ekspertów wewnętrznych organizacje mogą wykorzystać szeroką, geograficznie niezależną wiedzę specjalistyczną spoza organizacji, szeroko rozpowszechniając swoje możliwości w zakresie innowacji za pośrednictwem Internetu. W odpowiedzi na takie otwarte zaproszenia, nadawane przez Internet, ludzie mogą zgłaszać własne pomysły i, co ważniejsze, łączyć swoje pomysły z pomysłami innych w celu tworzenia bardziej kompleksowych rozwiązań. Ponadto tłumy oceniają proponowane przez innych rozwiązania, które umożliwiają innym w tłumie przesiewanie rozległej wiedzy wniesionej przez tłum. W przypadku organizacji wykorzystujących crowdsourcing, internetowy tłum złożony z osób o różnym pochodzeniu może być postrzegany jako zasób heterogenicznej wiedzy i kreatywnych pomysłów pomocnych w rozwiązywaniu złożonych problemów niemożliwych do rozwiązania przez ograniczoną liczbę ekspertów w zamkniętych organizacjach. Wykorzystywanie heterogeniczności członków tłumów jest złożonym wyzwaniem w zakresie zarządzania wiedzą. Rodzaje wdrożonych mechanizmów zarządzania wiedzą mogą prowadzić do wielu różnych wyników. W tym wpisie najpierw omówiono związek między crowdsourcingiem a zarządzaniem wiedzą, a następnie omówiono kilka rodzajów mechanizmów crowdsourcingowych. Następnie kończy się przeglądem bieżących badań oraz potencjalnych przyszłych kierunków badań.

Crowdsourcing jako możliwość zarządzania wiedzą

Zarządzanie wiedzą stanowi kluczową dynamikę crowdsourcingu. W szczególności, aby wspólnie tworzyć innowacyjne rozwiązania, tłum musi pokonać bariery wynikające z heterogeniczności swojej wiedzy, zintegrować wiedzę już istniejącą i nową oraz ponownie wykorzystać informacje innych osób, gdy wiedza pojawia się w czasie rzeczywistym. Integracja wiedzy ma kluczowe znaczenie dla zarządzania wiedzą za pomocą crowdsourcingu. Członkowie tłumu, którzy z powodzeniem integrują zróżnicowaną wiedzę tłumu, są lepiej przygotowani do oferowania innowacyjnych rozwiązań dla otwartych połączeń. Integracja wiedzy wymaga od tłumu nie tylko dzielenia się, ale także łączenia dzielonej wiedzy w celu tworzenia nowej wiedzy. Crowdsourcing polega na ciągłych asynchronicznych interakcjach między względnymi nieznajomymi (tj. tłumem). Istniejące pomysły są ponownie analizowane i łączone w celu stworzenia innowacyjnych rozwiązań. Dzięki crowdsourcingowi można aktywować i potencjalnie połączyć rozproszoną ludzką inteligencję. Aby tłum mógł integrować swoją wiedzę, musi mieć możliwość podjęcia trzech działań. Po pierwsze, należy zachęcać tłum do otwartego dzielenia się swoją wiedzą, tak aby użytkownicy mogli inicjować wpisy lub komentować posty innych osób w celu wniesienia swoich pomysłów i wtrącenia swojego doświadczenia. Otwarte udostępnianie umożliwia również członkom tłumu zrozumienie problemu z wielu punktów widzenia. Po drugie, najbardziej istotna wiedza dla integracji musi zostać podkreślona poprzez głosowanie nad wkładem innych osób. Trzecim i najbardziej krytycznym działaniem jest łączenie i rekombinacja wcześniej udostępnionej i wyróżnionej wiedzy. W ten sposób można nawiązać połączenia między różnorodnymi perspektywami, aby w jak najpełniejszy sposób zająć się złożonym problemem innowacji. Osoby w tłumie mogą być motywowane do udziału w crowdsourcingu za pomocą zarówno wewnętrznych, jak i zewnętrznych bodźców. Crowdsourcing z natury rzeczy może przynieść uczestnikom nieodłączną przyjemność lub radość, gdy rozwiązują trudne problemy. Zewnętrznie, crowdsourcing daje możliwość wzmocnienia reputacji, budowania tożsamości osobistej lub zawodowej, sygnalizowania swojej wiedzy eksperckiej, rozwiązywania konkretnych potrzeb, uczenia się od innych, uzyskania zatrudnienia i okazjonalnego otrzymywania nagród pieniężnych. Motywacje wewnętrzne i zewnętrzne mogą mieć zastosowanie w różnych kontekstach. Otwarte konkursy na innowacje zwykle opierają się na zewnętrznych zachętach, takich jak pieniądze lub potrzeby użytkowników. W przypadku crowdsourcingu opartego na współpracy, bardziej odpowiednie jest podkreślanie zewnętrznych bodźców związanych z uczeniem się od innych i wywieraniem wpływu wraz z wewnętrznymi bodźcami związanymi z osobistym wyzwaniem.

Różne rodzaje mechanizmów crowdsourcingowych

Crowdsourcing można wdrożyć w kilku formach, z których każda ma inne konsekwencje dla zarządzania wiedzą i integracji. Wyzwania związane ze współpracą to jeden z mechanizmów skoncentrowanych na integracji. W tego rodzaju crowdsourcingu członkowie pracują wspólnie nad złożonym problemem i integrują heterogeniczne perspektywy, aby współtworzyć rozwiązania. Całe repozytorium wiedzy jest widoczne dla wszystkich członków. Wiedza jest integrowana jako rekomendacje w drugiej fazie crowdsourcingu. Na przykład firma Optum Behavioral Health przeprowadziła wspólnie wyzwanie ze swoimi klinicystami, aby zabiegać o poprawę usług obsługi klienta, a także z obywatelami Nowej Zelandii, aby ocenić zainteresowanie obywateli i wsparcie w celu wyeliminowania szkodników. Społeczności projektowe, takie jak Threadless i Lego Ideas, są budowane przy użyciu dynamiki, w której wszyscy komentują swoje projekty. Społeczności te albo składają się na organizację (np. Threadless) albo dostarczają wskazówek organizacji (np. Legos) na temat nowych produktów. Społeczności open source to kolejny mechanizm crowdsourcingu. W takich społecznościach integracja wiedzy odbywa się w ramach modułów, a nie całej społeczności. W związku z tym uczestnicy mają tendencję do przeglądania tylko repozytorium wiedzy konkretnego modułu, do którego się wnoszą. GitHub, Linux i dziesiątki społeczności programistów open source to przykłady crowdsourcingu open source. Inny rodzaj mechanizmu crowdsourcingu, koprodukcja artefaktów, odnosi się do członków tłumu wspólnie wytwarzających artefakty w postaci tekstu. Jako takie, dyskusje są oddzielone na strony dyskusji od wyników (na stronach artykułów), a nie są prezentowane jednocześnie. Integracja wiedzy jest zorientowana na artykuł, a nie przyczynia się do wyzwań. Przykładami tego mechanizmu są Wikipedia, Wikitravel, wiki-How i Wikibuy. Społeczności wiodących użytkowników to kolejny mechanizm crowdsourcingowy, w którym doświadczeni użytkownicy wprowadzają innowacje przed masowymi rynkami. Tacy użytkownicy często sami tworzą prototypy rozwiązań w odpowiedzi na pilną potrzebę osobistą. Dzięki temu mechanizmowi wiedza jest często udostępniana w celu wspierania i udoskonalania pomysłów jednostek, a nie współtworzenia nowych pomysłów. W tym mechanizmie crowdsourcingu proces wyprowadzania ostatecznych rozwiązań może nie być wyraźnie widoczny dla tłumu; integracja wiedzy znajduje odzwierciedlenie w nowych produktach. Takim przykładem jest wysokiej jakości społeczność użytkowników windsurfingu. Konkursy projektowe, takie jak Keggle i Top Coder, to kolejny mechanizm crowdsourcingowy, w którym uczestnicy pracują nad tym samym wyzwaniem projektowym. W tym mechanizmie uczestnicy mogą jedynie przeglądać ostatecznie ukończone zgłoszenia innych osób, zamiast uczestniczyć we współtworzeniu projektów. Zarządzanie wiedzą polega bardziej na udzielaniu informacji zwrotnych na temat pomysłów innych niż na reorientacji lub przekształcaniu dyskusji, a zatem w tego rodzaju mechanizmie crowdsourcingu można znaleźć niewielką integrację wiedzy.

Istniejące i przyszłe badania

Badania nad crowdsourcingiem koncentrowały się na różnych tematach. Ten, któremu poświęca się znaczną uwagę badaczy, dotyczy zachęt, konkurencji i powodów, dla których ludzie uczestniczą. Badania te ujawniają różne motywacyjne powody uczestnictwa. Innym popularnym tematem jest debata o tym, czy istnieje potrzeba rozłożenia problemu na crowdsourcing. Kolejny temat dotyczy ról, jakie uczestnicy odgrywają podczas crowdsourcingu, w tym oferowania nowej wiedzy, wspierania tłumu i integrowania wiedzy innych. W jednym z badań opisano, w jaki sposób treść i kolejność przekazywanej wiedzy wpływa na innowacyjność pomysłów generowanych przez tłum. Wreszcie istnieje grupa badań zalecających reorientację projektowania architektury platform crowdsourcingowych, aby nie były po prostu cyfrowymi repozytoriami pomysłów/rozwiązań, ale zamiast tego ułatwiały ewolucję pomysłów. Badania wykazały kilka napięć związanych z zarządzaniem wiedzą w internetowych tłumach. Samo namiętne uczestnictwo może powodować napięcia. Z pozytywnej strony, proces dzielenia się i współpracy umożliwia społeczności generowanie nowych pomysłów w oparciu o rekombinację i integrację perspektywy każdego członka, co oznacza, że entuzjastyczni członkowie mają tendencję do wnoszenia wkładu i wykorzystywania większej ilości zasobów poprzez aktywne uczestnictwo. Jednak z drugiej strony różnice osobowości i wiedzy mogą również prowadzić do konfliktu między członkami pełnymi pasji, którzy mogą ewangelizować własne poglądy, hamując generowanie skutecznych rozwiązań. Czas też może powodować napięcia. Integrowanie wiedzy i zarządzanie nią wymaga czasu na dzielenie się, a następnie kontemplację; jednak tłum często nie ma cierpliwości, aby dalej angażować się w tak długie dyskusje. Innym źródłem napięcia jest pasja. Pasja dzielenia się wiedzą popycha do przodu proces generowania pomysłów. Jednak kilku gorliwych członków, którzy wkładają nadmierny wysiłek, może również wypierać wkład innych. Trzecie napięcie dotyczy napięć integracyjnych, wynikających z niejednoznaczności identyfikacji kompetencji członków. Z jednej strony anonimowość i niejednoznaczna tożsamość członka społeczności sprzyja uczestnictwu, oferując możliwość uniknięcia oceny społecznej. Z drugiej strony anonimowość utrudnia zaufanie i wiarygodność wiedzy, przez co uczestnicy mogą w mniejszym stopniu przyczyniać się do tworzenia wiedzy online. Istnieją dowody na to, że w radzeniu sobie z wyżej wymienionymi napięciami pomocna może być perspektywa afordancji technologii. Na przykład sieciowa afordancja mediów społecznościowych może promować zaangażowanie członków tłumu w rozmowę na temat wiedzy, ułatwiając budowanie więzi strukturalnych. W międzyczasie członkowie tłumu mogą odgrywać charakterystyczne role, gdy angażują się w rozmowy; niektórzy kształtują interakcje, inni filtrują informacje, a inni porównują i integrują całą użyteczną wiedzę. Co więcej, funkcje mediów społecznościowych mogą również umożliwić uczestnikom publiczne wypowiadanie się widoczne w rozmowach na temat wiedzy, a te nieustanne interakcje dodatkowo rodzą różne role użytkowników w zarządzaniu wiedzą za pomocą crowdsourcingu online. Istnieje kilka podatnych obszarów do przyszłych badań nad crowdsourcingiem. Nadal istnieje znaczny brak zrozumienia, w jaki sposób można zaprojektować podwójne bodźce - jednocześnie wewnętrzne i zewnętrzne - oraz ich wpływ na dzielenie się wiedzą i integrację. Potrzebne są również badania nad afordancjami, aby zachęcać do dzielenia się wiedzą, podkreślać wiedzę odpowiednią do integracji i umożliwiać integrację wiedzy. Może być wymagane połączenie zautomatyzowanej i ludzkiej moderacji, aby doprowadzić do dzielenia się i integrowania zróżnicowanej wiedzy. Wreszcie, w oparciu o rozważania podłużne, badania crowdsourcingowe będą lepiej obsługiwane przez przyjęcie dynamicznego systemu zarządzania wiedzą na temat crowdsourcingu.


Powrót

Cyberprzemoc



We współczesnym społeczeństwie Internet stał się wszechstronnym narzędziem informacji, komunikacji społecznej i rozrywki. Szczególnie dla dzieci i młodzieży jest to przydatne do znajdowania dużej ilości informacji, nawiązywania kontaktów z przyjaciółmi i rodziną oraz rozwijania nowych relacji. Jednak cyberprzestrzeń wiąże się z pewnymi zagrożeniami dla młodych ludzi, w tym utratą prywatności, dostępem do nieodpowiednich materiałów i narażeniem na nękanie. Cyberprzemoc pojawiła się jako połączenie coraz większego życia online dzieci i młodzieży oraz korzystania przez nich z Internetu i technologii cyfrowych. Z punktu widzenia ryzyka społecznego badacze, rodzice i edukatorzy są coraz bardziej zaniepokojeni cyberprzemocą ze względu na negatywne konsekwencje dla psychospołecznego dobrostanu młodzieży. W książce z 2015 r. Sameer Hinduja i Justin Patchin opisują cyberprzemoc jako "umyślne i powtarzające się krzywdy wyrządzane przez komputery, telefony komórkowe i inne urządzenia elektroniczne". Corinne David-Ferdon i Marci Feldman Hertz również odnoszą się do cyberprzemocy jako "każdego rodzaju nękania lub zastraszania, które ma miejsce za pośrednictwem poczty e-mail, czatu, wiadomości błyskawicznych, strony internetowej (w tym blogów), wiadomości tekstowych lub filmów lub zdjęcia zamieszczone na stronach internetowych lub przesłane przez telefony komórkowe". Obie definicje podkreślają elektroniczny charakter zachowań agresywnych i skupiają się na zachowaniach, które są celowe, pojawiają się w czasie i powodują szkody. Cybernękanie może obejmować bezpośrednie formy nękania, takie jak werbalne (wysyłanie groźnych wiadomości) i nękanie fotograficzne (publikowanie szkodliwych zdjęć) w sieciach społecznościowych, takich jak Facebook, Twitter czy Instagram, oraz formy pośrednie, takie jak stalking lub trolling. Ten wpis analizuje, w jaki sposób cyberprzemoc różni się od tradycyjnych form znęcania się, jego rozpowszechnienie, skutki oraz znane zagrożenia i ochrona.

Cyberprzemoc a tradycyjne prześladowanie

Tradycyjne nękanie zostało zdefiniowane przez Patchina i Hinduja jako "niepożądane agresywne zachowanie, które powoduje krzywdę lub stres i jest powtarzane wiele razy i jest również wysoce prawdopodobne, że powtórzy się w kontekście zaobserwowanej lub postrzeganej różnicy mocy". Chociaż w odpowiedniej literaturze istnieje kilka definicji cyberprzemocy, większość z nich pochodzi z tradycyjnych definicji dokuczania i ma te same kryteria definiujące: (a) zamiar zranienia, (b) brak równowagi sił i (c) powtarzanie. Jednak znaczenie i znaczenie tych podstawowych elementów zmienia się w środowisku cybernetycznym. W przypadku cyberprzemocy, powtórzenie może wystąpić, gdy pojedynczy post, wiadomość lub prywatna treść zostanie udostępniona, prześwietlona ponownie lub dodana do ulubionych przez kilka osób. Brak równowagi sił może wystąpić w środowiskach internetowych poprzez różne stopnie zaawansowania technologicznego - agresję lub posiadanie niektórych treści przez prześladowcę, który może być używany do wyrządzania krzywdy. Wreszcie, chociaż celowość jest mniej istotna w cyberprzemocy, gdy wiadomość lub post staje się wirusowy, dany czyn musi być celowo wykonany, aby zirytować lub nękać ofiarę. Inni badacze zauważyli, że cyberprzemoc różni się od tradycyjnego prześladowania na kilka sposobów. Na przykład cyberprzemoc może szybko dotrzeć do dużej liczby odbiorców; ucieczka przed cyberprzemocą jest trudna, ponieważ dzieje się to wszędzie tam, gdzie ofiara wchodzi do sieci, wyrzuty sumienia lub empatia sprawców są trudniejsze, a cyberprzemoc nie powoduje żadnych rzeczywistych szkód fizycznych. Niemniej jednak badania nad postrzeganiem cyberprzemocy przez nastolatków wykazały, że istnieją trzy kryteria, do których młodzież przywiązuje szczególną wagę przy odróżnianiu cyberagresji od cyberprzemocy: (1) zamiar zranienia, (2) brak równowagi sił oraz (3) reklama. Nastolatkowie również nie uważają, że powtarzanie i anonimowość powinny być uważane za decydujący czynnik cyberprzemocy. Pomimo tych różnic pojęciowych większość badaczy zgadza się, że zjawiska te nakładają się na siebie. Na przykład kilka badań podłużnych wykazało pozytywne dwukierunkowe relacje między tradycyjnym a cyberprzemocą na przestrzeni czasu. Wynik ten sugeruje, że zaangażowanie w jeden rodzaj bullyingu naraża uczniów na ryzyko zaangażowania się w inny rodzaj bullyingu. Odkrycia te potwierdzają pogląd, że cybernękanie i tradycyjne nękanie mogą odzwierciedlać różne metody wcielania się w podobne zachowanie (wyrządzać krzywdę innym), a forma (off-line vs. online) nękania może być mniej ważna niż zachowanie. Z innych badań wynika jednak, że istnieją znaczne różnice między obydwoma zjawiskami, takie jak istnienie niewielkiej grupy cyberprzemocy i cyberofiar, które wcześniej nie brały udziału w tradycyjnym bullyingu oraz że uczniowie, którzy są zaangażowani w oba zjawiska jednocześnie, nie zawsze grają tę samą rolę, ponieważ mogą mieć przeciwne lub wiele ról. Związek między tymi dwoma rodzajami bullyingu nie jest zaskakujący, jeśli weźmiemy pod uwagę, że cyberprzestrzeń może funkcjonować jako rozszerzenie szkolnego kontekstu, a także jest zgodny z ideą, że chociaż interakcja online różni się od interakcji twarzą w twarz, oboje tworzą zachodzącą na siebie przestrzeń społeczną, aby komunikować się z przyjaciółmi lub kolegami ze szkoły. Rzeczywiście, pomimo nacisku kładzionego na anonimowość jako ważną cechę nękania online, istnieją ustalenia, które pokazują, że ofiary często znają tożsamość sprawcy, a ci, którzy znęcają się, niekoniecznie chcą być nieznani. W ten sposób prześladowcy szkolni mogą wykorzystywać komunikację elektroniczną jako sposób na przeniesienie ofiary poza boisko szkolne. Co więcej, kilka form komunikacji online za pośrednictwem SMS-ów, e-maili lub komunikatorów może być wykorzystywanych do wyzwisk lub obelg, a sieci społecznościowe nadają się do rozpowszechniania plotek, które są najczęstszymi formami zastraszania w szkole.

Rozpowszechnienie cyberprzemocy

Cyberprzemoc nie ma miejsca wyłącznie w niektórych częściach świata. Jest znany jako globalne zjawisko przecinające grupy kulturowe i konteksty. W badaniu z 2012 r. Hinduja i Patchin opisują cyberprzemoc jako "ani epidemię, ani rzadkość", ponieważ odkryli, że mniej więcej jeden na czterech nastolatków doświadczył lub był zaangażowany w jakąś formę cyberprzemocy. Szacunki dotyczące rozpowszechnienia są niespójne we wszystkich badaniach, ale wskaźniki cyberprzemocy wahają się od 5% do 31%, a wiktymizacji cyberprzemocy wahają się od 2% do 57%. Niespójności w pomiarach były silnie widoczne w wyjaśnieniach odmiennych wskaźników rozpowszechnienia cyberprzemocy. Na podstawie wyników z 80 międzynarodowych badań, metaanaliza przeprowadzona przez Kathryn L. Modecki i współpracowników w badaniu z 2014 r. dotycząca częstości udziału w cyberprzemocy wyniosła 16%, a wiktymizacji cyberprzemocy wyniosła 15%. W przeglądzie z 2015 r. Michele P. Hamm i współpracownicy stwierdzili, że mediana cyberprzemocy i wiktymizacji wyniosła odpowiednio 15,2% i 23%. W każdym razie dane sondażowe wśród międzynarodowych populacji młodzieży wykazały spadek ogólnej wiktymizacji rówieśniczej w ciągu ostatniej dekady, podczas gdy od 2000 r. obserwuje się stały wzrost nękania online. Pomimo początkowych obaw, wyników tych nie można interpretować jako wzrostu ogólnego nękania i zachowań nękających, ale jako migrację ogólnej wiktymizacji do świata online. Cybernękanie jest znacznie mniej rozpowszechnione, a wskaźniki są o połowę mniejsze niż w przypadku tradycyjnego zastraszania. Jednak popularność mediów społecznościowych i rosnące wykorzystanie telefonów komórkowych przyczyniają się do wzrostu liczby przypadków cyberprzemocy na całym świecie.

Skutki cyberprzemocy

Podobnie jak tradycyjne nękanie, cybernękanie znacząco wpływa na dobrostan społeczny, emocjonalny i akademicki dzieci i młodzieży. Rzeczywiście, wpływ cyberprzemocy dotyczy nie tylko jednej domeny, ale także obejmuje kilka domen. Przekrojowe, a także prospektywne badania podłużne wykazały, że ofiary cyberprzemocy częściej niż młodzi ludzie zgłaszają stres emocjonalny, objawy depresji, niską samoocenę, lęk, izolację społeczną, niską satysfakcję z życia, absencję w szkole, słabe wyniki w nauce, i myśli samobójcze. Cyberprzemoc wiąże się również z lękiem, depresją, niską satysfakcją z życia, samotnością i słabymi wynikami w nauce. Ponadto sprawcy cyberprzemocy częściej zgłaszają używanie narkotyków i alkoholu oraz przemoc w późniejszym dorosłym życiu.

Czynniki ryzyka i czynniki chroniące przed cyberprzemocą

W odniesieniu do tych polityk i programów mających chronić dzieci i młodzież przed szkodliwymi konsekwencjami cyberprzemocy, kluczowe jest określenie czynników ryzyka i czynników ochronnych dla wiktymizacji i popełniania cyberprzemocy. Jeśli chodzi o czynniki ryzyka, w trzech ostatnich metaanalizach przeanalizowano czynniki przewidujące popełnienie i wiktymizację cyberprzemocy. Pierwszą metaanalizę przeprowadził Robin M. Kowalski i współpracownicy w badaniu z 2014 r., opartym na 131 badaniach empirycznych od 2002 r. do początku 2013 r. Ustalili, że m.in. gniew i narcyzm były czynnikami ryzyka cyberprzemocy. Czynnikami ryzyka cyberwiktymizacji były gniew, częstotliwość korzystania z Internetu, moralne zniechęcenie i nadpobudliwość. Druga metaanaliza, przeprowadzona przez Siying Guo na 77 badaniach empirycznych z lat 2004-2013, wykazała, że dwoma najsilniejszymi predyktorami cyberprzemocy były zmienne związane z wcześniejszymi doświadczeniami znęcania się nad innymi w trybie offline i popełniania zachowań problemowych. Wiktymizację cyberprzemocy przewidziała wcześniejsza wiktymizacja off-line i długotrwałe problemy psychologiczne, takie jak samotność, stres, bezradność lub niska samoocena. Trzecia szeroka metaanaliza przeprowadzona przez Lian Chen i współpracowników, oparta na 81 badaniach empirycznych z lat 2004-2015, wykazała, że głównymi predyktorami cyberprzemocy były ryzykowne korzystanie z technologii informacyjnych i komunikacyjnych, brak zaangażowania moralnego, depresja, normy społeczne i tradycyjne znęcanie się. sprawstwo, podczas gdy niebezpieczne korzystanie z Internetu i tradycyjne znęcanie się były głównymi sprawcami wiktymizacji cyberprzemocy. Ponadto niektóre przeglądy systematyczne wykazały, że analiza różnic płci i wieku dała niespójne wyniki z trywialnymi wielkościami efektu dla obu zmiennych. Przestępczość zgłaszana przez młodzież, symptomatologia depresji i otrzymanie oceny niedostatecznej w szkole były innymi zmiennymi, które również były związane z podwyższonymi szansami na nękanie innych w Internecie. Ostatnie badania podłużne i przekrojowe wykazały również, że dzieci, których przyjaciele są zaangażowani w działalność przestępczą i które nie mają godnych zaufania i wspierających przyjaciół, były bardziej narażone na zastraszanie w cyberprzestrzeni, że względna deprywacja jest pozytywnie związana z wiktymizacją i popełnianiem cyberprzemocy, tym biednym rodzicem - związek młodzieńczy naraża dzieci i młodzież na ryzyko angażowania się w cyberprzemoc, że wysokie uzasadnienie i wysoka impulsywność są czynnikiem ryzyka cyberprzemocy, oraz że wyższe wyniki zarówno w empatii poznawczej, jak i afektywnej negatywnie przewidywały sprawstwo cyberprzemocy. Niemniej jednak zaangażowanie w tradycyjne nękanie jako ofiara lub sprawca jest czynnikiem o największej przewidywalności popełniania i wiktymizacji cyberprzemocy, który również pozostaje stabilny w czasie. Jeśli chodzi o czynniki ochronne, metaanaliza z 2014 r. przeprowadzona przez Kowalskiego i współpracowników wykazała, że czynnikami chroniącymi przed wiktymizacją w cyberprzemocy były monitorowanie rodziców, postrzegane wsparcie, inteligencja społeczna oraz klimat w szkole i bezpieczeństwo w szkole. Dostrzegano także wsparcie, monitoring rodziców oraz empatię i klimat szkolny jako czynniki chroniące przed cyberprzemocą. Chociaż poprzednie dane badawcze nie są rozstrzygające, grupa rówieśnicza i rodzicielstwo odgrywają ważną rolę w zapobieganiu angażowaniu się w cyberprzemoc. W odniesieniu do grupy rówieśniczej, cyberprzemoc może być postrzegana jako wyraz systemu wartości i motywowana zdobywaniem społecznego uznania i silnej pozycji w grupie rówieśniczej. Prześladowcy są zmotywowani do dokonywainia agresywnych działań, aby chronić swoją reputację społeczną lub pozytywnie odróżnić się od osób odrzuconych. Wręcz przeciwnie, uznanie społeczne i silna pozycja w grupie rówieśniczej może być czynnikiem chroniącym przed wiktymizacją. Za kluczowy czynnik ochronny należy również uznać rówieśnicze wsparcie społeczne. Na przykład badanie przeprowadzone przez Michele L. Ybarrę i współpracowników z 2015 r. wykazało, że osobiste wsparcie społeczne było związane ze zmniejszeniem prawdopodobieństwa wiktymizacji cyberprzemocy. Jeśli chodzi o rodzicielstwo, większość badań wskazuje na skuteczność praktyk rodzicielskich, które charakteryzują się ciepłem i uczuciem, aktywną mediacją i pozytywną komunikacją rodzic-dziecko w zapobieganiu zaangażowaniu w cyberprzemoc. Korzystanie z Internetu za pośrednictwem laptopów, telefonów komórkowych i tabletów gwałtownie rozszerzyło się na całym świecie. Jednak w miarę jak komunikacja elektroniczna staje się coraz bardziej powszechna w życiu młodych ludzi, młodzi ludzie znajdują nowe sposoby nękania swoich rówieśników w Internecie, w tym tak zwanego cyberprzemocy. Od czasu, gdy w 2004 roku Bill Belsey ukuł termin cyberprzemoc, nastąpił znaczny wzrost badań nad cyberprzemocą. Badania w tej dziedzinie są szczególnie ważne, ponieważ nawet stosunkowo niewielkie wskaźniki chorobowości mają szkodliwe skutki. W związku z tym należy zachęcać wychowawców i rodziny do postrzegania wszystkich tych zachowań jako szkodliwych oraz do wdrażania zasad i praktyk, które wspólnie radzą sobie z tymi zachowaniami.


Powrót

Cyberprzestępczość



Chociaż obecnie nie istnieje uzgodniona definicja cyberprzestępczości, pojęcie to ogólnie odnosi się do wszelkich przestępstw ułatwianych lub popełnianych przy użyciu komputera, systemów informatycznych lub innych rodzajów urządzeń technologii informacyjnej. Termin cyberprzestępczość odnosi się również do bezprawnych działań polegających na wykorzystaniu komputera jako celu działalności przestępczej, wykorzystaniu komputera jako narzędzia lub instrumentu do popełnienia przestępstwa oraz wykorzystaniu komputera jako incydentalnym w stosunku do działalności przestępczej. Wraz ze wzrostem liczby osób na całym świecie korzystających z Internetu, cyberprzestępczość stanowi poważne zagrożenie dla obywateli, konsumentów, przedsiębiorstw, instytucji finansowych i rządów na całym świecie. Jako globalne zjawisko przestępcze, cyberprzestępczość stwarza również problemy i wyzwania dla funkcjonariuszy organów ścigania i prokuratorów, których zadaniem jest prowadzenie dochodzeń i ściganie tego rodzaju przestępstw. Ten wpis najpierw opisuje pojawienie się cyberprzestępczości i przedstawia różne modele klasyfikacji i schematy taksonomii, które zostały zaproponowane w celu kategoryzacji rodzajów cyberprzestępczości. Podkreśla również najczęstsze rodzaje cyberprzestępczości i przedstawia różnice między tradycyjną przestępczością a cyberprzestępczością. Kończy się poprzez omówienie kwestii i wyzwań związanych z prowadzeniem dochodzeń i ściganiem cyberprzestępczości oraz podsumowanie najistotniejszych i istotnych obszarów dochodzenia związanych z cyberprzestępczością.

Pojawienie się cyberprzestępczości

Pojawienie się cyberprzestępczości rozpoczyna się wraz z wynalezieniem komputerów oraz stworzeniem Internetu i sieci WWW. Komputery typu mainframe zostały po raz pierwszy wynalezione w latach 40. i 50. XX wieku w celu poprawy zdolności wojskowych i systemów kierowania rakietami. Technologia istniejąca w tym czasie była ograniczona w tym zakresie, komputery były w stanie komunikować się tylko z innym pojedynczym komputerem, z którym były bezpośrednio połączone. W 1969 roku Agencja Zaawansowanych Projektów Badawczych (ARPA) wprowadziła ARPANET, system sieciowy, który był w stanie połączyć cztery komputery z różnych kampusów uniwersyteckich. ARPANET stał się podstawą Internetu, ponieważ coraz więcej komputerów znajduje się w szkołach wyższych i uniwersytetach zostało połączonych z tymi znajdującymi się w agencjach rządowych i firmach. Rozwój i pojawienie się protokołu kontroli transmisji/protokołu internetowego w latach siedemdziesiątych dodatkowo rozszerzyło Internet, ponieważ różne sieci komputerowe były również w stanie łączyć się ze sobą. W 1989 r. Sir Tim Berners-Lee opracował World Wide Web, graficzny interfejs, który umożliwia identyfikację dokumentów i innych zasobów internetowych oraz dostęp do nich za pośrednictwem Internetu przy użyciu trzech podstawowych technologii: (1) języka znaczników hipertekstowych (HTML), (2) Adresów URL (Uniform Resource Locators) oraz (3) protokoł przesyłania hipertekstu (HTTP). Sieć WWW to podstawowe narzędzie umożliwiające użytkownikom komputerów na całym świecie interakcję w Internecie. Wynalezienie komputerów dało początek zjawisku znanemu jako hakowanie. Hakowanie odnosi się do nieautoryzowanego dostępu do systemów informatycznych, w tym sieci komputerowych. Hakowanie początkowo zaczęło się jako żart wśród studentów uniwersytetu, którzy byli zainteresowani zbadaniem, w jaki sposób komputery typu mainframe mogą być używane do rozwiązywania problemów. Ponieważ nieautoryzowany dostęp do sieci komputerowych nie był wówczas zabroniony, działania wczesnych hakerów komputerowych określano mianem "nadużyć komputerowych". W latach 80., gdy więcej komputerów zostało połączonych ze sobą, gdy nadużycia systemów komputerowych stały się bardziej powszechne, a przestępcy zaczęli włamywać się do systemów komputerowych rządowych i instytucji finansowych w złych celach, rządy stanowe i federalne Stanów Zjednoczonych zaczęły uchwalać przepisy dotyczące przestępczości komputerowej. Termin przestępczość komputerowa, który pojawił się w latach 80., był używany głównie do opisu przestępstw z udziałem komputerów. Wraz z pojawieniem się sieci WWW wraz z mnóstwem aplikacji i początkiem szybkich/szerokopasmowych połączeń internetowych, które miały miejsce w latach 90., zaproponowano następnie inne terminy i stosowano je zamiennie z terminem przestępczość komputerowa, w tym przestępczość internetowa, komputerowa -przestępczość, przestępczość internetowa, przestępczość związana z zaawansowanymi technologiami, przestępczość elektroniczna, przestępczość technologiczna, przestępczość informacyjna i cyberprzestępczość.

Klasyfikacje i taksonomie cyberprzestępczości

Wśród różnych terminologii, które zostały zaproponowane lub użyte do określenia przestępstw popełnianych przy użyciu komputerów i sieci lub przestępstw popełnianych w Internecie, termin cyberprzestępczość stał się ostatnio powszechnie używany. Trudno jest precyzyjnie zdefiniować cyberprzestępczość, ponieważ istnieją drastycznie różne poglądy na temat tego, co obejmuje termin. Ponadto ostatnie szacunki wskazują, że istnieje co najmniej 30 różnych rodzajów poważnej cyberprzestępczości. Niemniej jednak naukowcy, badacze, firmy prywatne, agencje rządowe, organizacje międzyrządowe próbowały zdefiniować i sklasyfikować cyberprzestępczość. Na przykład Symantec Corporation, amerykańska firma technologiczna, definiuje cyberprzestępczość jako każde przestępstwo popełnione przy użyciu komputerów, sieci komputerowych lub urządzeń sprzętowych. Departament Sprawiedliwości Stanów Zjednoczonych definiuje cyberprzestępczość jako każde przestępstwo, które wykorzystuje lub atakuje sieci komputerowe. Brytyjskie Stowarzyszenie Komendantów Policji klasyfikuje cyberprzestępczość jako wszelkie przestępstwo ułatwione lub popełnione przy użyciu komputerów sieciowych, telekomunikacji lub technologii internetowej. Mimo to Podręcznik Narodów Zjednoczonych w sprawie zapobiegania i kontroli przestępczości związanej z komputerami w swojej definicji cyberprzestępczości uwzględnił oszustwa i fałszerstwa w odniesieniu do nieuprawnionego dostępu do sieci komputerowych, a Konwencja Rady Europy w sprawie cyberprzestępczości sugeruje, aby termin cyberprzestępczość był używany w odniesieniu do przestępstw. począwszy od działalności przestępczej na danych, poprzez treści, aż po naruszenie praw autorskich. Podręcznik Narodów Zjednoczonych w sprawie zapobiegania i kontroli przestępczości związanej z komputerami proponuje pięć klasyfikacji cyberprzestępczości: (1) przestępstwa oszustwa popełnione poprzez manipulację komputerami, (2) przestępstwa fałszerstwa komputerowego, (3) przestępstwa polegające na uszkodzeniu lub modyfikacji danych komputerowych lub programów, (4) nieuprawniony dostęp do systemów lub usług komputerowych oraz (5) nieuprawnione zwielokrotnianie programów komputerowych chronionych prawem. Konwencja Rady Europy o cyberprzestępczości zaleca cztery klasyfikacje cyberprzestępczości: (1) przestępstwa mające wpływ na poufność, integralność i dostępność systemów komputerowych oraz dane; (2) przestępstwa komputerowe; (3) przestępstwa merytoryczne; oraz (4) przestępstwa związane z prawami autorskimi i prawami pokrewnymi. Prawdopodobnie najbardziej wyczerpujące dotychczas opisy i klasyfikacje cyberprzestępczości to te zaproponowane przez naukowców i prawników. W artykule z 2006 roku Sarah Gordon i Richard Ford definiują cyberprzestępczość jako każde przestępstwo ułatwione lub popełnione przy użyciu komputera, sieci lub urządzenia sprzętowego. Autorzy opracowali również ramy klasyfikacyjne, które klasyfikują różne rodzaje cyberprzestępczości na dwa odrębne typy: cyberprzestępczość typu I, czyli przestępstwa, które mają generalnie charakter technologiczny, oraz cyberprzestępczość typu II, czyli przestępstwa związane głównie z ludźmi. Cyberprzestępczość typu I można dalej scharakteryzować jako przestępstwa obejmujące pojedyncze lub dyskretne zdarzenie z perspektywy ofiary i są ułatwione przez wprowadzenie złośliwych programów (złośliwe programy to oprogramowanie napisane w celu uszkodzenia lub zniszczenia systemów komputerowych, sieci lub danych) do systemów komputerowych użytkowników. Przykłady cyberprzestępczości typu I obejmują próby phishingu (phishing to forma oszustwa, w której przestępca próbuje uzyskać informacje, takie jak dane logowania lub informacje o koncie, podszywając się pod renomowany podmiot lub osobę za pomocą wiadomości e-mail, komunikatorów lub innej komunikacji kanałów), kradzież tożsamości oraz oszustwa bankowe i e-commerce popełniane przy użyciu skradzionych danych uwierzytelniających. Cyberprzestępczość typu II to działania, które wiążą się z powtarzającymi się kontaktami lub zdarzeniami z perspektywy użytkownika i są ułatwiane przez programy, które nie są objęte klasyfikacją szkodliwych programów. Przykłady cyberprzestępstw typu II obejmują cyberstalking i nękanie, drapieżnictwo dzieci, manipulacje na giełdzie, szpiegostwo korporacyjne i działalność terrorystyczną w Internecie. Autorzy zauważyli również, że zaproponowane przez nich ramy koncepcyjne reprezentują kontinuum cyberprzestępczości i że bardzo niewiele zdarzeń można sklasyfikować jako cyberprzestępczość wyłącznie typu I lub typu II. W publikacji z 2010 r. Ali Alkaabi i współpracownicy zaproponowali również klasyfikację różnych rodzajów cyberprzestępczości, ale opartą na roli komputera, szczegółowym charakterze przestępstwa i kontekście towarzyszącym przestępstwu. Zaproponowany model obejmuje dwa rodzaje klasyfikacji: przestępstwa typu I i typu II. Przestępstwa typu I obejmują nielegalne działania, w których komputer, sieć komputerowa lub urządzenie elektroniczne są celem działalności przestępczej, a przestępstwa typu II obejmują nielegalne działania, w których komputer, sieć komputerowa lub urządzenie elektroniczne są narzędziem do przestępczość. Autorzy dalej skategoryzowali przestępstwa Typu I na cztery podgrupy: (1) przestępstwa nieautoryzowanego dostępu, takie jak hakowanie; (2) przestępstwa związane ze złośliwym kodem, takie jak wirusy komputerowe lub robaki (wirusy i robaki to w zasadzie programy napisane w celu zmiany sposobu działania komputera bez wiedzy użytkownika lub zniszczenia komputera poprzez uszkodzenie programów, usunięcie plików lub ponowne sformatowanie dysk twardy); (3) przestępstwa związane z przerwą w świadczeniu usług, takie jak ataki typu "odmowa usługi" (ataki typu "odmowa usługi" mają miejsce, gdy użytkownicy komputerów lub innych urządzeń elektronicznych nie mają dostępu do systemu informatycznego lub jego zasobów); oraz (4) przestępstwa kradzieży lub niewłaściwego korzystania z usług, takie jak kradzież tożsamości. Przestępstwa typu II składają się z trzech podkategorii: (1) przestępstwa związane z naruszeniem treści, takie jak posiadanie pornografii dziecięcej; (2) nieuprawniona zmiana danych lub oprogramowania lub przestępstwa związane z zyskami osobistymi lub organizacyjnymi, takie jak oszustwa internetowe; oraz (3) niewłaściwe wykorzystanie przestępstw telekomunikacyjnych, takich jak cyberstalking. Wciąż trwają wysiłki zmierzające do precyzyjnego zdefiniowania cyberprzestępczości i uzyskania skutecznego modelu klasyfikacji do kategoryzacji różnych rodzajów cyberprzestępczości. Zdefiniowanie cyberprzestępczości i rozróżnienie różnych rodzajów cyberprzestępczości jest ważne z wielu powodów. Po pierwsze, posiadanie uzgodnionej definicji zapewnia naukowcom, badaczom i praktykom wspólny język, który jest niezbędny do efektywnej współpracy i konstruktywnej dyskusji. Po drugie, jasna definicja tego, co oznacza cyberprzestępczość, pomaga badaczom i praktykom określają zakres problemu, który należy rozwiązać. Po trzecie, zróżnicowanie i zrozumienie różnych aspektów cyberprzestępczości, a mianowicie wymiaru "technicznego" i "ludzkiego" tego zjawiska, jest istotne i kluczowe w dążeniu do zwalczania, badania i zapobiegania tego typu przestępstwom. Po czwarte, zdefiniowanie i rozróżnienie różnych rodzajów cyberprzestępczości umożliwia naukowcom i praktykom przewidywanie kierunku przyszłej cyberprzestępczości oraz formułowanie nowatorskich i aktualnych rozwiązań.

Typowe rodzaje cyberprzestępczości

Według ostatnich szacunków istnieje co najmniej 30 różnych rodzajów poważnej cyberprzestępczości. Jednak najczęstszymi typami zwykle opisywanymi w mediach, gazetach, magazynach, publikacjach branżowych i czasopismach naukowych są hakerstwo, złośliwe oprogramowanie, kradzież tożsamości, oszustwa internetowe, spamowanie, ataki typu "odmowa usługi", cyberprzemoc, nękanie i stalking.

Hakerstwo

Hakowanie odnosi się do nieautoryzowanego dostępu do systemów informatycznych, w tym sieci komputerowych. Pierwotnie termin ten był używany w odniesieniu do osób, które włamują się do systemów komputerowych dla żartu lub w niezłośliwych celach, takich jak posiadanie prawa do przechwalania się. Hacking służył również jako forum społecznościowe, na którym eksperci komputerowi spotykali się, aby dzielić się informacjami i pomysłami na temat innowacyjnego programowania i informatyki. Wraz ze wzrostem liczby użytkowników Internetu oraz rozwojem technologii przestępcy zaczęli dostrzegać dużą i rosnącą liczbę dostępnych celów, a także nowo pojawiające się możliwości popełnienia przestępstwa. Wiele działań określanych dziś jako hakerskie jest wysoce złośliwych i obejmuje nieautoryzowany dostęp do systemów sieci komputerowych w celu uzyskania korzyści finansowych lub celów destrukcyjnych. Jednak nadal obowiązuje pierwotna, niekarna definicja hakowania. Hakerzy, którzy wykorzystują swoje umiejętności do etycznych i właściwych celów, określają siebie mianem "hakerów z białym kapeluszem" oraz hakerów, którzy angażują się w nielegalną działalność są znani jako "hackerzy w czarnych kapeluszach". Istnieje również trzecia grupa hakerów, "hakerzy w szarych kapeluszach", których działania często zacierają granicę między hakowaniem etycznym a złośliwym.

Złośliwe oprogramowanie

Złośliwe oprogramowanie to różnorodne szkodliwe oprogramowanie napisane w celu uszkadzania lub niszczenia systemów komputerowych, sieci lub danych. Ta terminologia reprezentuje kombinację słów złośliwy i oprogramowanie. Przykłady złośliwego oprogramowania obejmują wirusy komputerowe, robaki internetowe, oprogramowanie szpiegujące, programy rejestrujące naciśnięcia klawiszy, rootkity i botnety. Terminy wirusy i robaki są używane zamiennie, chociaż istnieją wyraźne różnice między tymi dwoma typami programów. Robaki są często wykorzystywane do wykorzystywania słabości lub luk w systemach operacyjnych komputerów, takich jak Microsoft Windows, Linux, Unix i Macintosh. Robaki nie wymagają żadnych działań od użytkownika komputera, gdy przechodzą z jednego systemu komputerowego do drugiego. Wirusy są zazwyczaj używane do infekowania jednego systemu komputerowego; następnie, za pośrednictwem książki adresowej użytkownika, są one rozprzestrzeniane do innych systemów za pośrednictwem wiadomości e-mail, załączników do wiadomości e-mail lub w inny sposób. Wirusy różnią się od robaków tym, że wymagają pewnych działań od użytkownika komputera, aby zaatakować inne systemy komputerowe. Oprogramowanie szpiegujące to rodzaj złośliwego oprogramowania wykorzystywanego do gromadzenia danych osobowych, takich jak numery ubezpieczenia społecznego, numery praw jazdy i hasła, a także do śledzenia historii przeglądania sieci przez użytkowników komputerów. Zazwyczaj oprogramowanie szpiegujące jest instalowane bez wiedzy użytkownika podczas instalowania bezpłatnego oprogramowania z Internetu. Oprogramowanie szpiegujące może być również wykorzystywane jako rodzaj oprogramowania reklamowego, czyli pakietu oprogramowania wyświetlającego niechciane banery reklamowe w wyskakującym okienku, skierowane konkretnie do użytkownika komputera na podstawie jego historii przeglądania sieci. Programy rejestrujące naciśnięcia klawiszy to inny rodzaj złośliwego oprogramowania, które jest wykorzystywane do zbierania danych osobowych lub danych. Program rejestruje lub zapisuje naciśnięcia klawiszy wykonane przez użytkownika komputera w pliku, a informacje są następnie wykorzystywane do uzyskania danych osobowych, takich jak numery ubezpieczenia społecznego, hasła i numery kart kredytowych. Botnet to grupa komputerów zainfekowanych złośliwym oprogramowaniem. Ponieważ botnet może wykonywać proste, powtarzalne zadania znacznie szybciej niż człowiek, często jest wykorzystywany do wykonywania zautomatyzowanych funkcji, takich jak wyłudzenia, oszustwa, kradzież tożsamości, spam i ataki typu "odmowa usługi". Botnet jest kontrolowany przez "botmastera" lub "zakłócającego" i może pozostać uśpiony przez miesiące lub lata, zanim zostanie aktywowany. Zainfekowane komputery nazywane są "zombie", ponieważ są wykorzystywane do atakowania innych systemów bez wiedzy właściciela komputera. Warto zauważyć, że botnety nie muszą być złośliwe. Na przykład mogą być używane przez wyszukiwarki do indeksowania sieci, a także jako blokery poczty e-mail lub filtry. Botnety mogą być również wykorzystywane w różnych aplikacjach, w których potrzebna jest szybka reakcja. W dzisiejszym środowisku botnety są prawie zawsze złośliwe, a w ostatnich latach stały się towarem, który można wypożyczyć lub kupić. Rootkity to oprogramowanie używane do "ukrywania" złośliwego oprogramowania i botnetów poprzez maskowanie faktu, że system operacyjny komputera został naruszony. Rootkity umożliwiają "ukrywanie się" złośliwego oprogramowania i botnetów, podszywając się pod pliki, które przeoczy oprogramowanie antywirusowe. Rootkity mają na celu przejęcie kontroli nad systemem komputerowym poprzez modyfikację systemu operacyjnego w taki sposób, że często powracają po ponownym uruchomieniu systemu, nawet jeśli wyglądają na usunięte. Dlatego rootkity stanowią szczególnie kłopotliwą formę złośliwego oprogramowania, ponieważ są trudne do wykrycia i usunięcia.

Kradzież tożsamości

Kradzież tożsamości odnosi się do różnych przestępstw związanych z oszustwami, które są popełniane przy użyciu danych osobowych ofiary. Przykładem kradzieży tożsamości jest sytuacja, w której sprawca uzyskuje dane osobowe ofiary, takie jak numer ubezpieczenia społecznego, numer prawa jazdy, data urodzenia i wnioski o kartę kredytową. Kradzieży tożsamości można dokonać na różne sposoby. Jedną z metod jest przeglądanie śmieci ofiary i szukanie odpowiednich dokumentów, takich jak wnioski o karty kredytowe. Inną metodą, która zyskała szerokie zainteresowanie w mediach społecznościowych, jest phishing. Phishing to metoda wykorzystywana przez przestępców w celu uzyskania informacji, takich jak dane logowania lub informacje o koncie, poprzez podszywanie się pod renomowany podmiot lub osobę. Phishing jest zazwyczaj przeprowadzany za pomocą wiadomości e-mail, komunikatorów lub innych kanałów komunikacji, w których użytkownicy są instruowani, aby wprowadzić dane osobowe na fałszywej stronie internetowej, która wygląda prawie identycznie jak legalna. Warto zauważyć, że kradzież tożsamości jest poważnym i coraz trudniejszym do ścigania rodzajem cyberprzestępczości.

Oszustwa internetowe

Oszustwa internetowe obejmują szereg przestępstw popełnianych przez cyberprzestępców w celu wyłudzenia pieniędzy lub innych cennych aktywów. Oszustwa internetowe zwykle obejmują te same zasady i techniki stosowane przez przestępców off-line, takie jak dostęp do odpowiednich celów, brak zdolnych opiekunów, zaszczepienie ofierze fałszywego poczucia bezpieczeństwa oraz umiejętności technologiczne. Przykłady oszustw internetowych obejmują oszustwa związane z kartami kredytowymi, oszustwa telemarketingowe, oszustwa randkowe oraz fałszowanie stron internetowych i wiadomości e-mail. Oszustwa związane z kartami kredytowymi mają miejsce, gdy cyberprzestępca założył konto finansowe, dokonuje zakupów i używa fałszywej identyfikacji lub podszywa się pod kogoś innego. Oszustwo związane z kartą kredytową ma również miejsce, gdy cyberprzestępca wystawia na aukcjach bardzo popularny przedmiot online po bardzo niskiej cenie początkowej, aby zachęcić licytantów do podniesienia ceny, ale nie zamierza wysyłać towaru po tym, jak zwycięski licytant zapłacił za niego kartą kredytową rachunek. Oszustwa telemarketingowe zazwyczaj polegają na pozyskiwaniu funduszy dla fikcyjnych agencji pomocy społecznej, a oszuści zbierają większość środków zamiast przekazywać je ofiarom katastrof, zgodnie z obietnicą. Oszustwo randkowe odnosi się do incydentów, w których oszust najpierw zaprzyjaźnia się i zdobywa zaufanie ofiary, zwykle za pośrednictwem portali społecznościowych lub czatów, a po nawiązaniu relacji oszust wykorzystuje przejmujące powody, aby przekonać ofiarę do wysłania jej pieniędzy. Fałszowanie stron internetowych i wiadomości e-mail to czynność polegająca na tworzeniu witryny internetowej, ruchu sieciowego, wiadomości e-mail lub wiadomości błyskawicznej, która wydaje się być uzasadniona, w celu skłonienia użytkowników komputerów do ujawnienia swoich poufnych informacji. Informacje są następnie wykorzystywane do popełniania przestępstw. W bardziej wyrafinowanym schemacie fałszowania stron internetowych oszust tworzyłby "podstępną kopię" sieci WWW, aby cały ruch ofiary przechodził przez system komputerowy oszusta w ten sposób pozwalając mu uzyskać dane osobowe i poufne ofiary. Warto zauważyć, że oszustwa internetowe są obecnie tak powszechne, że przewyższa liczbę wykroczeń drogowych obsewowanych każdego dnia na ulicach i autostradach.

Spamowanie

Spamowanie polega na wysyłaniu jednocześnie niechcianych wiadomości handlowych do dużej liczby osób. Spamowanie często odbywa się za pośrednictwem wiadomości e-mail, a osoba wysyłająca spam nazywana jest "spamerem". Yworzenie spamu obejmuje trzy rzeczy: (1) kuszącą wiadomość e-mail; (2) linki do dodatkowych internetowych źródeł treści; oraz (3) listę adresów e-mail. Listy adresów e-mail można uzyskać legalnie lub nielegalnie. Na przykład listy adresowe można uzyskać od firm, które nie zapewniają polityki prywatności w celu ochrony danych osobowych swoich klientów. Listy adresowe można również uzyskać za pomocą oprogramowania przeznaczonego do systematycznego wyszukiwania w witrynach internetowych adresów e-mail lub informacji kontaktowych. Listy adresów można również wykraść podczas hakowania. Najpopularniejszą i prawdopodobnie najskuteczniejszą metodą rozsyłania spamu są botnety. Spam jest uważany za poważny problem, ponieważ zajmuje dużo przepustowości sieci. Spam jest również uważany za niebezpieczny, ponieważ złośliwe oprogramowanie może być osadzone w oryginalnej wiadomości e-mail lub dołączone do niej. Gdy komputer jest zainfekowany złośliwym oprogramowaniem, szkodliwe oprogramowanie może uszkodzić system operacyjny komputera. Spam może również spowodować uszkodzenie komputera, gdy zostaną na niego wysłane ogromne ilości wiadomości e-mail, co jest taktyką znaną jako "bombardowanie poczty". Warto zauważyć, że spam może również pojawiać się za pośrednictwem wiadomości tekstowych wysyłanych na telefony komórkowe w procesie znanym jako "spimming".

Ataki typu "odmowa usługi"

Ataki typu "odmowa usługi" to działania mające na celu uniemożliwienie użytkownikom komputerów lub innym urządzeniom elektronicznym dostępu do systemów informatycznych lub ich źródeł. Proces ten zazwyczaj obejmuje zalewanie sieci komputerowej lub serwera nadmiarowymi wiadomościami z prośbą do sieci lub serwera o uwierzytelnienie żądań, które mają nieprawidłowe adresy zwrotne. Gdy sieć komputerowa lub serwer nie mogą znaleźć adresu zwrotnego, zwykle czeka z zamknięciem połączenia. W ataku typu denial-of-service, gdy tylko serwer zamyka połączenie, atakujący wysyła więcej żądań uwierzytelnienia z ponownie nieprawidłowymi adresami zwrotnymi, a wynikiem tego jest uniemożliwienie legalnym użytkownikom dostępu do aplikacji sieciowych lub potrzebnych usług. Jedna z form ataków typu "odmowa usługi", rozproszony atak typu "odmowa usługi" (DDoS), jest szczególnie niepokojące i groźne, ponieważ wiąże się z wykorzystaniem botnetów. W ataku DDoS może zostać zaatakowanych jednocześnie wiele sieci komputerowych znajdujących się w różnych lokalizacjach geograficznych za pośrednictwem tysięcy botnetów z wielu różnych źródeł. Jak wspomniano wcześniej, botnety są obecnie towarem, który można wypożyczyć lub kupić, i coraz częściej są wykorzystywane do przeprowadzania ataków na dużą skalę w celu zastraszenia, wymuszenia lub obezwładnienia określonych organizacji lub instytucji. Właśnie z tych powodów ataki typu "odmowa usługi" ogólnie, a w szczególności DDoS, stanowią najbardziej groźny rodzaj dzisiejszej przestępczości high-tech.

Cyberprzemoc, nękanie i prześladowanie

Cybernękanie, nękanie i prześladowanie to działania, które odbywają się za pośrednictwem technologii elektronicznej, w tym sprzętu i urządzeń elektronicznych (komputerów, tabletów i telefonów komórkowych) oraz narzędzi komunikacji online (portalów społecznościowych, wiadomości tekstowych, blogów, czatów i witryn internetowych). Cyberprzemoc, nękanie, stalking dotyka zarówno nastolatków, jak i dorosłych, ponieważ dorośli zgłaszali, że są ofiarami cyberprzemocy ze strony młodzieży. Przykłady cyberprzemocy obejmują bezduszne wiadomości tekstowe lub e-maile, zawstydzające zdjęcia, filmy lub fałszywe profile oraz plotki wysyłane pocztą elektroniczną lub publikowane w serwisach społecznościowych. Warto zauważyć, że dzieci, które są ofiarami cybernękania, również doświadczają nękania poza Internetem. Jeśli chodzi o cybernękanie, obecnie nie ma powszechnie akceptowanej definicji tego terminu. Cybernękanie jest trudne do zdefiniowania, ponieważ jest otwarte na interpretację. Cybernękanie można najlepiej traktować jako jeden z aspektów cyberprzemocy, obejmujący wykorzystanie poczty e-mail, komunikatorów, wiadomości tekstowych z telefonu komórkowego lub witryn internetowych w celu zaszkodzenia lub zaatakowania innej osoby lub grupy osób. Cyberstalking polega na korzystaniu z Internetu lub innych środków elektronicznych, aby wywołać u ofiary poczucie niepokoju, strachu lub złości poprzez powtarzające się groźby lub złośliwe zachowania. Chociaż różnica między nękaniem a prześladowaniem nie zawsze jest jasna, stwierdzono, że prześladowanie wiąże się z randkami i przemocą ze strony partnera.

Różnice między tradycyjną przestępczością a cyberprzestępczością

Cyberprzestępczość różni się od tradycyjnej przestępczości pod kilkoma ważnymi względami. Pierwszym z nich jest bliskość sprawcy i ofiary w przypadku popełnienia przestępstwa. Tradycyjne przestępstwa zazwyczaj obejmują zdarzenia twarzą w twarz, a nawet w przypadku komunikacji na odległość, takiej jak poczta ślimakowa, nadal konieczne jest, aby sprawca i ofiara spotkali się i skonsumowali przestępstwo. Cyberprzestępczość obejmuje zachowanie na odległość i jest popełniane w całości lub w części z wykorzystaniem technologii komputerowej lub elektronicznej. W związku z tym cyberprzestępczości brakuje niezbędnej bliskości sprawcy i ofiary, która charakteryzuje tradycyjną przestępczość. Po drugie, tradycyjna przestępczość jest zwykle przestępstwem jeden na jednego (lub przestępstwem, które rozpoczyna się, gdy wiktymizacja celu się rozpoczyna i kończy się, gdy wiktymizacja celu się kończy), podczas gdy cyberprzestępczość jest uważana za przestępstwo jeden do wielu przestępczość. Oznacza to, że cyberprzestępczość może zostać zautomatyzowana, a sprawca wykorzysta technologię do wykonania wielu działań przestępczych w określonym czasie. Po trzecie, jeśli chodzi o dowody, przestępczość tradycyjna obejmuje namacalne, fizyczne dowody, takie jak substancje ustrojowe, kule, włókna oraz zeznania świadków i podejrzanych. Ponieważ cyberprzestępczość jest przestępstwem popełnianym w cyberprzestrzeni, cyberprzestępczość obejmuje niematerialne, cyfrowe dowody, takie jak informacje przechowywane lub przesyłane w formie binarnej. Po czwarte, w porównaniu z tradycyjną przestępczością znacznie trudniej jest zidentyfikować i zatrzymać cyberprzestępców, ponieważ mogą oni wykorzystać technologię do ukrycia swojej tożsamości i fizycznej lokalizacji. Wreszcie, biorąc pod uwagę transnarodowy charakter wielu rodzajów cyberprzestępczości (sprawca może mieszkać w Afryce, a ofiara może znajdować się w Stanach Zjednoczonych), funkcjonariusze organów ścigania i prokuratorzy często borykają się z problemem granic jurysdykcji podczas prowadzenia dochodzeń i ścigania cyberprzestępczości.

Badanie i ściganie cyberprzestępczości

Informatyka śledcza to techniki zwykle stosowane w dochodzeniu i ściganiu cyberprzestępczości. Informatyka śledcza odnosi się do stosowania naukowych, rzetelnych procedur kryminalistycznych w gromadzeniu, analizie i prezentacji danych elektronicznych lub dowodów cyfrowych. Dowody cyfrowe to dowody w postaci danych pobranych z komputera, które dotyczą działalności lub zdarzenia przestępczego. Podobnie jak dowody rzeczowe, dowody cyfrowe muszą spełniać zasady dowodowe i procedury sądowe obowiązujące w systemie prawnym. W przeciwieństwie do materialnych, fizycznych dowodów, dowodów cyfrowych nie można zobaczyć, dotknąć ani powąchać. Dowody cyfrowe są również kruche i często trwają tylko przez bardzo krótkie okresy czasu. Cyfrowe dowody mogą również zostać łatwo zmienione lub zniszczone przez cyberprzestępców. Aby cyfrowe dowody mogły zostać pomyślnie przedstawione w sądach, funkcjonariusze organów ścigania i prokuratorzy muszą wykazać, że odzyskane dane są prawdziwymi odzwierciedleniem tego, co się wydarzyło, a także że nie zostały w żaden sposób zmodyfikowane przez intruza i/lub gromadzenie i badanie narzędzia. Funkcjonariusze organów ścigania i prokuratorzy również opierają się na ustawodawstwie i przepisach dotyczących cyberprzestępczości, aby zatrzymywać i ścigać cyberprzestępców. W Stanach Zjednoczonych, przed uchwaleniem ustawy Computer Fraud and Abuse Act z 1986 r., do zwalczania cyberprzestępczości stosowano przepisy dotyczące oszustw związanych z oszustwami internetowymi i pocztowymi. Ustawa o oszustwach i nadużyciach komputerowych z 1986 r. została początkowo uchwalona w celu ochrony niejawnych danych, dokumentacji finansowej i informacji kredytowych na komputerach rządowych i instytucji finansowych. Wraz z eskalacją zagrożenia cyberprzestępczością oraz ujawnieniem niedociągnięć i ograniczeń ustawy (ustawa miała zastosowanie wyłącznie do spraw dotyczących komputerów rządu lub niektórych instytucji finansowych lub spraw związanych z handlem międzystanowym) wprowadzono do ustawy kilka poprawek. Ustawa o oszustwach i nadużyciach komputerowych była zmieniana osiem razy, a najnowsza wersja ustawy kryminalizuje szereg dodatkowych przestępstw komputerowych, takich jak kradzież mienia przy użyciu komputera; akty zmiany, uszkadzania lub niszczenia danych należących do innych osób; oraz handel hasłami i podobnymi przedmiotami. Warto zauważyć, że kolejne akty prawne, takie jak USA PATRIOT Act, Identity Theft Enforcement and Restitution Act, Digital Millennium Copyright Act, Economic Espionage Act oraz CAN-SPAM Act zostały również przyjęte w celu rozwiązania problemu cyberprzestępczości. Być może największym wyzwaniem i głównym problemem związanym z prowadzeniem dochodzeń i ściganiem cyberprzestępczości jest kwestia granic jurysdykcji. Mówiąc dokładniej, skuteczne dochodzenie i ściganie cyberprzestępczości jest często utrudnione przez trzy czynniki: (1) brak przepisów karnych, (2) brak uprawnień proceduralnych oraz (3) brak wykonalnych przepisów o wzajemnej pomocy. Brak kwestii ustaw karnych jest związany z faktem, że nie wszystkie państwa czy narody na całym świecie mają przepisy kryminalizujące cyberprzestępczość. Problem braku władzy proceduralnej odnosi się do problemu, że wielu państwom i narodom często brakuje zasobów i narzędzi proceduralnych niezbędnych do prowadzenia śledztwa w sprawie cyberprzestępczości. Brak wykonalnych przepisów o wzajemnej pomocy wskazuje na brak współpracy międzynarodowej i współdziałania państw i narodów w zwalczaniu i zapobieganiu cyberprzestępczości. Aby zająć się kwestiami jurysdykcyjnymi wynikającymi z ewolucji cyberprzestępczości, zaproponowano i wdrożono kilka międzynarodowych inicjatyw. Jedną z godnych uwagi inicjatyw jest Rada Europejskiego Traktatu o Cyberprzestępczości, wielostronny projekt mający na celu ujednolicenie istniejących przepisów dotyczących cyberprzestępczości oraz ułatwienie międzynarodowej współpracy i współpracy w celu skutecznego ścigania cyberprzestępców. Członkostwo w radzie jest dobrowolne, a zainteresowane państwa i narody są zobowiązane do podpisania traktatu, który określa główny cel rady, jakim jest opracowanie wspólnej polityki kryminalnej w celu ochrony społeczeństwa przed cyberprzestępczością. Rada uznaje również, że osiągnięcie jej celu jest uzależnione od znalezienia rozwiązań kwestii jurysdykcyjnych. W związku z tym, aby rozwiązać problem braku ustaw karnych, rada wymaga od państw członkowskich przyjęcia odpowiedniego ustawodawstwa przeciwko cyberprzestępczości. Aby rozwiązać problem braku uprawnień proceduralnych, rada stanowi, że funkcjonariusze organów ścigania i prokuratorzy z państw członkowskich posiadają wymagane uprawnienia i narzędzia proceduralne do skutecznego prowadzenia dochodzeń i ścigania przestępstw cyberprzestępczych. Aby rozwiązać problem możliwej do wyegzekwowania wzajemnej pomocy, rada wymaga od państw członkowskich zapewnienia pomocy i współpracy innym państwom i narodom w dochodzeniu i ściganiu cyberprzestępczości.

Istotne

Obszary dochodzenia związane z cyberprzestępczością Zagrożenie cyberprzestępczością rośnie i ewoluuje. Chociaż przeprowadzono wiele badań na temat cyberprzestępczości, w istniejącej literaturze nadal istnieją znaczne luki. Rzeczywiście, istnieje kilka obszarów badań, które wymagają dodatkowych badań. Pierwszy obszar obejmuje uzyskanie wiarygodnych i aktualnych statystyk dotyczących rozpowszechnienia, charakteru, trendów i skutków - w szczególności skutków finansowych - cyberprzestępczości. Drugi obszar obejmuje prowadzenie badań w celu zbadania skuteczności i rozwoju technik kryminalistyki komputerowej w śledztwie i ściganiu cyberprzestępczości. Trzeci obszar obejmuje badanie i dokumentowanie najlepszych praktyk związanych ze współpracą i współpraca między podmiotami publicznymi i prywatnymi, a także między agencjami międzynarodowymi. Czwarty obszar obejmuje opracowanie ram teoretycznych i perspektyw dotyczących etiologii i wiktymizacji cyberprzestępczości. Piąty obszar obejmuje formułowanie i wdrażanie rozsądnych i skutecznych polityk publicznych oraz programów społecznych mających na celu zwalczanie i zapobieganie cyberprzestępczości. Szósty obszar obejmuje dostęp i ocenę użyteczności i wykonalności ustawodawstwa i przepisy dotyczące cyberprzestępczości w zwalczaniu tego rodzaju przestępczości. Siódmy obszar obejmuje badanie mniej powszechnych rodzajów cyberprzestępczości, takich jak cyberprzestępczość sponsorowana przez rząd i państwo. Ósmy i ostatni obszar dotyczy zbadania kwestii prywatności obywateli w dochodzeniu w sprawie cyberprzestępczości.


Powrót

Cyberszpiegostwo



Internet i cyberśrodowisko oferują bezprecedensowe możliwości wywiadu i szpiegostwa, nie tylko ze względu na luki w zabezpieczeniach lub naruszenia, ale także z powodu masowego dobrowolnego rozpowszechniania i udostępniania danych. Szpiegostwo zmieniło się radykalnie od początku XXI wieku, a inteligencja open source jest w dużym stopniu wykorzystywana. Duże ilości danych osobowych są dobrowolnie przekazywane do mediów społecznościowych, a sam rozmiar tych informacji z mediów społecznościowych tworzy zasoby wywiadowcze, zwłaszcza podczas agregowania, wnioskowania i analizowania wygenerowanej nowej wiedzy o okolicznościach i faktach, które nie były w zasięgu agencji wywiadowczych wcześniej. Ponadto rządy kontynuowały udostępnianie nieograniczonych danych w celu zwiększenia przejrzystości i odpowiedzialności oraz jako okazję do zwiększenia aktywności gospodarczej. W latach 90. firmy zaczęły wykorzystywać inteligencję open source do oceny konkurencyjności, oferty rynkowej i marketingu docelowego. Te praktyki biznesowe rozwijały się z biegiem czasu, a wraz z wprowadzeniem mediów społecznościowych na początku XXI wieku ilość dostępnych danych rosła z każdym rokiem. W tym wpisie omówiono historię cyberszpiegostwa, erozję prywatności w dobie big data oraz pojawiające się obawy o cyberszpiegostwo.

Historia cyberszpiegostwa

Od czasów starożytnych do czasów współczesnych szpiegostwo borykało się z jednym poważnym wyzwaniem: ograniczonymi informacjami. Wywiad i szpiegostwo stały się sztuką zdobywania informacji. Wykorzystanie szpiegów, grup zwiadowczych, tajnych działań i operacji inwigilacyjnych opierało się na kunszcie zbierania informacji, który uformował służby wywiadowcze i ich przodków. Informacje były skąpe i ukryte. Dwa ostatnie wydarzenia zmieniły brak informacji. Po pierwsze, Internet uwolnił ogromną ilość informacji, które są tak obfite, że ich strukturyzacja, analiza i weryfikacja stały się głównymi wyzwaniami. Po drugie, rządy i podmioty prywatne zaczęły dobrowolnie rozpowszechniać informacje, do których wcześniej nie można było dotrzeć otwartymi środkami. Programy rządowe, zwane Open Government i Open Data, udostępniają ogromne ilości danych w ramach przejrzystości i odpowiedzialności rządu. Open Government koncentruje się na dostępie do danych rządowych w celu zwiększenia odpowiedzialności, przejrzystości i nadzoru; tymczasem, Open Data ma miejsce, gdy rządy dostarczają społeczeństwu dane do odczytu maszynowego z sektora publicznego, aby społeczeństwo mogło eksplorować, interpretować i wykorzystywać dane bez ograniczeń. Rozwój mediów społecznościowych można uznać za dobrowolne rozpowszechnianie, w ramach którego jednostki dobrowolnie dzielą się informacjami i danymi o sobie i swojej sieci społecznościowej. Ilość danych generowanych i przechowywanych w środowisku online rośnie w niespotykanym dotąd tempie. Zmiany te reprezentują zmianę w podstawowej strukturze sposobu gromadzenia i agregowania informacji w celu wsparcia procesów decyzyjnych. Kluczowym wyzwaniem nie jest już to, jak pozyskiwać dane, ale raczej to, jak zrozumieć i nadać sens zbyt dużej ilości informacji. Internet oferował znaczną aktywność cyberprzestępczą, która poszukuje informacji w celu uzyskania korzyści ekonomicznych. Cyberprzestępczość i sponsorowane przez państwo operacje cybernetyczne wrogich państw mogą być dwiema stronami tej samej monety. Cyberprzestępcy to specjaliści od nakłaniania ludzi do ujawniania swoich sekretów, takich jak hasła lub akceptowania złośliwego oprogramowania na swoich komputerach, co prowadzi do naruszenia bezpieczeństwa komputera i otwierania drzwi do kont użytkowników, aby umożliwić sprawcom wykorzystanie dostępu do swoich celów. Jeśli kraj będący wrogiem kraju demokratycznego prowadzi działalność cyberprzestępczą wymierzoną w ten kraj demokratyczny, podczas gdy sam przeciwny kraj poszukiwał innowacyjnych sposobów gromadzenia informacji o kraju demokratycznym, prawdopodobnie ktoś dostrzeże okazję do współpracy agencji wywiadowczej i cyberprzestępców. Większość krajów będących przeciwnikami krajów otwartych i demokratycznych, jeśli nie wszystkie, to reżimy totalitarne. Państwa totalitarne mają tendencję do postrzegania interesu państwa jako interesu nadrzędnego. Bardziej logiczne jest, aby państwo totalitarne wykorzystywało działalność cyberprzestępczą jako narzędzie do zdobywania wiedzy o metodach socjoinżynieryjnych i wykorzystywało zagregowaną wiedzę z syndykatów przestępczych dla własnych korzyści, zamiast tłumienia działalności przestępczej przez organy ścigania. Jeśli cyberprzestępczość nie jest wymierzona we własną populację wrogiego kraju, jest prawdopodobnie przyjmowana jako "przedsięwzięcie biznesowe", o ile wspiera państwo informacją. W przypadku Rosji i Chin istnieje znacząca aktywność cyberprzestępcza, ale ograniczone egzekwowanie prawa w celu stłumienia działalności przestępczej; tymczasem tłumienie internetowej opozycji i działalności uważanej za zagrożenie dla elity rządzącej jest szybkie i szybkie. Brak zainteresowania dochodzeniem, ściganiem i tłumieniem cyberprzestępczości prowadzonej przez Rosję i Chiny wskazuje na trwającą symbiozę między przestępcami a państwowymi agencjami wywiadowczymi. Obywatele Stanów Zjednoczonych mają tendencję do zakładania, że inne kraje przestrzegają swojego kodeksu etyki, rozumowania prawnego i oddzielania działalności legalnej od nielegalnej, ale nie każdy stan przestrzega tych standardów. Zagregowane informacje dotyczące cyberprzestępców nie tylko dostarczają wiedzy o posiadaczach kont w USA, ale są również źródłem znacznego transferu wiedzy z sektora przestępczego do agencji, które prowadzą sponsorowane przez państwo cyberoperacje. Z perspektywy państwa totalitarnego ma to sens, o ile cyberprzestępcy atakują i wykorzystują konta w obcych krajach, które nie wpływają na totalitarne państwo macierzyste. Niezdolność kilku totalitarnych lub pseudototalitarnych państw do stłumienia cyberprzestępczości jest sprzeczna z ich tradycyjną zdolnością do rozprawiania się z krajową opozycją, nielegalnym handlem, dewiacyjnymi zachowaniami i działalnością religijną. Powód, dla którego państwa te nie powiodły się w planowanych próbach ograniczenia cyberprzestępczości, można prawdopodobnie znaleźć w uzasadnieniu państwa totalitarnego: państwa te nie chcą wyeliminować cyberprzestępców, ponieważ wyświadczają państwu totalitarnej przysługę. Przestępcy opracowują narzędzia i procedury oraz dostarczają stały strumień przydatnych informacji dla agencji wywiadowczych, bez żadnych kosztów dla państwa totalitarnego. W ramach tej symbiozy cyberprzestępcy są chronieni przed ekstradycją, ściganiem i pociąganiem do odpowiedzialności za swoje działania.

Bitwa algorytmów

Przestrzeń walki w wojnie informacyjnej i rywalizacji wywiadowczej w coraz większym stopniu to bitwa algorytmów, w której dane i informacje nie są już czynnikiem ograniczającym, ale poziomem doskonałości algorytmów analitycznych. Kiedy algorytmy staną się kluczowe dla sukcesu, osoby, które je tworzą, będą miały ogromne znaczenie dla jego sukcesu. Duże programy eksploracji danych są wynikiem pracy zespołowej setek uczestników, ale te zespoły mają kluczowe przywództwo techniczne, które jest ważne dla sukcesu. Dlatego projekty tych algorytmów i narzędzi wyszukiwania stają się narodowymi aktywami i celami dla zagranicznych podmiotów, które mogą zrozumieć, skopiować i przeprowadzić inżynierię wsteczną w swoich tajnych operacjach. Jeśli dane nie są już czynnikiem ograniczającym, zrozumienie i zrozumienie danych staje się kluczowe dla sukcesu

Utrata prywatności i megakradzież danych

Jest mało prawdopodobne, aby prywatność została zachowana w połączonym świecie, w którym wymienia się, przechowuje, agreguje i stale wyciąga wnioski z danych masowych, w których informacje umożliwiające identyfikację można podzielić na szczegółowe zachowanie danej osoby. Istnieją tajemnice, które prywatny obywatel może zachować, ponieważ niewielu dba o informacje, które odnoszą się do danej osoby. Zwiększona agregacja danych w dużych repozytoriach tworzy lukę, jeśli nie jest odpowiednio zabezpieczona. Można to zilustrować przypadkiem naruszenia danych amerykańskiego Biura Zarządzania Personelem (OPM) w 2015 r. W tym przypadku miliony akt osobowych pracowników federalnych zostały skradzione przez zagranicznego aktora. Akta te zawierały szczegółowe informacje o pracownikach, ponieważ były to zagregowane informacje, które służyły jako podstawa poświadczenia bezpieczeństwa. W aktach znajdowały się informacje o wcześniejszych miejscach zamieszkania, adresy, nazwiska i adresy referencyjne, numery ubezpieczenia , a nawet połączone pliki odcisków palców. OPM opisuje rozmiar naruszenia w następujący sposób:

W czerwcu 2015 r. firma OPM odkryła, że skradziono dokumenty z dochodzenia w sprawie obecnych, byłych i przyszłych pracowników i kontrahentów federalnych. OPM i międzyagencyjny zespół reagowania na incydenty z dużą pewnością doszli do wniosku, że poufne informacje, w tym numery ubezpieczenia społecznego (SSN) 21,5 miliona osób, zostały skradzione z baz danych dochodzeniowych. Obejmuje to 19,7 miliona osób, które złożyły wniosek o przeprowadzenie dochodzenia w przeszłości, oraz 1,8 miliona osób nie składających wniosku, głównie małżonków lub konkubentów wnioskodawców. Niektóre zapisy zawierają również ustalenia z wywiadów przeprowadzonych przez śledczych, a około 5,6 miliona zawiera odciski palców. Skradziono również nazwy użytkowników i hasła, których kandydaci do dochodzenia w przeszłości używali do wypełniania formularzy dochodzenia w przeszłości. (Centrum zasobów cyberbezpieczeństwa, 2015)

W miarę jak systemy stają się szersze i coraz więcej węzłów i urządzeń jest podłączanych do sieci, powierzchnia docelowa wzrasta. Wiele sieci korporacyjnych jest obecnie tak dużych, że trudno jest określić ich granice, zwłaszcza że mogą one wychodzić poza kontrolowane środowisko z powodu słabej lub złej konfiguracji. Następuje również zmiana pokoleniowa, dzięki której młodsze pokolenie jest przyzwyczajone nie tylko do zużywania ogromnych ilości danych, ale także do przenoszenia, przechowywania i udostępniania danych w sieciach i środowiskach. Tradycyjne modele bezpieczeństwa informacji są przeznaczone dla ograniczonych sieci. Bezpieczeństwo informacji rozwinęło swoje podstawowe elementy w latach 80. i zostało udoskonalone w latach 90. XX wieku. Jednym z przykładów są kryteria oceny bezpieczeństwa technologii informacyjnej, które są wykorzystywane do oceny sprzętu i funkcji pod kątem ich poziomu bezpieczeństwa i są stale rozwijane w nowoczesne "wspólne kryteria". Skupienie się na poszczególnych elementach wyposażenia stwarza obawy o bezpieczeństwo w szerszej perspektywie. Z punktu widzenia bezpieczeństwa głównym problemem nie jest pojedynczy używany sprzęt, ale sam rozmiar sieci i suma wszystkich złych konfiguracji i złej oceny użytkowników. Gdy system miał 50 urządzeń i trzy punkty wejścia, ocena bezpieczeństwa była prawdopodobnie dokładna. Zespół ewaluacyjny mógł w pełni zrozumieć wszystkie funkcjonalności, sprzęt i procesy w systemie. Dzisiaj pracownicy biurowi mają laptopa, smartfona i komputer stacjonarny, wszystkie podłączone do Internetu. Drukarki są połączone bezprzewodowo z siecią, drzwi otwierają się po instrukcji bezprzewodowej, a procesy produkcyjne i biurowe są sterowane przez bezprzewodowe systemy wbudowane, takie jak Internet Rzeczy. Większe organizacje mogą mieć setki tysięcy, a nawet miliony urządzeń podłączonych do sieci i w zasięgu Internetu. Powierzchnia docelowa szybko się rozrosła, ponieważ coraz więcej urządzeń łączy się za pośrednictwem połączeń bezprzewodowych. Kierownictwo wykonawcze, zarówno korporacyjne, jak i w sektorze publicznym, musi określić, jakie kluczowe informacje są ważne dla organizacji, a które należy zachować w tajemnicy. Ponieważ ochrona systemów na wysokim poziomie bezpieczeństwa staje się niepraktyczna i kosztowna, trudno jest odróżnić dane poufne od danych nieograniczonych. Identyfikacja zasobów i analiza wpływu na biznes to narzędzia pozwalające określić, co naprawdę ma znaczenie w organizacji i stanowią podstawę klasyfikacji bezpieczeństwa informacji. Powód jest prosty. W przyszłości należy założyć, że wszystkie informacje, które nie są w wysokim stopniu zabezpieczone środkami obronnymi, będą dostępne dla podmiotów zagranicznych i innych podmiotów. Wysiłek na rzecz ochrony informacji wymagałby wówczas procesów i procedur podobnych do wrażliwych informacji podzielonych na przedziały, aby zapewnić, że informacje są przechowywane z wysokim poziomem bezpieczeństwa.

Utrzymanie legalności w cyfrowym świecie

Ponieważ rządy korzystają z e-administracji, legitymizacja staje się wyzwaniem. Aby utrzymać nowoczesny, stabilny, demokratyczny rząd, legitymacja, zaufanie wymagają, aby opinia publiczna zrozumiała, że rząd działa w interesie wyborców. Internet i sieci społecznościowe są narzędziami prognozowania sukcesów rządu. Legitymacja dotyczy nie tylko tego, kto może przewodzić, ale także tego, kto może rządzić. W dobie internacjonalizacji i globalizacji żaden rząd nie będzie w stanie odizolować się od wydarzeń światowych. Internet daje ludziom siłę, zwiększając przejrzystość i zwiększając poczucie własnej skuteczności politycznej wśród obywateli. Ilość informacji, jakie może uzyskać rząd, jest ogromna; jednak samo to nie przekłada się automatycznie na zaufanie i zaufanie wśród obywateli. Rządy znajdują się pod presją cyfrowego świata, w którym rośnie zapotrzebowanie na udostępnianie danych. Udostępnianie danych zapewnia również bezprecedensowy wgląd w wewnętrzne funkcjonowanie społeczeństwa i daje każdej zagranicznej agencji wywiadowczej możliwość przeprowadzenia znacznie bardziej zaawansowanej oceny wywiadowczej niż była w zasięgu wcześniejszych metod szpiegowskich. Dychotomia otwartych danych, która z jednej strony jest korzyścią dla społeczeństwa, a z drugiej wektorem ataku dla zagranicznych służb wywiadowczych, ilustruje złożoność świata sieciowego. Dążenie do odpowiedzialności i przejrzystości w celu zapewnienia stabilnego i akceptowanego rządu, co jest niezbędne do akceptacji rządu w erze cyfrowej, jest paradoksalnie okazją dla potencjalnego przeciwnika do zdobycia głębokiej wiedzy o społeczeństwie danego narodu, o jego wewnętrznych zasadach. rząd i plan jego infrastruktury technologicznej. Ten cyfrowy rozdźwięk między rządem a obywatelami, gdy legitymacja, autorytet i zaufanie do rządu nie są już namacalnie widoczne, staje się okazją do cyberszpiegostwa, czego przykładem są liczne próby wpłynięcia na wybory prezydenckie w USA w 2016 r. za pomocą fałszywych wiadomości, zhakowanych e-maili, zhakowanych serwery oraz operacje informacyjne w mediach społecznościowych od podmiotów i organizacji zagranicznych. Zwiększona złożoność spraw światowych daje wpływ na fałszywe wiadomości i operacje informacyjne w mediach społecznościowych, ponieważ opinia publiczna na ogół ma ograniczone faktyczne zrozumienie rzeczywistości i jest podatna na wysoki stopień dezinformacji.

Utrzymanie wyraźnego obrazu

Cyberszpiegostwo jest teraz powiązane nie tylko z wydobywaniem i analizą informacji, ale także z operacjami informacyjnymi i ukrytym zniekształcaniem informacji i nastrojów w docelowych populacjach. Sieć WWW, serwisy społecznościowe, blogi, stronnicze strony internetowe przedstawiające określony pogląd, nielegalne serwisy informacyjne i wirusowe rozprzestrzenianie się historii o kontrowersyjnych tematach zapraszają do każdego zagranicznego podmiotu, który stara się wpłynąć na sentyment i postrzeganie docelowego narodu. Internet służy jako młyn plotek politycznych, w którym wypowiedzi przepływają kaskadowo przez sieci, a ich aktualność nie może być łatwo zweryfikowana. Podczas zimnej wojny obca agencja wywiadowcza musiała zatrudnić, z pewnym ryzykiem, redaktora jako agenta wpływu, który wykorzysta swoją pozycję, aby wpłynąć na opinię publiczną w docelowym społeczeństwie. Dziś, dzięki Internetowi, zagraniczne agencje wywiadowcze mogą wpływać na społeczeństwo ze swoich krajowych urzędów z niewielkim ryzykiem. Nie tylko ryzyko jest ograniczone, ale także prawdopodobieństwo narażenia jest marginalne, a próg angażowania się w tajne cyberoperacje w celu wpłynięcia na populację docelową jest niski w porównaniu z tradycyjną pracą wywiadowczą. Czynniki te sprawiają, że zachęca się do wykorzystywania tajnych operacji cybernetycznych do osiągania celów wywiadowczych i szpiegowskich, zwłaszcza gdy atakuje się otwarte społeczeństwo demokratyczne. W wyborach prezydenckich w USA w 2016 r. opublikowanie "e-maili Podesta", pochodzących ze zhakowanego konta e-mail kierownika kampanii Hillary Clinton, Johna Podesty, i opublikowanych przez WikiLeaks, miało bezpośredni wpływ na powszechne nastroje i społeczne postrzeganie Demokratów. Impreza. Uwolnienie dziesiątek tysięcy e-maili, które ujawniły nie tylko działania za zamkniętymi drzwiami kampanii Clintona, ale także opinie i komentarze pracowników na temat innych Demokratów, dziennikarzy oferujących pomoc dla większego dobra kampanii oraz komentarze pracowników na temat faktyczna sprawność ich własnego kandydata miała znaczący wpływ na wybory. Szybko zmieniający się krajobraz wiadomości tworzony przez media społecznościowe i internetowe serwisy informacyjne jest podatny na wstrzykiwanie plotek, operacje informacyjne i poszukiwanie wpływów ze strony zagranicznych agencji wywiadowczych. Podczas kampanii w Gruzji w 2008 roku Rosja intensywnie wykorzystywała fake newsy. Było to również widoczne podczas rosyjskich operacji separatystycznych na wschodzie Ukrainy, gdzie sprawę separatystów wspierały operacje informacyjne zorganizowane przez rosyjskie agencje wywiadowcze.

Przyszłość cyberszpiegostwa

Ogromne ilości danych generowanych online są zachęcające, a inteligencja typu open source jest coraz częściej wybierana do gromadzenia danych wywiadowczych. Poleganie na cyberinteligencji ma wady. Ludzie działają i zachowują się w sieci w określony sposób, który nie musi być odzwierciedlony w ich regularnych zachowaniach. Stronniczość jest głównym problemem przy interpretowaniu informacji uzyskanych z cyberkanałów, ponieważ sposób, w jaki analizujemy i interpretujemy duże zbiory danych, odzwierciedla naszą stronniczość i może wzmacniać fałszywe wyobrażenia o rzeczywistych wydarzeniach. Myślenie grupowe i stronniczość mogą pojawiać się w różnych formach. Zamiast zdobywać nowe informacje, możemy wpaść w pułapkę zadawania pytań o dane lub projektowania algorytmów, które szukają odpowiedzi na zjawiska, które uważamy za ważne i istotne. Internet jest zachęcającym środowiskiem dla służb wywiadowczych w porównaniu z tradycyjnymi formami wywiadu. Istnieje kilka powodów, dla których prawdopodobne jest zwiększenie zainteresowania cyberszpiegostwem i operacjami informacyjnymi. Po pierwsze, jest opłacalny. Każda agencja wywiadowcza musi ocenić zwrot inwestycji z wydanych środków. Niskie inwestycje i wysoki zwrot ze szpiegostwa internetowego również zwiększają skuteczność tradycyjnej ludzkiej inteligencji. Internet i naruszone zasoby informacyjne dostarczają informacji o tym, kto jest podatny i prawdopodobnie podatny na podejście, i zaoferuje, że zostanie szpiegiem. Informacje te ograniczają ryzyko, że tajna operacja zostanie naruszona i wykryta. Po drugie, wciąż ograniczona atrybucja działa na korzyść aktywnego zbierania danych wywiadowczych, więc jeśli zarzuty o tajne operacje wyjdą na jaw, agencja wywiadu może je odrzucić lub zignorować, ponieważ dowody najprawdopodobniej nie zostaną zebrane przez śledczego. Po trzecie, cyberszpiegostwo ujawnia informacje, które dostarczają nowych informacji na temat docelowej organizacji lub kraju. Jeśli ważne wydarzenie ma wpływ na organizację, poprzez analizę sieci i metadane z ruchu przez telefony komórkowe, agencja wywiadowcza może stworzyć obraz, komu można zaufać organizacji w sytuacji kryzysowej. Oczekuje się, że dane wywiadowcze gromadzone za pośrednictwem Internetu będą zyskiwać na znaczeniu w ciągu następnych dziesięcioleci, głównie ze względu na ciągłe udostępnianie i agregowanie danych generowanych przez Internet, które są masowe, niedrogie i dostępne.




Powrót

Cyberinfrastruktura



Pojęcie "cyberinfrastruktury" wywodzi się z badań z lat 80. i 90. nad superkomputerami o dużej mocy obliczeniowej i przetwarzaniem siatkowym o wspólnych celach. Dzisiaj cyberinfrastruktura odnosi się do wielkoskalowych sieci obliczeniowych wykorzystywanych przez interdyscyplinarnych badaczy i administratorów do uzyskiwania nowatorskich informacji poprzez szybkie udostępnianie zasobów danych. Jak można powiedzieć po nazwie, cyberinfrastruktura to połączenie słów cyber (odnoszących się do komputerów) i infrastruktury (podstawowa struktura organizacyjna); w uproszczeniu, cyberinfrastruktura oznacza coś w rodzaju "organizacji zasobów obliczeniowych". Aktualizacja starszych, głównie fizycznych infrastruktur (np. systemów autostrad, mostów, linii kolejowych, sieci elektrycznej), cyberinfrastruktury zapewniają wirtualne i fizyczne połączenia między superkomputerami, bazami danych, oprogramowaniem, badaczami i instytucjami za pośrednictwem Internetu. Ostatecznym celem większości cyberinfrastruktur jest pobudzanie innowacji, odkryć naukowych i wzrostu wiedzy poprzez łączenie ogromnych ilości rozproszonych danych na duże odległości, co pozwala naukowcom na wzajemne analizowanie danych i przeprowadzanie nowych eksperymentów lub testowanie teorii. Cyberinfrastruktury dostarczają również potencjalnych rozwiązań kilku praktycznych problemów, takich jak zwiększone bezpieczeństwo i oszczędności ekonomiczne. Ten wpis analizuje funkcje i komponenty cyberinfrastruktury, sposób, w jaki wspierają one rozwój wiedzy, oraz niektóre przyszłe kierunki badań.

Funkcja cyberinfrastruktury

Cyberinfrastruktury są wykorzystywane w celu maksymalizacji dostępu do badań naukowych oraz zachęcania do większej współpracy i zaangażowania wielu interesariuszy, w tym środowisk naukowych, rządów, sektora prywatnego, a czasem społeczeństwa. Cyberinfrastruktury są uwzględniane w propozycjach i mandatach rządowych na całym świecie (np. Inicjatywa Cyberinfrastruktury Kanadyjskiej Fundacji na rzecz Innowacji) i nadal stanowią rozwijający się temat, który zmienia rozwój wiedzy i zakłóca całe branże. Podczas gdy projekty badawcze obejmujące masową cyfryzację, szybki transfer danych, modelowanie obliczeniowe i współpracę stały się powszechne, projekty dotyczące cyberinfrastruktury zostały spopularyzowane w 2003 r. wraz z opublikowaniem ważnego raportu amerykańskiej Narodowej Fundacji Nauki (NSF) zatytułowanego Revolutionizing Science and Engineering Through Cyberinfrastructure: Raport National Science Foundation Blue-Ribbon Advisory Panel on Cyberinfrastructure. Jako takie, słowo cyberinfrastruktura jest zwykle używane w kontekstach północnoamerykańskich (szczególnie przez amerykańskie agencje finansujące, np. NSF), podczas gdy alternatywne terminy, takie jak eScience, są zwykle używane w miejscach takich jak Europa.

Komponenty Cyberinfrastruktury

Elementy cyberinfrastruktury obejmują wielkoskalowe sieci komputerowe i ich części, ale cyberinfrastruktura składa się również z zespołów ludzkich badaczy, którzy korzystają z sieciowych narzędzi obliczeniowych. W tym sensie cyberinfrastruktury są rozproszonymi systemami socjotechnicznymi, których badacze używają do przekazywania danych. Elementy cyberinfrastruktury obejmują różnorodne nowe technologie informacyjno-komunikacyjne (ICT), takie jak algorytmy, sztuczna inteligencja i uczenie maszynowe; ontologie do oznaczania i organizowania heterogenicznych danych; relacyjne bazy danych do przechowywania dużych ilości danych; aplikacje, metody i procedury dotyczące dużych zbiorów danych; superkomputerowe centra danych; oprogramowanie do wizualizacji danych; oraz sieci i sieci m.in. Dalsze komponenty mogą obejmować podmioty takie jak agencje, badacze, instytucje i obywatele. Cyberinfrastruktury i ich komponenty mają kształtować historię, teraźniejszość i przyszłe kierunki otwartej nauki (otwarty dostęp do projektów i praktyk naukowych, w tym dzielenie się danymi i zasobami naukowymi); w jaki sposób dane naukowe przyczyniają się do krajowej i międzynarodowej wymiany wiedzy za pośrednictwem technologii informacyjno-komunikacyjnych, takich jak Internet; oraz jak otwarta nauka wpływa na życie naukowców i obywateli poprzez rozpowszechnianie danych.

Innowacje i wzrost wiedzy

Głównym powodem budowania cyberinfrastruktury jest wzrost wiedzy poprzez łatwe rozpowszechnianie, wykorzystanie, integrację, skalowalność i analizę zbiorów danych. Pomysł polega na stworzeniu dużych sieci obliczeniowych, które mogą pomóc naukowcom w udostępnianiu i interpretacji danych, prowadząc do nowych odkryć i innowacji. Wizja NSF, nakreślona w Cyberinfrastructure Framework for 21st Century Science and Engineering (2012), zawiera nadrzędne cele, które obejmują nacisk na nowe praktyki badawcze między nauką a inżynierią w celu przyspieszenia projektów transformacyjnej cyberinfrastruktury, pragnienie zintegrowanej i skalowalnej cyberinfrastruktury w celu stworzenia krajowej infrastruktury danych oraz wezwanie do zrównoważonego rozwoju, rozwoju społeczności i zmiany praktyki. Cyberinfrastruktury nadal przyczyniają się do innowacji i postępu wiedzy w fundamentalny sposób: promują otwartą naukę poprzez dostarczanie infrastruktur danych naukowych na dużą skalę; tworzenie sieci organizacji zaangażowanych w otwartą naukę na poziomie lokalnym, krajowym i globalnym; zwiększyć gromadzenie danych poprzez zachęcanie do udziału większej liczby osób; oraz pomagać w identyfikowaniu, interpretowaniu i rozpowszechnianiu zaleceń dotyczących polityki opartych na spostrzeżeniach zebranych w trakcie procesu badawczego.

Przykłady

Począwszy od 2014 roku, rząd Kanady zainwestował 3 miliony dolarów w ciągu 3 lat, aby pomóc w uruchomieniu nowego instytutu otwartych danych o nazwie Canadian Open Data Exchange. Kanadyjski plan działania nakreślił trzy rezultaty, które mają zostać zrealizowane przez Open Data Exchange do końca 2016 r. Obejmowały one (1) opracowanie i opublikowanie ogólnorządowego Planu Wdrożenia Otwartej Nauki zawierającego informacje na temat konsultacji publicznych, publikacji, polityk i standardów w otwartym dostępie ; (2) stworzenie spisu ICT, w którym będą przechowywane federalne dane naukowe i zainicjowanie publicznego udostępniania danych oraz (3) opracowanie planu prowadzenia internetowej listy artykułów autorstwa kanadyjskich naukowców rządowych. Zamiarem było udostępnienie danych z badań naukowych wszystkim naukowcom i społeczeństwu korzystającemu z Internetu. Apelując o cyberinfrastrukturę, w której można by przechowywać dane naukowe finansowane przez rząd federalny, rząd Kanady miał nadzieję na ułatwienie innowacji naukowych i rozwój wiedzy. Podobne propozycje pojawiły się w Stanach Zjednoczonych i Wielkiej Brytanii. Na wczesnym etapie rozwoju cyberinfrastruktury odniosły największe sukcesy w dziedzinie geografii. Projekt GeoConnections (krajowa inicjatywa partnerska kierowana przez Natural Resources Canada) doprowadził do opracowania kanadyjskiej infrastruktury danych geoprzestrzennych, cyberinfrastruktury, która ułatwia udostępnianie informacji geoprzestrzennych (informacje opisujące lokalizację i nazwy obiektów poniżej, na lub nad powierzchni ziemi) związane z położeniem geograficznym w Kanadzie. Geopołączenia i kanadyjska infrastruktura danych geoprzestrzennych zostały zaprojektowana w celu ułatwienia większego dostępu do informacji geoprzestrzennych i korzystania z nich dla wielu interesariuszy w rządzie, sektorze prywatnym, środowisku akademickim i organizacjach pozarządowych. Długoterminowym celem GeoConnections jest pomoc wielu krajowym i międzynarodowym interesariuszom w podejmowaniu lepszych decyzji społecznych, ekonomicznych i środowiskowych.

Badania nad cyberinfrastrukturą

Istnieje wiele instytucji i osób prowadzących badania z wykorzystaniem cyberinfrastruktury w swojej codziennej działalności, a także prowadzących badania związane z rozwojem samych cyberinfrastruktur. Wiele z tych prac nad cyberinfrastrukturą jest wykonywanych w dyscyplinie geografii, chociaż zaczyna się ona pojawiać w dziedzinach takich jak komunikacja, a konkretnie w rozwijającej się dziedzinie badań znanej jako "nauka o zespole". Odpowiednia literatura naukowa na temat zbiegu otwartej nauki, otwartego dostępu i infrastruktur danych naukowych szybko rośnie, szczególnie tych zainteresowanych danymi naukowymi jako organizacjami socjotechnicznymi, taksonomiami danych i infrastrukturami informacyjnymi oraz wymiarami polityki związanymi z wieloma perspektywami interesariuszy w Internecie i Otwórz dane. Badania nad studiami przypadków cyberinfrastruktury mogą dostarczyć wielopoziomowych analiz organizacji i kierunków polityki cyberinfrastruktury. Potencjalne przyszłe prace nad cyberinfrastrukturą dostarczą nowych przykładów opartych na przypadkach analiz infrastruktur danych naukowych, w szczególności dotyczących ich powiązania z otwartą nauką.


Powrót

Cyberoptymizm i cyberpesymizm



Uczeni, którzy badali interakcje między Internetem a społeczeństwem, mieli bardzo różne interpretacje Internetu i tego, jak zmienia on społeczeństwo, począwszy od libertariańskiej wizji utopii opisanej przez Johna Perry&prime'ego Barlowa w "Deklaracji niepodległości cyberprzestrzeni" do dystopijnego koszmaru wszechobecnej inwigilacji, przed którym ostrzegał Simon Davies, dyrektor Privacy International. Poszczególne stanowiska tak zwanych cyberoptymistów i cyberpesymistów dotyczą tego, czy nowe media ułatwiają lub ograniczają obywatelskie próby uczestnictwa w życiu politycznym oraz czy politycy wykorzystują nowe media do manipulowania obywatelami, a nie tylko do przekazywania ich przesłania. W swojej książce The Net Delusion z 2011 r. Jewgienij Morozow omówił, w jaki sposób Internet może być używany zarówno przez rewolucjonistów, jak i autorytarnych, aby Internet nie był z natury środkiem wyzwolenia. Ten wpis analizuje debatę na temat wpływu Internetu, w szczególności nowych mediów, na demokrację. Przygląda się również, w jaki sposób informacje są rozpowszechniane za pośrednictwem nowych mediów i debaty nad skutkami cenzury Internetu w Chinach.

Rozprzestrzenianie się informacji i wpływ na demokrację

Cyberoptymiści, tacy jak Rachel Kay Gibson i Stephen Ward, argumentują, że obywatele mogą wykorzystywać nowe media do promowania, a nawet organizowania demokratycznych ruchów społecznych. Tunezyjczycy wykorzystali media społecznościowe, takie jak Twitter, aby szerzyć ruch demokratyczny i przeciwdziałać oficjalnej propagandzie podczas Jaśminowej Rewolucji w 2010 roku, która doprowadziła do obalenia wieloletniego prezydenta Zine El Abidine Ben Alego. Sinikka Sassi przekonuje, że obywatele wykorzystują media społecznościowe do organizowania działań pozarządowych, co jest kluczowym elementem społeczeństwa obywatelskiego. Sugeruje to, że nowe media oferują słabszym obywatelom nową przestrzeń do organizowania się i refleksji (mniej wpływowi obywatele odnoszą się tu do jednostek, które mają ograniczoną zdolność do nawiązywania kontaktów z aktorami politycznymi i wpływania na podejmowanie decyzji). W 2012 roku Pew Research Center poinformowało, że 66% użytkowników mediów społecznościowych w Stanach Zjednoczonych uczestniczyło w co najmniej jednym z ośmiu działań obywatelskich lub politycznych online, takich jak zachęcanie ludzi do głosowania lub zamieszczanie komentarzy politycznych. Ten rodzaj aktywności internetowej skłonił cyberoptymistów do twierdzenia, że użytkownicy mediów społecznościowych mogą do pewnego stopnia kształtować programy kampanii wyborczych. Nowe media zapewniają także politykom cenne możliwości bezpośredniego dotarcia do potencjalnych wyborców. Na przykład zwycięstwo wyborcze Baracka Obamy w wyborach prezydenckich w USA w 2008 r. przynajmniej częściowo opierało się na udanym wykorzystaniu serwisów społecznościowych, takich jak MySpace i Facebook. Interaktywna komunikacja internetowa w znacznym stopniu umożliwiła społeczeństwu kontrolowanie i krytykowanie systemu wyborczego, który odgrywa kluczową rolę w demokratycznym porządku politycznym. Platformy mediów społecznościowych, takie jak Facebook, Twitter i chińska platforma Weibo, zapewniły obywatelom więcej możliwości kształtowania agendy publicznej i wywarły wpływ na opinię publiczną, bezpośrednio lub pośrednio. Katrin Voltmer zwróciła uwagę na współzależności między trzema typami aktorów politycznych: (1) polityków, (2) obywateli i (3) mediów. Badania wykazały również, że nowe media mogą skutecznie zachęcać do demokratycznego udziału społeczeństwa i debaty. Niektórzy internauci mogą teraz działać jako dziennikarze obywatelscy, przekazując informacje, których uznane organizacje informacyjne nie zauważyły lub nie uznały za warte opublikowania. W niektórych przypadkach poszczególni użytkownicy mogą szybciej rozpowszechniać informacje za pośrednictwem mediów społecznościowych niż za pośrednictwem tradycyjnych mediów. W ponad 20% ze 100 najważniejszych sytuacji kryzysowych w Chinach w 2012 roku informacje były początkowo rozpowszechniane przez obywateli za pośrednictwem mediów społecznościowych. Na przykład w przypadku trzęsienia ziemi w Syczuanie w 2012 r. wydarzenie było transmitowane na Weibo 6 minut wcześniej niż na jakiejkolwiek innej platformie informacyjnej. Cyberoptymiści sugerują, że demokrację wzmacniają działania blogerów i mikroblogerów, którzy publikują artykuły polityczne, analizują raporty rządowe i tworzą reportaże wraz z profesjonalnymi dziennikarzami. Wiadomości i informacje polityczne są rozpowszechniane szybciej, podczas gdy na programy informacyjne w znacznym stopniu wpływają obywatele, a nie tylko organizacje informacyjne lub osoby sprawujące władzę. Zmiany te sugerują, że udział obywateli w życiu politycznym za pośrednictwem nowych mediów odgrywa znaczącą rolę w trwającym procesie demokratyzacji. Z drugiej strony są tacy, którzy utrzymująże "Internet jest wykorzystywany głównie w celu zwiększenia wydajności, a nie zwiększania odpowiedzialności, przejrzystości i uczestnictwa". Eugenia Siapera określiła wszelkie zdobycze polityczne związane z demokracją deliberatywną jako niejednoznaczne. Cyberpesymiści twierdzą, że nowe media mogą pogorszyć sytuację, gdy są wykorzystywane do manipulowania obywatelami, umacniania dyktatorów i grożenia dysydentom. Cyberpesymiści twierdzą, że nowe medialne interakcje między politykami a obywatelami są iluzją, co sugeruje konieczność włożenia więcej wysiłku w obserwację tego, czego w tych interakcjach brakuje. Naukowcy wykazali, że kandydaci i wybierani urzędnicy wykorzystują media do rozpowszechniania informacji, a nie do otrzymywania informacji zwrotnych od obywateli. Podobnie Barry Hague i Brian Loader zasugerowali, że nowe media są postrzegane przez polityków po prostu jako bardziej bezpośredni sposób kontaktowania się z wyborcami i manipulowania nimi. Odzwierciedla to krytykę zaawansowanych demokracji liberalnych, która polega na tym, że politycy zbyt często izolują się lub nie reagują na jednostki, w imieniu których ostentacyjnie działają. Oprócz tego argumentu, znaczna ilość dezinformacji rozprzestrzeniła się za pośrednictwem mediów społecznościowych podczas kampanii prezydenckiej w USA w 2016 roku, z których część została obwiniana za rosyjskie próby manipulowania wyborami. Raport z amerykańskich źródeł wywiadowczych w styczniu 2017 r. ujawnił, że setki rosyjskich "trolli" lub płatnych użytkowników mediów społecznościowych opublikowało wiadomości, które miały zmniejszyć szanse demokratycznej kandydatki na prezydenta Hillary Clinton. Doug Schuler argumentował, że rządy nie są zainteresowane badaniem nowych możliwości demokratycznego uczestnictwa, zauważając, że "na konferencji Massachusetts Institute of Technology poświęconej demokracji i Internetowi Ira Magaziner, główny doradca Białego Domu ds. Internetu, wychwalał zalety e- handel; nie zmarnowano ani jednego słowa na demokrację" . Ralph Negrine i James Stanyer przedstawili podobnie pesymistyczny punkt widzenia, twierdząc, że obywatele, w tym dziennikarze obywatelscy czy blogerzy, niewiele zrobili, aby wykorzystać nowe media do wzmocnienia społeczeństwa obywatelskiego na poziomie wewnętrznym. Władzę nowych mediów nadal posiadają tradycyjni aktorzy polityczni. Ponadto cyberpesymiści twierdzą, że "potencjał nowych mediów w ułatwianiu demokracji będzie nieuchronnie ograniczony przez kwestię dostępu" (Zhao, 2014, s. 3). Status ekonomiczny jednostki, położenie geograficzne i wykształcenie mają wpływ na to, czy mogą one uczestniczyć w komunikacji politycznej za pośrednictwem mediów społecznościowych. W większości krajów dostęp do Internetu jest ograniczony do osób zamożnych i dobrze wykształconych, a często także do mężczyzn. Według Schulera, realistyczna nadzieja na wzrost demokratyzacji jest realna tylko wtedy, gdy w ruch zaangażowana jest duża liczba ludzi. I tylko wtedy, gdy istnieje podwyższona świadomość i poczucie konieczności i możliwości, może nastąpić jakakolwiek poważna zmiana i reorientacja.

Debata na temat wpływu cenzury w Internecie

W niektórych krajach, takich jak Chiny, władze mają różne opinie na temat wpływu cenzury Internetu. Komunistyczna Partia Chin kontroluje komunikację internetową poprzez system ograniczania informacji znany jako Wielka Chińska Zapora Sieciowa. Serwisy społecznościowe, takie jak YouTube i Facebook oraz międzynarodowa wyszukiwarka Google, są blokowane przez mechanizm filtrowania sieci. Wielu internautów w Chinach zaczęło blogować, ale zazwyczaj ograniczają swoje posty do osób zajmujących się sprawami związanymi ze stylem życia i są bardzo ostrożni, gdy omawiają w Internecie sprawy polityczne. Uważa się, że ścisła cenzura w Chinach poważnie ogranicza kreatywność i wolność słowa chińskich obywateli w Internecie, powodując, że cyberpesymiści twierdzą, że nowe media nie przyczyniają się do bardziej demokratycznego społeczeństwa w Chinach. Chińscy cyberoptymiści twierdzą, że regulacja treści online jest w Chinach konieczna i zagrażałaby stabilności państwa, gdyby obywatele mieli pełny dostęp do wszystkich kanałów komunikacji z rządem. Cyberoptymiści twierdzą również, że ścisła cenzura uniemożliwia osobom z zewnątrz szpiegowanie chińskich organizacji i systemów politycznych. Utrzymują, że chociaż kontrolę sprawuje Chińska Partia Komunistyczna, Chiny czerpią korzyści zarówno gospodarczo, jak i politycznie z Internetu. Cheng Chen i współpracownicy rzucają światło na przypadek grupy użytkowników mediów społecznościowych opłacanych przez polityków i organizacje polityczne; władze chciałyby wykorzystać tę grupę do rozpowszechniania informacji w Internecie w celu kształtowania opinii obywateli na temat wydarzeń społecznych i politycznych. Archon Fung i współpracownicy zauważają, że stan zatrudnił profesjonalnych pisarzy w imieniu rządu centralnego, aby pomóc w zapewnieniu głosu władzy i przyczynić się do oddolnej kontroli poprzez pośrednie zarządzanie każdym zakątkiem internetowych czatów w Chinach kontynentalnych, Hongkongu i Makau.

Znaczenie debaty nad nowymi mediami

Dyskusja między cyberoptymistami a cyberpesymistami zaowocowała "debatą nad tym, czy demokrację należy uważać za koncepcję dwustronną, służącą reformowaniu władzy narodowej i restrukturyzacji społeczeństwa obywatelskiego" (Held, 1996, s. 316). Debata na temat wkładu nowych mediów w demokrację zdominowana jest przez dwie wielkie narracje. Po pierwsze, nowe media wzmacniają społeczeństwo, służąc obywatelom, którzy angażują się w proces podejmowania decyzji. Drugi przedstawia nowe media jako środki umożliwiające władzom manipulowanie narodem w sposób odgórny lub oddolny. Niezależnie od tego, czy ostatecznie uzna się, że nowe media wywarły pozytywny czy negatywny wpływ na politykę, sama debata jest ważna dla wzmocnienia podstawowego poczucia przynależności do społeczeństwa demokratycznego i uczestnictwa w nim.

Cyberoptymizm i cyberpesymizm Uczeni, którzy badali interakcje między Internetem a społeczeństwem, mieli bardzo różne interpretacje Internetu i tego, jak zmienia on społeczeństwo, począwszy od libertariańskiej wizji utopii opisanej przez Johna Perry&prime'ego Barlowa w "Deklaracji niepodległości cyberprzestrzeni" do dystopijnego koszmaru wszechobecnej inwigilacji, przed którym ostrzegał Simon Davies, dyrektor Privacy International. Poszczególne stanowiska tak zwanych cyberoptymistów i cyberpesymistów dotyczą tego, czy nowe media ułatwiają lub ograniczają obywatelskie próby uczestnictwa w życiu politycznym oraz czy politycy wykorzystują nowe media do manipulowania obywatelami, a nie tylko do przekazywania ich przesłania. W swojej książce The Net Delusion z 2011 r. Jewgienij Morozow omówił, w jaki sposób Internet może być używany zarówno przez rewolucjonistów, jak i autorytarnych, aby Internet nie był z natury środkiem wyzwolenia. Ten wpis analizuje debatę na temat wpływu Internetu, w szczególności nowych mediów, na demokrację. Przygląda się również, w jaki sposób informacje są rozpowszechniane za pośrednictwem nowych mediów i debaty nad skutkami cenzury Internetu w Chinach.

Rozprzestrzenianie się informacji i wpływ na demokrację

Cyberoptymiści, tacy jak Rachel Kay Gibson i Stephen Ward, argumentują, że obywatele mogą wykorzystywać nowe media do promowania, a nawet organizowania demokratycznych ruchów społecznych. Tunezyjczycy wykorzystali media społecznościowe, takie jak Twitter, aby szerzyć ruch demokratyczny i przeciwdziałać oficjalnej propagandzie podczas Jaśminowej Rewolucji w 2010 roku, która doprowadziła do obalenia wieloletniego prezydenta Zine El Abidine Ben Alego. Sinikka Sassi przekonuje, że obywatele wykorzystują media społecznościowe do organizowania działań pozarządowych, co jest kluczowym elementem społeczeństwa obywatelskiego. Sugeruje to, że nowe media oferują słabszym obywatelom nową przestrzeń do organizowania się i refleksji (mniej wpływowi obywatele odnoszą się tu do jednostek, które mają ograniczoną zdolność do nawiązywania kontaktów z aktorami politycznymi i wpływania na podejmowanie decyzji). W 2012 roku Pew Research Center poinformowało, że 66% użytkowników mediów społecznościowych w Stanach Zjednoczonych uczestniczyło w co najmniej jednym z ośmiu działań obywatelskich lub politycznych online, takich jak zachęcanie ludzi do głosowania lub zamieszczanie komentarzy politycznych. Ten rodzaj aktywności internetowej skłonił cyberoptymistów do twierdzenia, że użytkownicy mediów społecznościowych mogą do pewnego stopnia kształtować programy kampanii wyborczych. Nowe media zapewniają także politykom cenne możliwości bezpośredniego dotarcia do potencjalnych wyborców. Na przykład zwycięstwo wyborcze Baracka Obamy w wyborach prezydenckich w USA w 2008 r. przynajmniej częściowo opierało się na udanym wykorzystaniu serwisów społecznościowych, takich jak MySpace i Facebook. Interaktywna komunikacja internetowa w znacznym stopniu umożliwiła społeczeństwu kontrolowanie i krytykowanie systemu wyborczego, który odgrywa kluczową rolę w demokratycznym porządku politycznym. Platformy mediów społecznościowych, takie jak Facebook, Twitter i chińska platforma Weibo, zapewniły obywatelom więcej możliwości kształtowania agendy publicznej i wywarły wpływ na opinię publiczną, bezpośrednio lub pośrednio. Katrin Voltmer zwróciła uwagę na współzależności między trzema typami aktorów politycznych: (1) polityków, (2) obywateli i (3) mediów. Badania wykazały również, że nowe media mogą skutecznie zachęcać do demokratycznego udziału społeczeństwa i debaty. Niektórzy internauci mogą teraz działać jako dziennikarze obywatelscy, przekazując informacje, których uznane organizacje informacyjne nie zauważyły lub nie uznały za warte opublikowania. W niektórych przypadkach poszczególni użytkownicy mogą szybciej rozpowszechniać informacje za pośrednictwem mediów społecznościowych niż za pośrednictwem tradycyjnych mediów. W ponad 20% ze 100 najważniejszych sytuacji kryzysowych w Chinach w 2012 roku informacje były początkowo rozpowszechniane przez obywateli za pośrednictwem mediów społecznościowych. Na przykład w przypadku trzęsienia ziemi w Syczuanie w 2012 r. wydarzenie było transmitowane na Weibo 6 minut wcześniej niż na jakiejkolwiek innej platformie informacyjnej. Cyberoptymiści sugerują, że demokrację wzmacniają działania blogerów i mikroblogerów, którzy publikują artykuły polityczne, analizują raporty rządowe i tworzą reportaże wraz z profesjonalnymi dziennikarzami. Wiadomości i informacje polityczne są rozpowszechniane szybciej, podczas gdy na programy informacyjne w znacznym stopniu wpływają obywatele, a nie tylko organizacje informacyjne lub osoby sprawujące władzę. Zmiany te sugerują, że udział obywateli w życiu politycznym za pośrednictwem nowych mediów odgrywa znaczącą rolę w trwającym procesie demokratyzacji. Z drugiej strony są tacy, którzy utrzymująże "Internet jest wykorzystywany głównie w celu zwiększenia wydajności, a nie zwiększania odpowiedzialności, przejrzystości i uczestnictwa". Eugenia Siapera określiła wszelkie zdobycze polityczne związane z demokracją deliberatywną jako niejednoznaczne. Cyberpesymiści twierdzą, że nowe media mogą pogorszyć sytuację, gdy są wykorzystywane do manipulowania obywatelami, umacniania dyktatorów i grożenia dysydentom. Cyberpesymiści twierdzą, że nowe medialne interakcje między politykami a obywatelami są iluzją, co sugeruje konieczność włożenia więcej wysiłku w obserwację tego, czego w tych interakcjach brakuje. Naukowcy wykazali, że kandydaci i wybierani urzędnicy wykorzystują media do rozpowszechniania informacji, a nie do otrzymywania informacji zwrotnych od obywateli. Podobnie Barry Hague i Brian Loader zasugerowali, że nowe media są postrzegane przez polityków po prostu jako bardziej bezpośredni sposób kontaktowania się z wyborcami i manipulowania nimi. Odzwierciedla to krytykę zaawansowanych demokracji liberalnych, która polega na tym, że politycy zbyt często izolują się lub nie reagują na jednostki, w imieniu których ostentacyjnie działają. Oprócz tego argumentu, znaczna ilość dezinformacji rozprzestrzeniła się za pośrednictwem mediów społecznościowych podczas kampanii prezydenckiej w USA w 2016 roku, z których część została obwiniana za rosyjskie próby manipulowania wyborami. Raport z amerykańskich źródeł wywiadowczych w styczniu 2017 r. ujawnił, że setki rosyjskich "trolli" lub płatnych użytkowników mediów społecznościowych opublikowało wiadomości, które miały zmniejszyć szanse demokratycznej kandydatki na prezydenta Hillary Clinton. Doug Schuler argumentował, że rządy nie są zainteresowane badaniem nowych możliwości demokratycznego uczestnictwa, zauważając, że "na konferencji Massachusetts Institute of Technology poświęconej demokracji i Internetowi Ira Magaziner, główny doradca Białego Domu ds. Internetu, wychwalał zalety e- handel; nie zmarnowano ani jednego słowa na demokrację" . Ralph Negrine i James Stanyer przedstawili podobnie pesymistyczny punkt widzenia, twierdząc, że obywatele, w tym dziennikarze obywatelscy czy blogerzy, niewiele zrobili, aby wykorzystać nowe media do wzmocnienia społeczeństwa obywatelskiego na poziomie wewnętrznym. Władzę nowych mediów nadal posiadają tradycyjni aktorzy polityczni. Ponadto cyberpesymiści twierdzą, że "potencjał nowych mediów w ułatwianiu demokracji będzie nieuchronnie ograniczony przez kwestię dostępu" (Zhao, 2014, s. 3). Status ekonomiczny jednostki, położenie geograficzne i wykształcenie mają wpływ na to, czy mogą one uczestniczyć w komunikacji politycznej za pośrednictwem mediów społecznościowych. W większości krajów dostęp do Internetu jest ograniczony do osób zamożnych i dobrze wykształconych, a często także do mężczyzn. Według Schulera, realistyczna nadzieja na wzrost demokratyzacji jest realna tylko wtedy, gdy w ruch zaangażowana jest duża liczba ludzi. I tylko wtedy, gdy istnieje podwyższona świadomość i poczucie konieczności i możliwości, może nastąpić jakakolwiek poważna zmiana i reorientacja.

Debata na temat wpływu cenzury w Internecie

W niektórych krajach, takich jak Chiny, władze mają różne opinie na temat wpływu cenzury Internetu. Komunistyczna Partia Chin kontroluje komunikację internetową poprzez system ograniczania informacji znany jako Wielka Chińska Zapora Sieciowa. Serwisy społecznościowe, takie jak YouTube i Facebook oraz międzynarodowa wyszukiwarka Google, są blokowane przez mechanizm filtrowania sieci. Wielu internautów w Chinach zaczęło blogować, ale zazwyczaj ograniczają swoje posty do osób zajmujących się sprawami związanymi ze stylem życia i są bardzo ostrożni, gdy omawiają w Internecie sprawy polityczne. Uważa się, że ścisła cenzura w Chinach poważnie ogranicza kreatywność i wolność słowa chińskich obywateli w Internecie, powodując, że cyberpesymiści twierdzą, że nowe media nie przyczyniają się do bardziej demokratycznego społeczeństwa w Chinach. Chińscy cyberoptymiści twierdzą, że regulacja treści online jest w Chinach konieczna i zagrażałaby stabilności państwa, gdyby obywatele mieli pełny dostęp do wszystkich kanałów komunikacji z rządem. Cyberoptymiści twierdzą również, że ścisła cenzura uniemożliwia osobom z zewnątrz szpiegowanie chińskich organizacji i systemów politycznych. Utrzymują, że chociaż kontrolę sprawuje Chińska Partia Komunistyczna, Chiny czerpią korzyści zarówno gospodarczo, jak i politycznie z Internetu. Cheng Chen i współpracownicy rzucają światło na przypadek grupy użytkowników mediów społecznościowych opłacanych przez polityków i organizacje polityczne; władze chciałyby wykorzystać tę grupę do rozpowszechniania informacji w Internecie w celu kształtowania opinii obywateli na temat wydarzeń społecznych i politycznych. Archon Fung i współpracownicy zauważają, że stan zatrudnił profesjonalnych pisarzy w imieniu rządu centralnego, aby pomóc w zapewnieniu głosu władzy i przyczynić się do oddolnej kontroli poprzez pośrednie zarządzanie każdym zakątkiem internetowych czatów w Chinach kontynentalnych, Hongkongu i Makau.

Znaczenie debaty nad nowymi mediami

Dyskusja między cyberoptymistami a cyberpesymistami zaowocowała "debatą nad tym, czy demokrację należy uważać za koncepcję dwustronną, służącą reformowaniu władzy narodowej i restrukturyzacji społeczeństwa obywatelskiego" (Held, 1996, s. 316). Debata na temat wkładu nowych mediów w demokrację zdominowana jest przez dwie wielkie narracje. Po pierwsze, nowe media wzmacniają społeczeństwo, służąc obywatelom, którzy angażują się w proces podejmowania decyzji. Drugi przedstawia nowe media jako środki umożliwiające władzom manipulowanie narodem w sposób odgórny lub oddolny. Niezależnie od tego, czy ostatecznie uzna się, że nowe media wywarły pozytywny czy negatywny wpływ na politykę, sama debata jest ważna dla wzmocnienia podstawowego poczucia przynależności do społeczeństwa demokratycznego i uczestnictwa w nim.



Powrót

Cybernetyczne bezpieczeństwo



Zdolność Internetu do przesyłania danych z dużą szybkością i niskimi kosztami znacząco zmieniła interakcje społeczne i polityczne oraz sposób organizacji i prowadzenia biznesu. Jednak niezależnie od tego, jak korzystne może być rozpowszechnianie technologii cyfrowych w coraz większej liczbie aspektów życia, wzrasta również ich niewłaściwe wykorzystanie. Według raportu IBM i Instytutu Ponemon w 2015 roku wykryto o 38% więcej incydentów związanych z bezpieczeństwem niż w roku poprzednim. W 2015 r. ujawniono ponad 169 milionów danych osobowych, co wynika z 781 publikowanych naruszeń w sektorach finansowym, biznesowym, edukacyjnym, rządowym i opieki zdrowotnej, zgodnie z raportem z Identity Theft Resource Center. Krótko mówiąc, Internet ma problem z bezpieczeństwem. Cyberbezpieczeństwo to jedno podejście ukierunkowane na przeciwdziałanie problemowi bezpieczeństwa w Internecie. W tym wpisie przyjrzymy się definicjom cyberbezpieczeństwa oraz trendom zarówno w naukach technologicznych, jak i społecznych badania nad cyberbezpieczeństwem. Niepewność infrastruktury informacyjnej zaczęła zwracać uwagę w kręgach politycznych w połowie lat 90. XX wieku. Rozprzestrzenianie się technologii informacyjnych na coraz więcej aspektów życia zwiększyło możliwości i zachęty do złośliwego wykorzystywania. Statystyki dotyczące cyberprzestępczości nie tylko pokazują rosnące szkody gospodarcze, ale także społeczność polityczna zajmująca się bezpieczeństwem zaczęła koncentrować się na powiązaniu cyberprzestrzeni z infrastrukturą krytyczną. Infrastruktura krytyczna to obiekty i usługi, których przedłużająca się niedostępność kryje w sobie potencjał poważnych kryzysów, zarówno politycznych, jak i społecznych. Często wymieniane sektory infrastruktury krytycznej to m.in. bankowość i finanse, usługi rządowe, telekomunikacja i technologie informacyjno-komunikacyjne (ICT), służby ratunkowe i ratownicze, energia i elektryczność, służba zdrowia, transport, logistyka i dystrybucja oraz zaopatrzenie w wodę. Powszechne stosowanie niezabezpieczonych systemów sterowania opartych na oprogramowaniu do ich płynnej, niezawodnej i ciągłej pracy stworzyło nowy rodzaj problemu bezpieczeństwa. Cyberprzestrzeń może być postrzegana zarówno jako mnożnik podatności, jak i mnożnik siły - jako cel (ryzyko dla cyberprzestrzeni) i broń (ryzyko przez cyberprzestrzeń). Ta kombinacja i powódź naruszeń bezpieczeństwa były kluczowymi warunkami promowania cyberbezpieczeństwa na pierwszy plan w krajowych i międzynarodowych kwestiach bezpieczeństwa. Zamiast traktować cyberbezpieczeństwo jako kwestię, którą można w wystarczającym stopniu zarządzać środkami technicznymi, prawnymi lub regulacyjnymi, państwa podchodzą również do niepewności cyberprzestrzeni poprzez politykę wojskową, sprawy zagraniczne i klasyczną dyplomację.

Cyberbezpieczeństwo: definicje i zasady

Chociaż nie ma merytorycznych debat na temat technologicznego znaczenia cyberbezpieczeństwa, toczące się walki definicyjne w świecie polityki ujawniają rozbieżne wartości i interesy, które utrudniają zawieranie umów. Zwłaszcza postępująca militaryzacja problemu ma zauważalny wpływ na to, jak problem jest rozumiany i jak jest badany. Ustalenie wspólnego słownictwa staje się znacznie trudniejsze, gdy problem wyrwany zostanie z kontekstu technicznego i potraktowany jako kwestia polityczna. W krajowych i międzynarodowych debatach politycznych interesy biurokratyczne i rozbieżne wartości związane zarówno z cyberprzestrzenią, jak i bezpieczeństwem znajdują się w samym sercu walki o znalezienie wspólnych rozwiązań.

Uzgodnienia techniczne

Jedną z najczęstszych (i powszechnie akceptowanych) definicji jest to, że cyberbezpieczeństwo to zestaw technologii, procesów i praktyk zaprojektowanych w celu ochrony sieci, komputerów, programów i danych przed atakiem, uszkodzeniem lub nieautoryzowanym dostępem, zgodnie z powszechnymi informacjami cele bezpieczeństwa: ochrona poufności, integralności i dostępności informacji (tzw. triada CIA). Granice między ściśle powiązanymi terminami, takimi jak bezpieczeństwo internetowe, bezpieczeństwo sieci i bezpieczeństwo komputerowe, są niejasne, ale rzadko omawiane. To, że znaczenie cyberbezpieczeństwa opartego na poufności, integralności i dostępności informacji jest dobrze akceptowane, potwierdzają cztery standardy oparte na triadzie CIA wydane przez Międzynarodową Organizację Normalizacyjną (ISO). Definiuje również cyberbezpieczeństwo lub bezpieczeństwo cyberprzestrzeni jako "zachowanie poufności, integralności i dostępności informacji w cyberprzestrzeni" (ISO/IEC [Międzynarodowa Komisja Elektrotechniczna] 27032 2012). ISO jest niezależną, pozarządową organizacją międzynarodową zrzeszającą 163 krajowe organy normalizacyjne, których dobrowolne programy wdrożeniowe zapewniają szerokie przyjęcie i zgodność ze złożonymi, wysoce technicznymi normami. Ma znaczną moc definicyjną, ponieważ jest w stanie przekształcić definicje w praktyki (poprzez standardy). Porównanie definicji cyberbezpieczeństwa na poziomie państw pokazuje, że większość z nich również opiera się na triadzie CIA. Jednak niektóre kraje nadają swojej definicji wyraźnie strategiczny akcent. Należą do nich Francja, Niemcy, Arabia Saudyjska, Stany Zjednoczone i Wielka Brytania. Na przykład Wielka Brytania ustanawia związek między cyberprzestrzenią a interesami narodowymi: "Bezpieczeństwo cybernetyczne obejmuje zarówno ochronę interesów Wielkiej Brytanii w cyberprzestrzeni, jak i dążenie do szerszej polityki bezpieczeństwa Wielkiej Brytanii poprzez wykorzystanie wielu możliwości, jakie oferuje cyberprzestrzeń". Rzeczywiście, wiele narodów w coraz większym stopniu skupia się na strategiczno-wojskowych aspektach cyberbezpieczeństwa, często w reakcji na postrzegane narastanie ofensywnych zdolności cybernetycznych przez innych, co prowadzi do tego, co niektórzy badacze nazwali postępującą militaryzacją cyberprzestrzeni. W związku z rozwojem tej polityki niektórzy badacze wyszli poza stosunkowo ograniczone granice sieci technicznych i definiują cyberbezpieczeństwo jako bezpieczeństwo, z którego korzysta się w cyberprzestrzeni i poza nią, ustanawiając w ten sposób kontekst bezpieczeństwa narodowego. W informatyce termin bezpieczeństwo oznacza pojęcie techniczne ("bezpieczeństwo informacji"). Zapewne ta koncepcja ma niewiele wspólnego z typem bezpieczeństwa, którym interesują się stosunki międzynarodowe i badaczy bezpieczeństwa, tradycyjnie związany z przetrwaniem i środkami wyjątkowymi, takimi jak siła militarna. Jednak specyficzne skojarzenia związane z bezpieczeństwem narodowym są tworzone przez połączenie prefiksu cyber z innymi kwestiami związanymi z bezpieczeństwem, takimi jak wojna, terror, broń lub odstraszanie. W ten sposób aspekt techniczny cyberprzestrzeni zostaje bezpośrednio połączony z tradycyjnymi formami przemocy, w celach ofensywnych i defensywnych. W przeciwieństwie do terminu cyberbezpieczeństwo, wokół tych podpojęć i tego, jak powinniśmy je rozumieć, toczy się znacznie więcej debat definicyjnych, ale debaty te wykraczają poza zakres tego wpisu.

Debata na temat polityki krajowej i międzynarodowej

W świecie polityki walka o definicje jest istotną, głęboko polityczną kwestią. Z jednej strony często nie ma krajowego konsensusu: różne agencje rządowe opracowały dokumenty dotyczące polityki, w których cyberbezpieczeństwo (i powiązane terminy) są definiowane w różny sposób. Nie jest to zaskakujące, ponieważ definicje są zawsze zależne od kontekstu. Również trudności w znalezieniu wspólnej płaszczyzny są symptomatyczne dla kwestii, które mobilizują różnych interesariuszy z różnych sektorów o rozbieżnych interesach. Odzwierciedlają również biurokratyczne wojny o terytorium o ograniczone zasoby. Jednak wraz z niedawnymi próbami wielu państw scentralizowania podejścia do cyberbezpieczeństwa poprzez strategie krajowe najwyższego szczebla lub przynajmniej koordynację działań między agencjami, pojawiają się bardziej oficjalne (skonsolidowane) definicje. W sferze międzynarodowej znalezienie wspólnego języka jest jeszcze bardziej skomplikowane. Tam definicje leżą u podstaw wszelkiego możliwego konsensusu między podmiotami państwowymi. O tym znaczeniu świadczy m.in. umowa podpisana w 2013 r. przez uczestniczące w niej państwa Organizacji Bezpieczeństwa i Współpracy w Europie o ograniczeniu ryzyka konfliktu wynikającego z wykorzystania technologii informacyjno-komunikacyjnych. Umowa wzywa uczestniczące państwa do dostarczenia listy terminów związanych z bezpieczeństwem i wykorzystaniem technologii informacyjno-komunikacyjnych wraz z wyjaśnieniem lub definicją każdego terminu. Wspomniana militaryzacja i związane z nią myślenie "o sumie zerowej" utrudniają współpracę między państwami, przynajmniej w niektórych obszarach problemowych. Sytuację pogarszają fundamentalne różnice w pojmowaniu przez państwa przedmiotu bezpieczeństwa (tego, co wymaga ochrony). Wykazano, że różne przekonania o cechach sfery technologicznej bezpośrednio przekładają się na przekonania dotyczące jego rządzości i odpowiednich reakcji politycznych. Szczególnie ważne dla polityki międzynarodowej jest to, co badacze określili jako "fundamentalny rozdźwięk między euroatlantyckim poglądem na bezpieczeństwo informacji a podejściem Rosji i Chin" . Rosja i Chiny postrzegają zarówno ludzki umysł, jak i systemy informacyjne jako klucz do koncepcji bezpieczeństwa informacyjnego, która wykracza daleko poza zachodnie skupienie się na infrastrukturze krytycznej (informacyjnej) i ma daleko idące implikacje dla polityki na wszystkich poziomach. Co więcej, eksperci podkreślają, że w Rosji i Chinach cyberbezpieczeństwo nie polega na ochronie firm i ludzi, ale państw i terytoriów. Takie pozycjonowanie problemu koliduje ze stanowiskiem euroatlantyckim (publicznym), które propaguje cyberprzestrzeń jako "wolną i otwartą przestrzeń, skutecznie zarządzaną samodzielnie przez szerokie grono interesariuszy". Jednak wraz ze wspomnianą "militaryzacją" domeny zachodnie rządy uważają się za upoważnione do podejmowania bardziej autorytatywnych decyzji. Ogólnie rzecz biorąc, doprowadziło to do pogorszenia postrzegania korzyści płynących z Internetu, przy czym korzyści są przyćmione przez pułapki. Ma to, jak pokazano w następnej sekcji, istotny wpływ na badania.

Trendy w badaniach nad cyberbezpieczeństwem

Cyberbezpieczeństwo to nowy, ale szybko rozwijający się kierunek studiów, zdominowany przez naukowców z dziedziny informatyki i inżynierii oraz poszukiwanie lepszych rozwiązań w zakresie bezpieczeństwa. Cyberbezpieczeństwo ma szczególne znaczenie, ponieważ ma to zarówno techniczne, jak i polityczne implikacje. Literatura na temat cyberbezpieczeństwa jest definiowana zarówno przez chęć znalezienia rozwiązań widocznego problemu, jakim jest niepewność infrastruktury informatycznej, jak i przez próby lepszego zrozumienia różnych aspektów ryzyka. Aby uzyskać solidną podstawę empiryczną do omówienia ogólnych trendów badawczych, wpis wykorzystuje dane z dwóch znanych baz danych naukowych: Web of Science (WoS) i Scopus. Połączenie tych dwóch zmniejszy negatywne nastawienie do nauk społecznych, sztuki i humanistyki, o których wiadomo, że są niedostatecznie reprezentowane w WoS. Oprócz wyszukiwań dotyczących bezpieczeństwa cybernetycznego przeprowadzono również wyszukiwania dotyczące bezpieczeństwa internetowego, aby móc spojrzeć na cyberbezpieczeństwo w szerszym kontekście. We wrześniu 2016 r. w bazie danych WoS znajdowało się 744 wpisów dotyczących cyberbezpieczeństwa i 805 wpisów dotyczących bezpieczeństwa internetowego, co wskazuje, że oba tematy są niemal równie ważne. Można jednak zauważyć, że cyberbezpieczeństwo nie istniało jako temat badań przed 2002 rokiem, podczas gdy bezpieczeństwo internetowe zaczęto badać w połowie lat 90. XX wieku. To czas, kiedy Internet zmienił się poprzez komercjalizację, a następnie stał się znacznie bardziej rozpowszechniony, co zmieniło zakres problemu. W obu tematach obserwuje się znaczny wzrost liczby pozycji badawczych w latach 2012-2013, przy czym szczególnie duży wzrost w latach 2014-2015 w przypadku cyberbezpieczeństwa. Odzwierciedla to rosnące znaczenie tego tematu w świecie polityki, czego przykładem jest wysoce wyrafinowane złośliwe oprogramowanie, takie jak Stuxnet, które podkreślało zaangażowanie podmiotów państwowych w cyberagresję, a następnie podnosiło kwestię na nowy poziom pilności. Scopus ogólnie potwierdza ten trend (tab. 1). W obu bazach większość artykułów ukazała się w czasopiśmie IEEE Security and Privacy (WoS: 6%; Scopus: 7,6%). W obu bazach Stany Zjednoczone znajdują się na szczycie listy 10 krajów, w których badania nad cyberbezpieczeństwem i bezpieczeństwem internetowym pochodzą z dużym marginesem, zwłaszcza w przypadku cyberbezpieczeństwa, gdzie pochodzi ponad 50% znalezionych artykułów. W bazie danych WoS za Stanami Zjednoczonymi plasują się Chiny zarówno pod względem bezpieczeństwa cybernetycznego, jak i internetowego (tabela 2), przy czym przepaść między tymi dwoma krajami jest ogromna w przypadku cyberbezpieczeństwa, ale niezbyt duża w przypadku bezpieczeństwa internetowego. Wyniki różnią się nieco w bazie danych Scopus w przypadku cyberbezpieczeństwa, prawdopodobnie z powodu dużej liczby "niezdefiniowanych" wpisów (20%). Tutaj Stany Zjednoczone również prowadzą w rankingu ze znaczną przewagą (56%), ale Wielka Brytania (4,6%) wyprzedza Chiny (2,3%). W przypadku wyszukiwanego hasła Internet Security ranking i ogólne wartości procentowe są niemal identyczne zarówno w przypadku WoS, jak i Scopus. Spojrzenie na 10 najważniejszych dyscyplin, w których umiejscowione są badania, ujawnia wyraźną dominację informatyki i inżynierii w WoS (tabela 3), trend potwierdzony przez Scopus. W przypadku cyberbezpieczeństwa rząd i prawo zajmują trzecie miejsce pod względem liczby publikacji w WoS, a stosunki międzynarodowe na 10 miejscu (nie pokazano w tabeli 3). W bazie Scopus nauki społeczne znajdują się na trzecim miejscu za informatyką i inżynierią w obu przypadkach (informatyka: 919 pozycji; inżynieria: 614 pozycji; nauki społeczne: 432 pozycje). Jednak Scopus używa innego systemu klasyfikacji niż WoS do przypisywania obszarów badawczych, co utrudnia bezpośrednie porównanie tych dwóch.

Badania techniczne

Wszystkie pięć najczęściej cytowanych artykułów z dziedziny cyberbezpieczeństwa (niefiltrowanych według dyscyplin) koncentruje się na infrastrukturze krytycznej, w szczególności na systemie elektroenergetycznym, ze szczególnym uwzględnieniem inteligentnych sieci (tabela 4). Najstarszy spośród najczęściej cytowanych artykułów został opublikowany w 2008 roku, co wzmacnia wrażenie, że cyberbezpieczeństwo to nowy kierunek studiów. Biorąc pod uwagę charakter badań i placówki, w których publikowane były artykuły (wszystkie prowadzone przez Instytut Inżynierów Elektryków i Elektroników, największe istniejące stowarzyszenie zawodowe specjalistów technicznych), wszyscy są zorientowani na rozwiązania, proponując konkretne metodologie oceny podatności lub rozwiązania zwiększające aplikacje inteligentnych sieci i bezpieczeństwo infrastruktury. Cyberbezpieczeństwo sieci energetycznych jest bardzo niepokojące, biorąc pod uwagę ich rosnącą złożoność i znaczenie technologii informacyjno-komunikacyjnych w zapewnianiu ich wydajnego, niezawodnego i bezpiecznego działania przy jednoczesnym zaspokajaniu potrzeby zrównoważenia środowiskowego i energetycznego. Poprzez połączenie jednej z kluczowych infrastruktur krytycznych (infrastruktury energetycznej) z technologiami informatycznymi/cyberprzestrzenią, ustanawia się połączenie między sferą techniczną a sferą bezpieczeństwa narodowego. Na skrzyżowaniu pojawiają się nowe problemy bezpieczeństwa jako szczególne wyzwanie. Infrastruktura energetyczna (jak również inne infrastruktury krytyczne) stają się podatne na cyberataki z powodu braku bezpieczeństwa technicznego w systemach nadzoru nadrzędnego i akwizycji danych (SCADA), które służą do monitorowania, sterowania i alarmowania systemów operacyjnych. Kilka z najczęściej cytowanych artykułów wprost uwzględnia aspekt cyberataków na systemy SCADA. Patrząc w przyszłość, problem luk w infrastrukturze prawdopodobnie pogorszy się z powodu tak zwanego Przemysłu 4.0. Przemysł 4.0 oznacza integrację wszystkich fizycznych maszyn (z których część jest częścią obiektów i usług infrastruktury krytycznej) z wbudowanymi systemami cyfrowymi, aby umożliwić optymalizację procesów produkcyjnych i usług w czasie rzeczywistym. Na początku dyskusję zdominował optymizm co do ogromnych korzyści płynących z tej "rewolucji". Coraz częściej pojawia się również świadomość wymiaru bezpieczeństwa, co prowadzi do podejmowanych przez branżę prób określenia standardów bezpieczeństwa.

Badania w zakresie nauk społecznych

Scopus ma swoją własną kategorię nauk społecznych, ale nie ma możliwości bardziej szczegółowego wyszukiwania. Z drugiej strony WoS nie ma połączonej kategorii, co ponownie utrudnia bezpośrednie porównanie. Różnorodność tematów w pięciu najważniejszych artykułach z zakresu nauk społecznych jest znacznie większa niż w dziedzinie technicznej. Nie jest to zaskakujące, biorąc pod uwagę, jak różnorodne dyscypliny nauk społecznych są. Artykuły zawierają czysto koncepcyjny artykuł, przegląd rozwiązań uwierzytelniania i szyfrowania dla architektur inteligentnych sieci, artykuł o moralności cyberwojny oraz artykuł o botnetach, jednym z najpoważniejszych zagrożeń cyberbezpieczeństwa, z jakimi mają do czynienia współczesne organizacje. Jeden z artykułów dotyczy wykorzystania robaka komputerowego Stuxnet, jednego z najbardziej znanych zastosowań szkodliwego oprogramowania, jako wydarzenia politycznego i tego, jak jego reperkusje polityczne wpływają na prywatność w Internecie. Te papiery też są wszystkie niedawno opublikowane, ale w przeciwieństwie do ich technicznych odpowiedników są mniej zorientowane na rozwiązania.

Przyszłe badania nad cyberbezpieczeństwem

Badania nad cyberbezpieczeństwem będą prawdopodobnie nadal koncentrować się na zmniejszaniu podatności systemów technicznych oraz zapobieganiu, ochronie i wykrywaniu złośliwych działań. Ponadto istnieje potrzeba bardziej interdyscyplinarnych badań, aby lepiej zrozumieć "czynnik ludzki" zarówno po stronie ofensywnej, jak i defensywnej. Publiczne programy badawcze są dobrym wskaźnikiem przyszłych priorytetów badawczych, a wspólne tematy można dostrzec w planach badawczych ze Stanów Zjednoczonych (Federalny Plan Strategiczny Badań i Rozwoju Cyberbezpieczeństwa 2016), Holandii (National Cyber Security Research Agenda II), Singapuru (National Cyberbezpieczeństwo B+R) oraz Unii Europejskiej (Program prac "Horyzont 2020" 2016-2017). Badanie planów publicznych programów badawczych w celu zrozumienia kierunków badań w cyberbezpieczeństwie ma mankamenty. Co najważniejsze, nie pozwala na wgląd w wojskowe badania i rozwój w dziedzinie cyberbezpieczeństwa. Biorąc pod uwagę zainteresowanie wielu wojskowych, a także agencji wywiadowczych bardziej ofensywnym wykorzystaniem cyberprzestrzeni, można przypuszczać, że na tego typu badania przeznaczane są również znaczne sumy pieniędzy. Wykorzystanie Stuxneta do sabotowania irańskiego programu nuklearnego oraz rewelacje Edwarda Snowdena w 2013 roku dały wgląd w tajny świat rozwoju cyberbroni, rynek exploitów zero-day i próby złamania standardowego szyfrowania. To powiedziawszy, celem przeglądu publicznych planów badawczych było zidentyfikowanie szerszych trendów. Oczekuje się, że podatność na cyberataki wzrośnie z powodu rozprzestrzeniania się technologii informacyjno-komunikacyjnych na więcej aspektów życia. Ataki te z pewnością staną się jeszcze bardziej złożone i wyrafinowane ze względu na rosnący poziom umiejętności i struktury motywacyjne na podziemnym rynku. Rosnący poziom zagrożenia i powiązanie z bezpieczeństwem narodowym poprzez infrastrukturę krytyczną jako główny cel stwarza poczucie ważności i pilności. W związku z tym większość przyszłych badań będzie prawdopodobnie koncentrować się na systemach technicznych i ograniczaniu luk w zabezpieczeniach. Jednak ta percepcja zagrożenia przekłada się bezpośrednio na drugi wątek badań: próby lepszego zrozumienia zagrożenia. Panuje powszechna zgoda, że systemy cyberfizyczne, Internet Rzeczy oraz systemy SCADA/sterowania przemysłowego (Przemysł 4.0) są kluczowymi obszarami, w których potrzebne są dalsze badania i większe bezpieczeństwo. Najczęściej wymieniane sektory infrastruktury krytycznej to między innymi energetyka, transport/logistyka i zdrowie. Ponadto wymienia się również przetwarzanie w chmurze, obliczenia o wysokiej wydajności, systemy autonomiczne i urządzenia mobilne. Odzwierciedla to obecne priorytety branży i wydaje się, że społeczność naukowa oczekuje, że technologie te będą najistotniejsze nawet w średnio- i długoterminowej przyszłości, do około 2030 roku programy badawcze wskazują, że głównym celem tych planów jest opracowanie z jednej strony lepszych możliwości zapobiegania cyberincydentom, ochrony i wykrywania, a z drugiej bardziej odpornych systemów i infrastruktur w celu szybkiego przywrócenia funkcjonalności w przypadku ataku . Ściśle powiązane, widoczne jest również dążenie do analiz predykcyjnych i wykorzystania dużych zbiorów danych. Oprócz tworzenia lepszych możliwości zapobiegania, ochrony i wykrywania, plany badawcze wskazują na znaczenie zrozumienia socjotechnicznych, socjoekonomicznych i społeczno-politycznych aspektów problemu. Same dobre rozwiązania techniczne nie wystarczą - problem polega na tym, jak są wdrażane. Dlatego zachęca się do badań nad użytecznym bezpieczeństwem. Ta koncepcja luźno opisuje rozwiązania bezpieczeństwa, które są łatwe w użyciu, mają pewną przejrzystość i są godne zaufania. Ponadto potrzebne są badania, aby lepiej zrozumieć różne rodzaje zagrożeń, w tym cyberprzestępczość, zagrożenia wewnętrzne i formy agresji państwa. Badania ekonomistów i psychologów mogą zapewnić lepsze zrozumienie mechanizmów motywacyjnych i podejmowania decyzji, zarówno dla sprawcy, jak i obrońcy. Stany Zjednoczone w szczególności dodają wymiar międzynarodowy (i wyraźnie polityczny): poprzez modelowanie norm międzynarodowych, zasad zaangażowania i dynamiki eskalacji w cyberprzestrzeni należy zidentyfikować czynniki instytucjonalne i strukturalne, które promują lub podważają bezpieczeństwo w cyberprzestrzeni. Kluczowym pojęciem jest tutaj cyberodstraszanie. Wiąże się to z możliwością przypisania ataku, co oznacza możliwość poznania z wystarczającą pewnością, kto jest winowajcą. Lepsza atrybucja znacznie zwiększa koszt ataku, ponieważ umożliwia różne formy kar. Jednak lepsza atrybucja, co nie jest omówione w planach badawczych, oznacza również mniejszą anonimowość. Związek zarówno z debatą o prawach obywatelskich, jak i szerszą debatą na temat prywatności jest oczywisty. Prywatność to pojęcie, które odgrywa znaczącą rolę w badaniach technicznych, ponieważ istnieje związek z pojęciem poufności w triadzie CIA. Jednak prywatność jest również koncepcją politycznie istotną, która współdziała z bezpieczeństwem na kilku poziomach. W podobnym duchu badania nad lepszą kryptografią (np. kryptografią kwantową), które są również omawiane w planach publicznych programów badawczych, również mają wyraźny związek z debatą na temat bezpieczeństwa narodowego. Szyfrowanie jest problemem dla społeczności wywiadowczej i ich zdolności do identyfikowania i nadzorowania złośliwych (terrorystycznych) podmiotów.



Powrót

Cyberprzestrzeń



Termin cyberprzestrzeń jest często używany jako synonim Internetu i/lub przestrzeni wirtualnej, i czasami tak jest również w literaturze naukowej. Wpis ten przedstawia cyberprzestrzeń jako odrębny byt zawarty w przestrzeni wirtualnej. Najpierw przygląda się szerszej kategorii przestrzeni obrazu, do której zalicza się kategorie przestrzeni wirtualnej, cyberprzestrzeni, Internetu i przestrzeni ekranu. Omówienie czterech klas przestrzeni obrazu skupia się na różnicach i relacjach między nimi. Oprócz relacji cyberprzestrzeni z innymi przestrzeniami obrazów, współczesna kategoria cyberprzestrzeni wiąże się również z bardziej tradycyjnym pojęciem przestrzeni realnej i jej nowszą pochodną przestrzeni społecznej. Wpis zwraca uwagę na relacje między cyberprzestrzenią a przestrzenią rzeczywistą oraz społeczne wymiary cyberprzestrzeni.

Przestrzeń obrazu

W ramach ogólnego pojęcia przestrzeni obrazu można znaleźć cztery klasy wizualne. Najszerszą klasą jest przestrzeń wirtualna - wizualne prezentacje rzeczywistej przestrzeni i materialnych artefaktów. Obejmuje to obrazy obrazkowe, takie jak obrazy, filmy, fotografie i programy telewizyjne, a także urządzenia wyświetlające obrazy obrazkowe. Druga, zawarta w przestrzeni wirtualnej, to cyberprzestrzeń - cyfrowa komunikacja i media informacyjne. Trzecim, zawartym w cyberprzestrzeni, jest Internet - czyli cyfrowe przestrzenie komunikacyjne i informacyjne. Czwarta to przestrzeń ekranu internetowego - wizualny interfejs między internetowymi przestrzeniami informacyjno-komunikacyjnymi a ich użytkownikami. Wspólnym mianownikiem przestrzeni wirtualnej, cybernetycznej i internetowej jest to, że wszystkie one stanowią przestrzenie obrazów. Obrazy są zwykle rozumiane jako wizualne reprezentacje bytów materialnych, ale mają szersze konotacje. Jacques Aumont wyróżnił trzy kanały ekspresji przestrzeni obrazu: (1) percepcję widza, (2) aparaty transmisji obrazu oraz (3) same obrazy. Dla drugiej klasy samych obrazów, skupił się na malarstwie, filmie i fotografii, zauważając, że przestrzeń jest bardziej złożona niż sposób jej przedstawiania i wymaga korekty jej prezentacji obrazu, zwłaszcza poprzez użycie perspektywy. Geografowie początkowo przypisywali obrazy obrazom mentalnym - czyli wyobrażonym przestrzeniom i ich wizualnej ekspresji poprzez mapy mentalne. Po tym nastąpiła uwaga skupiona na przestrzeni przedkinowej oraz technologii filmowej i mikroprzestrzeni, takie jak slajdy i diagramy. Wspólnym wątkiem tych ostatnich eksploracji jest ich zaangażowanie głównie w wyrażanie i traktowanie realnej przestrzeni w ramach określonych mediów, a nie w mediach jako przestrzeniach samych w sobie konstytuujących. James Ash utorował wstępną drogę do traktowania klas obrazu jako przestrzeni samych w sobie. W swoich badaniach ekranów gier wideo jako przestrzeni założył, że przestrzeń w obrazach wizualnych "można uznać za powierzchnię, płaski obraz przedstawiony na ekranie". Ash rozwinął kilka pojęć dotyczących przestrzeni obrazu wizualnego, łącząc ze sobą różne klasy, które Aumont zaproponował w odniesieniu do percepcji widzów, aparatury transmisji obrazu i samych obrazów. Pierwszym z tych pojęć wizualnych przestrzeni obrazu jest ich związek z przestrzenią rzeczywistą. W ten sposób obrazy wizualne reprezentują świat rzeczywisty, nawet jeśli w formach skrzywionych, zniekształconych lub wyobrażonych, ale jednocześnie wytwarzają i tworzą nowe przestrzenie obrazów. Po drugie, "byt obrazów składa się zarówno z materialności, jak i zjawiskowości, działających w porozumieniu ze sobą, tworząc warunki do tego, by w ogóle móc "widzieć" lub doświadczać obrazu" (Ash, 2009, s. 2107-2108). Po trzecie, przestrzenność obrazu ma charakter egzystencjalny, konstruowany zarówno przez działania, jak i zaangażowanie użytkowników obrazu. Przestrzenie obrazu stanowią zatem jednocześnie dwie rzeczy: (1) przestrzenie wyobrażone postrzegane przez użytkowników obrazu oraz (2) materialne lub wizualne obrazy reprezentujące przestrzeń rzeczywistą. Przestrzenie obrazowe obejmują także przestrzenie metaforyczne, prezentowane i werbalnie opisywane w niewizualnych tekstach dosłownych, głównie w prozie i poezji. Współcześnie jednak przestrzenie metaforyczne mogą również obejmować cyfrowe byty i reprezentacje wizualne, zwłaszcza te transmitowane przez Internet. Podstawowym przykładem w tym zakresie jest szerokie zastosowanie pojęć przestrzennych do wykorzystania Internetu, takich jak site, home, surfing. Oprócz tych metaforycznych wyrażeń przestrzennych dotyczących samego korzystania z Internetu, wizualną ekspresję Internetu za pośrednictwem ekranów internetowych można również uznać za przestrzenie obrazów. Wpis przechodzi teraz do badania czterech klas wizualnej przestrzeni obrazu, skupiając się na ich specyficznych cechach oraz na pojęciach geograficznych związanych z ich rozumieniem.

Przestrzeń wirtualna

W swoim przeglądzie wirtualności Samuel Kinsley (2014) zwrócił uwagę na zróżnicowany zakres interpretacji przestrzeni wirtualnej jako jednostki cyfrowej. Tak więc "wirtualny" "wirtualnych geografii" ma tendencję do oznaczania symulacji pewnego rodzaju cyfrowej liminalności, podobnej do przestrzeni "pomiędzy" ekranem a ciałem, danymi i maszyną" (s. 365). Wpis ten sugeruje wyraźną konotację dla przestrzeni wirtualnej, która jest znacznie szersza niż cyberprzestrzeń, a więc cyfrowa cyberprzestrzeń stanowi jej podzbiór. Sama natura tego, co wirtualne, a tym bardziej jej geografia, są złożone, ponieważ trudno je interpretować zgodnie z klasycznym rozróżnieniem na przestrzeń abstrakcyjną i względną, przy czym przestrzeń wirtualna może przedstawiać połączenie tych dwóch klas przestrzeni. Samo doświadczanie przestrzeni wirtualnej może się zbliżyć, ale nigdy nie będzie identyczne z doświadczaniem przestrzeni rzeczywistej. Interpretację tego, co wirtualne, jako czegoś, "co nie jest fizyczne, ale naśladuje to, co fizyczne" Jason Farman przypisał XVII-wiecznemu chrześcijaństwu. Przestrzeń wirtualna, jako całość, jest ze swej natury sprzężona z procesem wirtualizacji. Proces ten badał Pierre Lévy, który zauważył, że "kiedy osoba, społeczność, czynność lub informacja są zwirtualizowane, "nie ma ich tam", deterytorializują się" oraz " jeśli cyberprzestrzeń wynika z wirtualizacji komputerów, autostrada elektroniczna reifikuje ten wirtualny świat". Wirtualizacja sprowadza się zatem do procesu przekształcania rzeczy w wirtualne, a proces ten jest niezależny od cyberprzestrzeni jako określonej podklasy wirtualnego bytu. Innymi słowy, wirtualizacja implikuje proces transformacji rzeczy, podczas gdy cyberprzestrzeń to stan wizualnej ekspozycji rzeczy wirtualnych, głównie poprzez telewizję i Internet. Mówiąc ogólniej, przekształcenie czegoś w stan wirtualny niekoniecznie oznacza, że jest ono prezentowane w cyberprzestrzeni, ponieważ może to być na przykład obraz. Prawda jest jednak odwrotna: rzeczy prezentowane w cyberprzestrzeni są zawsze wirtualne.

Definicje cyberprzestrzeni

Termin cyberprzestrzeń został pierwotnie zaproponowany przez Williama Gibsona w jego powieści science fiction Neuromancer z 1984 roku, a później został zastosowany do komunikacji komputerowej i technologii rzeczywistości wirtualnej. W tej części przyjrzymy się, czy cyberprzestrzeń można postrzegać jako rodzaj przestrzeni. Specyficzne koncepcje cyberprzestrzeni jako pojęcia i bytu geograficznego zostały szeroko zinterpretowane. Cyberprzestrzeń była postrzegana jako synonim przestrzeni informacyjnej w ogóle, jako przestrzeń niewidzialna dla zmysłów oraz jako geograficzna metafora odcieleśnienia. Stephen Graham nazwał ją "multimedialnym pasmem sieci cyfrowych" . Jako przestrzeń sama w sobie, cyberprzestrzeń nie była postrzegana ani jako absolutna, ani względna. Nigel Thrift opisał relacje z przestrzeni informacyjnych związanych z elektronicznymi technologiami telekomunikacyjnymi jako sygnalizujące "nową logikę przestrzenną, która nie respektuje żadnej z pozornie newtonowskich konstrukcji przestrzeni" i jest "połączona z powstawaniem obrazów i znaków jako środków, za pomocą których nasze społeczeństwo ma sens". Obok tych niematerialnych poglądów na cyberprzestrzeń, nadal może być postrzegana jako oparta na przestrzeni i materiale poprzez swoją infrastrukturę przestrzeni rzeczywistej i jej interakcję z rzeczywistymi środowiskami. Cyberprzestrzeń została zdefiniowana przestrzennie z wielu perspektyw, w tym sztucznej rzeczywistości, interaktywności, przestrzeni konceptualnych i przestrzeni metaforycznych.

1. Sztuczna rzeczywistość: Michael Benedikt opisał cyberprzestrzeń jako "globalnie sieciową, podtrzymywaną przez komputer, dostępną komputerowo i generowaną komputerowo, wielowymiarową, sztuczną lub 'wirtualną' rzeczywistość"

2. Przestrzeń interaktywności: Michael Batty zdefiniował cyberprzestrzeń jako przestrzeń stworzoną poprzez interaktywność między zdalnymi komputerami używanymi do komunikacji.
3. Przestrzeń pojęciowa: Martin Dodge i Rob Kitchin (2001) opisali cyberprzestrzeń jako "przestrzeń pojęciową w ramach ICT (technologii informacyjnych i komunikacyjnych), a nie samą technologię"

4. Przestrzeń metaforyczna: Mark Graham opisał, w jaki sposób termin cyberprzestrzeń jest powszechnie używany jako metafora geograficzna.

Pierwsze trzy z tych definicji cyberprzestrzeni lokują ją w szerszej sferze technologii informacyjnych, a więc postrzegając cyberprzestrzeń jako obejmującą także media komunikacyjne - tj. radio, telewizję oraz technologie łączności stacjonarnej i mobilnej. Wszystkie te urządzenia i technologie zostały pierwotnie wynalezione przed wynalezieniem komputerów pod koniec lat 40. XX wieku. Internet stanowi zatem odrębne medium pod tym względem, ponieważ jest oparty na komputerze, jak jego pierwotna innowacja w latach 60. XX wieku. Wszystkie cztery definicje odnoszą się do cyberprzestrzeni z perspektywy doświadczeń użytkowników, przy czym cyberprzestrzeń jest różnie postrzegana jako sztuczna rzeczywistość, platforma komunikacyjna, przestrzeń konceptualna lub metaforyczna. Cztery definicje można uznać za komplementarne względem siebie, tak że cyberprzestrzeń można ogólnie postrzegać jako stanowiącą jednocześnie wirtualną, interaktywną, konceptualną i metaforyczną całość przestrzenną. Takie pluralistyczne podejście do natury cyberprzestrzeni jest zgodne z sugestią Lance′a Strate′a , że cyberprzestrzeń "lepiej rozumie się jako pluralizm niż jako pojedynczość". Strate zaproponował ponadto uszeregowanie znaczeń lub elementów składowych cyberprzestrzeni za pomocą uporządkowanych porządków. Cyberprzestrzeń zerowego rzędu odnosi się do ontologicznego charakteru cyberprzestrzeni jako rzeczywistości wirtualnej. Cyberprzestrzeń pierwszego rzędu odnosi się do fizycznej przestrzeni swojego sprzętu, będąc jednocześnie przestrzenią konceptualną, która pośredniczy między jej wymiarem ontologicznym i fizycznym. Wreszcie cyberprzestrzeń drugiego rzędu stanowi syntezę dwóch niższych rzędów. Oprócz bycia postrzeganym jako przestrzeń sama w sobie, cyberprzestrzeń może być interpretowana z dodatkowych perspektyw, zarówno przestrzennych, jak i nieprzestrzennych. W ten sposób cyberprzestrzeń może być postrzegana jako prezentująca reprezentacje przestrzeni rzeczywistej za pomocą map cyfrowych, obrazów i wykresów, wykorzystywanych do badania przestrzeni rzeczywistej, a także do nawigacji w przestrzeni rzeczywistej. Geograficzno-przestrzenne codzienne pojęcia i metafory zostały zastosowane do budowy, nazewnictwa i wykorzystania cyberprzestrzeni, w szczególności do korzystania z Internetu. Takie użycie terminów geograficznych na określenie samego funkcjonowania Internetu zyskało powszechne uznanie, biorąc pod uwagę codzienną wygodę i znajomość rzeczywistej przestrzeni przez ludzi - stąd pojawiły się terminy internetowe, takie jak strona, przeglądanie, przenoszenie. Szerokie przyjęcie terminów przestrzennych dla rutynowego korzystania z cyberprzestrzeni za pośrednictwem Internetu świadczy o procesie jej uprzestrzenniania, implikując przyjęcie przestrzeni jako metafory cyberprzestrzeni i jej funkcjonowania. Helen Couclelis zauważyła, że takie użycie metafor wiąże się z mapowaniem jednej domeny doświadczenia na inną, bardziej spójną, silną lub znajomą… . metafora dokonuje poznawczej fuzji między tymi dwoma, dzięki czemu rzeczy w źródle domena jest postrzegana tak, jakby rzeczywiście należała do domeny docelowej. Metafory szeroko zakrojone są znane jako metafory orientacyjne i termin ten wydaje się oczywistym argumentem za przyjęciem szeroko zakrojonych metafor przestrzennych dla cyberprzestrzeni i jej wykorzystania. Ponadto metafora przestrzenna okazała się wygodna dla wielu wymiarów wykorzystania informacji: (a) organizacji, (b) dostępu, (c) integracji i (d) działania. Cyberprzestrzeń została również zdefiniowana z niegeograficznych perspektyw zorientowanych na użytkownika, które nie opisują jej w kategoriach przestrzennych, a czasami używają terminów wywołujących poczucie nierzeczywistości. Według Johna Sulera "W odpowiednich warunkach cyberprzestrzeń staje się światem marzeń, podobnym do świata, który wyłania się, gdy zapadamy w sen". Jednak cyberprzestrzeń internetowa różni się od cyberprzestrzeni snu, ponieważ internauci świadomie poruszają się w publicznie dostępnym cyberprzestrzennym świecie, sieci, w przeciwieństwie do nieświadomych nawigacji marzycieli w ich wyśnionej cyberprzestrzeni.

Internet

Internet to przede wszystkim specyficzna technologia komunikacji i informacji cyberprzestrzennej, charakteryzująca się wizualną prezentacją informacji swoim abonentom. Jeśli chodzi o jego status vis-?-vis świata przestrzeni rzeczywistej, Yong Wang, Phillip Lai i Daniel Sui zasugerowali, że "Internet można traktować jako przestrzeń połączoną z ziemią" .Istnieje kilka klasyfikacji wewnętrznej struktury Internetu. Najprościej rzecz ujmując, Internet można podzielić na dwie główne funkcje lub komponenty, stanowiące przestrzenie metaforyczne: (1) przestrzeń informacyjną, na którą składają się głównie sieć i jej strony internetowe oraz (2) przestrzeń komunikacyjną, na którą składają się głównie platformy pocztowe i aplikacje społecznościowe, prowadzony przez Facebooka i Twittera. Te dwie metaforyczne przestrzenie zostają wizualnie zreifikowane dla swoich użytkowników poprzez internetowe przestrzenie ekranowe. Te dwie internetowe kategorie przestrzeni informacyjno-komunikacyjnych często się przenikają, na przykład, gdy e-maile są wysyłane przez użytkowników Internetu za pośrednictwem strony internetowej do jej właścicieli, a nie osobno za pośrednictwem systemów poczty e-mail, lub gdy e-maile i wiadomości przesyłane za pośrednictwem platform społecznościowych zawierają łącza do zdjęć , strony internetowe i/lub dane. To przenikanie się, a nawet stapianie się internetowych przestrzeni informacyjnych i komunikacyjnych świadczy o jedności Internetu, przynajmniej z punktu widzenia jego użytkowania. Jednak każda z dwóch klas cyberprzestrzeni może często funkcjonować niezależnie od siebie; na przykład dźwiękowa komunikacja osobista zwykle nie wiąże się z równoczesną transmisją zestawów danych tekstowych. Inną podstawową klasyfikacją Internetu jest jego podział na nazwy domen oznaczane przez oznaczenia lub kody organizacyjne i narodowe. Kody te stanowią integralną część adresów stron internetowych, a także adresów do komunikacji osobistej. Internet jest powszechnie postrzegany jako wyjątkowy krajobraz społeczny, składający się z elementów przestrzennych. Emmanouil Tranos i Peter Nijkamp zauważyli, że "Internet, jako platforma wirtualnych interakcji między jednostkami i organizacjami, ma z konieczności komponent geograficzny" (s. 855). Coraz ważniejszym elementem komunikacji internetowej, zwłaszcza od czasu upowszechnienia się platform społecznościowych, takich jak Facebook, jest możliwość komunikowania się użytkowników anonimowo i w większości w sposób egalitarny. Jak zauważył Lévy społecznościach wirtualnych przed powszechnym przyjęciem platform społecznościowych: "Tutaj nie spotykamy już ludzi wyłącznie według ich nazwiska, położenia geograficznego lub pozycji społecznej, ale w kontekście centrów zainteresowań, we wspólnym krajobrazie. znaczenia i wiedzy". Co więcej, cyberprzestrzeń daje możliwość postrzegania użytkowników na podstawie ich pisanych słów, a nie tego, jak wyglądają lub brzmią.

Przestrzeń ekranu internetowego

Internetowa przestrzeń ekranowa stanowi wizualny interfejs pomiędzy internetowymi przestrzeniami informacyjno-komunikacyjnymi a ich użytkownikami, a te przestrzenie cyfrowe są wyświetlane na ekranach komputerów i smartfonów. Ekrany komputerowe per se były badane z perspektywy fenomenologicznej, etologicznej i geograficznej. Te przestrzenie cyfrowe prowadzą do uprzestrzennienia danych nieprzestrzennych. Kompleksowy charakter Internetu jako systemu informacyjnego i komunikacyjnego implikuje, że przestrzenie ekranowe mogą składać się ze wszystkich możliwych rodzajów prezentacji wizualnej: tekstów, obrazów, map i krajobrazów, a także kombinacji tych elementów. Przestrzenie ekranów internetowych ze swej natury nie są przestrzeniami stabilnymi jak drukowane lub malowane wirtualne i mogą znikać po zaprogramowanych poleceniach lub w bezpośredniej reakcji na natychmiastowe działania wykonywane przez użytkowników. Abonenci Internetu mogą rutynowo i powtarzalnie korzystać z tych samych określonych przestrzeni ekranowych, takich jak ich strony główne, serwisy informacyjne oraz witryny bankowe i handlowe, a te powtarzalne zastosowania przedstawiają użytkownikom strony o stałej strukturze i kolorach, ale z pewną ciągle zmieniającą się zawartością. W związku z tym internautom może być trudno rozpoznać i ostatecznie narysować mapy kognitywne dla tych natychmiast pojawiających się i znikających wirtualnych krajobrazów i ekranów informacyjnych. Mówiąc bardziej ogólnie, Mei-Po Kwan zauważył w tym względzie, że dla przestrzeni rzeczywistej przestrzeń i jej mapy są dwoma całkowicie odrębnymi bytami, podczas gdy dla przestrzeni ekranu internetowego przestrzeń i jej mapy mogą być zbieżne. Tak więc "cyberprzestrzenie komunikacji poznawczej są osobowo unikalne i nie mogą być agregowane, podczas gdy mapy poznawcze odnoszące się do określonego obszaru można porównywać i wyciągać wnioski na temat szerszej wiedzy społecznej o danym obszarze". W rozmowach telefonicznych, zwłaszcza w rozmowach wideo, wirtualność jest wyobrażana jako "przestrzeń" między uczestnikami, generowana komputerowo wspólna płaszczyzna, która nie jest ani rzeczywista w swoim położeniu ani współrzędnych, ani nie jest jedynie abstrakcją pojęciową, ponieważ może być doświadczana. "jakby" żył dla określonych celów. (Shields, 2003, s. 49) Korzystanie z Internetu, które implikuje wizualną ekspozycję jednostek na cyberprzestrzeń, wiąże się z równoczesną współobecnością lub teleobecnością użytkowników w stałych przestrzeniach fizycznych i wirtualnych. Jak zauważył Mark Graham, cyberprzestrzeń "pojmowana jest zarówno jako wymiar eteryczny, który jest jednocześnie nieskończony i wszędzie… i jako umiejscowiony w innym miejscu" (s. 179), chociaż sprzeciwiał się temu poglądowi

Relacje między realem a cyberprzestrzenią

Idea postrzegania cyberprzestrzeni w ogóle jako w jakiś sposób podobnej do prawdziwej przestrzeni w swojej naturze, a także w sposobie, w jaki doświadczają jej użytkownicy, nie jest nowa. Na przykład Kwan zauważył, że "zachowanie człowieka w cyberprzestrzeni wykazuje pewne podobieństwa z zachowaniem przestrzennym w świecie fizycznym". Jedna z różnic między tymi dwiema przestrzeniami dotyczy tego, jak ludzie pojmują odległość w cyberprzestrzeni w porównaniu do tego, jak pojmują ją w przestrzeni rzeczywistej. Cyberprzestrzeń nie rozwijała się poza realną przestrzenią, ponieważ jej sprzęt, jak i jej użytkownicy znajdują się w realnej przestrzeni. W cyberprzestrzeni Internet jest kształtowany i odzwierciedla kultury, w których jest produkowany i konsumowany, a często jest spleciony z przestrzenią fizyczną. Jednocześnie sposób, w jaki ludzie doświadczają Internetu, różni się od sposobu, w jaki doświadczają świata fizycznego. Internet stanowi "inne ludzkie doświadczenie zamieszkiwania w świecie; nowe artykulacje bliższego i dalekiego, obecnego i nieobecnego, ciała i technologii, jaźni i środowiska". Cyberprzestrzeń ma swoją własną geografię, jest podtrzymywany przez symbol, a także ma swoją własną materialność. Wraz ze specyficzną tożsamością cyberprzestrzeni, samo doświadczanie sieci wiąże się z silnym odciskiem przestrzeni realnej. David Weinberger (2002) opisuje, w jaki sposób język używany do opisu doświadczania sieci obejmuje obrazy przestrzenne i mówi, że "przestrzeń nie jest zwykłą metaforą. Retoryka i semantyka sieci to retoryka przestrzeni. Co ważniejsze, nasze doświadczenie sieci jest zasadniczo przestrzenne" . Mimo pozornie iluzorycznego i metaforycznego charakteru cyberprzestrzeń można uznać za byt bytowy polegający na doświadczaniu geograficznym przez użytkowników za pośrednictwem Internetu. Geograficzna natura tego doświadczenia różni się jednak pod wieloma względami od rzeczywistej przestrzeni. Po pierwsze, cyberprzestrzeń doświadczana przez jej użytkowników jest zwykle znacznie bardziej rozległa pod względem przestrzennym w porównaniu z zasięgiem użytkowników przestrzeni rzeczywistej, przy czym użytkownicy prawdopodobnie kontaktują się ze stronami internetowymi i osobami znajdującymi się daleko od ich lokalizacji w przestrzeni rzeczywistej. Po drugie, przeglądanie cyberprzestrzeni może być czasowo znacznie intensywniejsze niż równoważne podróże w przestrzeni rzeczywistej, biorąc pod uwagę możliwość wydłużenia sesji użytkowania przez użytkowników. Po trzecie, w przeciwieństwie do dwóch pierwszych punktów, doświadczenie cyberprzestrzeni wydaje się płytsze niż doświadczenie przestrzeni rzeczywistej pod względem percepcyjnego odcisku na użytkownikach. Wreszcie i po czwarte, doświadczaniu cyberprzestrzeni brakuje niemal żadnego cielesnego zaangażowania jej użytkowników, a ten brak cielesnego zaangażowania może przyczynić się do mniejszego odcisku doświadczalnego cyberprzestrzeni na jej użytkownikach. Wszechobecność Internetu i jego natychmiastowa dostępność sprowadzały się do praktycznej, a nie teoretycznej, integracji fizycznej i wirtualnej przestrzeni dla użytkowników. Natychmiastowy i ciągły dostęp użytkowników do usług szerokopasmowych za pośrednictwem smartfonów niesie ze sobą pewne implikacje dla współczesnego społeczeństwa, charakteryzujące się ogólnie szerszą dostępnością i wykorzystaniem mediów komunikacyjnych. Po pierwsze, rosnąca mobilność wirtualna może zwiększyć zamiast zmniejszać mobilność fizyczną, ponieważ nie trzeba już być przywiązanym do komputera stacjonarnego, aby natychmiast inicjować, odbierać i odpowiadać na wiadomości cyfrowe, w tym międzynarodowe połączenia telefoniczne, które mogą być wykonywane za pośrednictwem bezpłatnego lub taniego VoIP (Voice over Internet Protocol). Po drugie, przyspieszanie codziennych czynności, czy to związane z produkcją gospodarczą, czy z komunikacją społeczną, mogą osiągnąć wyższy poziom, ponieważ wszystkie środki komunikacji i informacji stały się w pełni mobilne, co skłania użytkowników do ciągłego zwracania uwagi na wiadomości przychodzące w ich mobilnych urządzeniach komunikacyjnych. Po trzecie, zacieranie się rozdziału między pracą/biznesem a wypoczynkiem, które w ostatnich latach charakteryzowało sferę pracy i domu, będzie się nasilać, ponieważ praca i zajęcia towarzyskie mogą być teraz z łatwością wykonywane poza biurem i domem. To rozmycie pracy i wypoczynku sprowadza się również do rozmycia przestrzeni realnej i wirtualnej.

Cyberprzestrzeń społeczna

Cyberprzestrzeń internetowa to nie tylko podklasa przestrzeni obrazów, wchodząca w interakcję na wiele sposobów z przestrzenią rzeczywistą. Można go ponadto uznać za szczególną formę przestrzeni społecznej, co znajduje odzwierciedlenie w kilku jej zastosowaniach i zastosowaniach. Dotyczy to przede wszystkim sieci, czyli internetowej przestrzeni informacyjnej. Cyberprzestrzeń w sieci stanowi zasób i siłę produkcyjną, podobnie jak przestrzeń rzeczywista, np. w dostarczaniu jej do zakupów online. Cyberprzestrzeń internetowa może być dalej postrzegana jako tekst i jako symbol dla indywidualnych użytkowników, a także dla organizacji i firm posiadających strony internetowe. Sieć można dalej postrzegać jako tworzącą pejzaż, przedstawiany na ekranach komputerów. Zarówno przestrzeń informacyjna, jak i komunikacyjna w Internecie mogą wiązać się z pewnymi wartościami społecznymi w sposobie ich wykorzystania przez jednostki. Internet wykazuje swoją własną przestrzenność, wyrażoną poprzez wygląd ekranów zaprojektowany przez projektantów ekranów, a także liczne działania oferowane klientom przez właścicieli serwisów cyberprzestrzennych i platform komunikacyjnych. Te przestrzenności są dalej wyrażane poprzez indywidualne i instytucjonalne wzorce użytkowania. Internet jako taki stanowi przestrzeń społeczną, podobnie jak realne przestrzenie stworzone przez człowieka i sposoby ich użytkowania. Pozostała część tego rozdziału przedstawia istotę tych dwóch przestrzeni społecznych. Henri Lefebvre wyróżnił trzy wymiary czy też wyrazy ludzkiego doświadczania przestrzeni: (1) materialne praktyki przestrzenne, (2) reprezentacje przestrzeni oraz (3) przestrzenie reprezentacji. Te trzy wymiary lub wyrażenia łącznie tworzą ludzką przestrzenność społeczną i zostały zinterpretowane przez Davida Harveya jako odnoszące się odpowiednio do ludzkich (bezpośrednich) doświadczeń przestrzennych, percepcji przestrzeni przez jednostki oraz wyobraźni przestrzeni. Edward Soja nieco inaczej zinterpretował trzy klasy Lefebvre′a, twierdząc, że stanowią one trilektykę, składającą się odpowiednio z ludzkiej percepcji (lub pierwszej przestrzeni), koncepcji (lub drugiej przestrzeni) i życia w przestrzeni (lub trzeciej przestrzeni). W tabeli 1 przedstawiono porównanie przestrzeni rzeczywistych i wirtualnych z perspektywy trzech wymiarów opracowanych pierwotnie dla przestrzenności doświadczanych przez ludzi w odniesieniu do przestrzeni rzeczywistej. Przedstawione w tabeli rozszerzenie tych przestrzenności o przestrzeń wirtualną opiera się częściowo na koncepcjach zaproponowanych przez Weinbergera i Hagit Meishar-Tal. Pierwszy wymiar, czyli praktyki przestrzenne, odnosi się do bieżących, codziennych i rutynowych czynności jednostek. W rzeczywistej przestrzeni czynności te są zwykle wykonywane w sferze lokalnej, chyba że odbywa się podróż poza miasto, podczas gdy rutynowe czynności internetowe stanowią ciągłą mieszankę czynności wykonywanych lokalnie, w kraju i globalnie. Te rutynowe czynności wirtualne są wykonywane za pośrednictwem kanałów komunikacji, a także poprzez konsultacje ze stronami internetowymi. Drugi wymiar przestrzenności, reprezentacja przestrzeni, obejmuje, w przypadku rzeczywistej przestrzeni, profesjonalne projektowanie konstrukcji w rzeczywistej przestrzeni (np. domów i dróg) i opiera się na zastosowaniu kodów i wiedzy powszechnie używanej przez planistów. Takie działania projektowe są ograniczone terenem i odległościami lub istniejącą wcześniej przestrzenią. Równoważnymi czynnościami projektowymi dla reprezentacji cyberprzestrzeni internetowej są czynności projektowe wykonywane przez specjalistów komputerowych w celu budowy stron internetowych. Takie projekty dla stron internetowych nie są ograniczone przez istniejącą przestrzeń, ale oczekuje się, że nowe strony będą łączyć się, łączyć i sieciować z już istniejącymi. Różnica między przestrzenią rzeczywistą a cyberprzestrzenią jest jeszcze bardziej uderzająca, jeśli chodzi o przestrzenie reprezentacji. W realnej przestrzeni przestrzenie te nawiązują do artystycznych i dosłownych prac przedstawiających fragmenty przestrzeni. Ze swej natury takie artystyczne i dosłowne dzieła są całkowicie wolne pod względem stylu i sposobów artystycznej i dosłownej ekspresji, zależne tylko od indywidualnych umysłów artystów, autorów i myślicieli. Pojęcie przestrzeni reprezentacji dla Internetu ma inny charakter. Strona internetowa zaprojektowana przez informatyków składa się z kodów napisanych w językach komputerowych, ewentualnie z podstawowymi szkicami graficznymi. Zadaniem specjalistów od grafiki i sztuki jest zatem przekształcenie tych zakodowanych stron internetowych w znaczące, atrakcyjne i łatwe w obsłudze ekrany komputerowe dla ich użytkowników, wykorzystując profesjonalną wiedzę i zasady, obok artystycznej kreatywności. Obok tych, którzy projektują, użytkują i interpretują przestrzenie społeczne jako obiekty przestrzenne, istnieje czwarta ważna grupa aktorów, a mianowicie właściciele obiektów przestrzennych. Właściciele ci mogą decydować o samym charakterze i funkcji określonych obiektów przestrzennych. W rzeczywistej przestrzeni właściciele obiektów przestrzennych mogą być zróżnicowani: rządy odpowiedzialne za budowę np. dróg i szkół; firmy, posiadające obiekty, takie jak sklepy; i wreszcie osoby fizyczne posiadające swoje domy mieszkalne. Podobnie w cyberprzestrzeni strony internetowe mogą reprezentować właścicieli stron internetowych oferujących usługi, a takimi właścicielami mogą być zarówno rządy, jak i firmy, obok osób posiadających osobiste strony internetowe i blogi.



Powrót

Cybersquatting



Cybersquatting to praktyka polegająca na rejestrowaniu w złym zamiarze nazwy domeny internetowej należącej do innej osoby lub podmiotu, mimo że rejestrujący nie ma prawa do używania znaku towarowego. Odbywa się to zazwyczaj w celu naruszenia znaku towarowego, dyskredytacji, zemsty lub zysku finansowego. W latach 90. spekulanci znani jako cyberpiraci rejestrowali nazwy domen dużych firm, a następnie próbowali je sprzedać za duże sumy pieniędzy. Ostatecznie praktyka ta stała się nielegalna na mocy ustawy o ochronie konsumentów przeciwko cybersquattingu z 1999 roku. Ten wpis analizuje historię cybersquattingu, omawia kilka wczesnych spraw prawnych dotyczących cybersquattingu i przedstawia pewne ustalone środki zaradcze.

Historia Cybersquattingu

Cybersquatting i cyberpiractwo rozpoczęły się, gdy sieć WWW stała się popularna w latach 90. XX wieku. Nie zdając sobie sprawy, jak ważna stanie się sieć, firmy takie jak Taco Bell, Kentucky Fried Chicken, MTV i Carl′s Jr. nie zarejestrowały od razu swoich nazw domen. Cyberpiraci szukali zysków, rejestrując nazwy domen, a następnie odsprzedając je firmom będącym właścicielami znaków towarowych. Piraci skorzystali również z ekspansji nowych ogólnych nazw domen najwyższego poziomu (gTLD), aby zapobiec wyczerpaniu się nazw domen w Internecie. Oryginalne domeny gTLD (.com, .org, .edu, .net, .gov i .mil) obejmują teraz jednostki geograficzne, takie jak .us, .cz (Czechy) i .ky (Kentucky). Ponadto, chociaż .tv jest przeznaczone dla kraju Tuvalu, wiele amerykańskich stacji telewizyjnych korzysta z tej domeny, na przykład edukacyjna stacja telewizyjna z Uniwersytetu Kalifornijskiego w San Diego (http://www.ucsd.tv). Z biegiem czasu zatwierdzono nowe domeny gTLD, w tym .biz, .museum i .tel. Chociaż te trzy są używane, większość innych nowych gTLD nie jest tak popularna. Jednak za każdym razem, gdy nowe gTLD jest zatwierdzane, firmy uznają, że ważne jest, aby zarejestrować swoje nazwy i znaki towarowe. Strategia ta powstrzymuje spekulantów przed cybersquattingiem i chroni własność intelektualną.

Sprawy sądownicze

Wczesne przypadki cybersquattingu były w całości oparte na zasadach dotyczących znaków towarowych z ustawy Lanham Act, 15 Kodeksu USA, sekcja 1051-1149n. Popularne teorie obejmowały rozmycie i rozmycie znaku towarowego, niewykorzystywanie towarów lub usług w handlu oraz prawdopodobieństwo wprowadzenia konsumentów w błąd. Ale sądy były niekonsekwentne w stosowaniu prawa znaków towarowych. Wiele wczesnych spraw dotyczyło Dennisa Toeppena, notorycznego spekulanta, który zarejestrował domeny takie jak deltaairlines.com, britishairways.com, neimanmarcus. com, eddiebauer.com, unionpacific.com i americanstandard.com. W pierwszej zgłoszonej decyzji dotyczącej cybersquattingu Intermatic Inc. v. Toeppen (1996), Sąd Okręgowy Stanów Zjednoczonych dla Północnego Dystryktu Illinois stwierdził, że Toeppen stworzył prawdopodobieństwo pomyłki na podstawie art. 114 ustawy Lanham, błędnie rejestrując nazwę intermatic. com. W innej sprawie dotyczącej Toeppen, Panovision przeciwko Toeppen (1996), Dystrykt Centralny Kalifornii stwierdził rozmycie na podstawie Ustawy o Rozcieńczeniu Znaków Towarowych z 1995 r., 15 Kodeksu USA, sekcja 1125(c). Inne rejestracje były mniej nikczemne, ale nadal problematyczne. W październiku 1994 r. Joshua Quittner zarejestrował domenę mcdonalds.com jako część historii. Firma przygotowująca testy Princeton Review zarejestrowała nazwę kaplan.com, aby gromadzić skargi na ich rywala Stanley Kaplan Co. I wielu wczesnych internautów odwiedzało witrynę z pornografią pod adresem http://www.whitehouse.com zamiast na stronę rządową pod adresem http:/ /www.whitehouse.gov. Ostatecznie Stany Zjednoczone rozwiązały ten problem, uchwalając ustawę Anticybersquatting Consumer Protection Act z 1999 r., 15 Kodeksu USA, sekcja 1125(d)(1). Ta ustawa sprawiła, że rejestracja nazwy domeny, która jest identyczna lub łudząco podobna do znaku towarowego, jest niezgodna z prawem, jeśli rejestrujący "ma zamiar osiągnięcia zysku w złej wierze". Ten statut rozwiązał problemy z piratami, takimi jak Dennis Toeppen. Nowsze przypadki obracają się teraz wokół mediów społecznościowych i słów kluczowych reklamowych używanych w witrynach wyszukiwania.

Środki zaradcze

Oprócz ustawy o przeciwdziałaniu cybersquattingowi ICANN (Internetowa Korporacja ds. Przypisanych Nazw i Numerów), która koordynuje Internet, stworzyła jednolitą politykę rozwiązywania sporów dotyczących nazw domen i szybkiego zawieszania błędnie zarejestrowanych nazw. Wszyscy rejestratorzy akredytowani przez ICANN przestrzegają tej polityki, podobnie jak Światowe Stowarzyszenie Własności Intelektualnej. Cybersquatting jest naruszeniem prawa znaków towarowych. Rejestrując nazwę domeny innej osoby lub podmiotu, cyberpirat narusza własność intelektualną. Ta praktyka była poważnym problemem w latach 90., kiedy sieć WWW po raz pierwszy stała się popularna. W ostatnich latach problem stanowił mniejszy problem ze względu na jednolite zasady dotyczące sporów dotyczących nazw domen i ustawę o ochronie konsumentów przed cybersquattingiem z 1999 r., ponieważ obecnie nielegalne jest rejestrowanie nazwy, a następnie próba jej sprzedaży właścicielowi znaku towarowego.



Powrót

Cyberstalking



Technologia internetowa zrewolucjonizowała niemal każdą dziedzinę życia społecznego, w tym komunikację, edukację, biznes i wypoczynek. Nie powinno więc dziwić, że Internet zmienił wiele rodzajów zachowań przestępczych i dewiacyjnych. Na przykład pojawiły się nowe formy kradzieży i oszustw. Co więcej, osoby, które wykorzystują seksualnie dzieci, wykorzystywały Internet do handlu pornografią dziecięcą, a także do lokalizowania dzieci narażonych na wiktymizację. Ponadto organizacje terrorystyczne i grupy białej supremacji wykorzystują Internet jako miejsce zarówno do rekrutacji nowych członków, jak i do rozpowszechniania swoich antyspołecznych ideologii. Stalking nabrał także nowego wymiaru za sprawą Internetu. Istnieje wiele sposobów wykorzystania technologii informacyjnych i komunikacyjnych do zastraszania, grożenia lub nękania ludzi w inny sposób. Badania nad cyberstalkingiem są w powijakach, a o tradycyjnym stalkingu wiadomo znacznie więcej. Istnieje jednak coraz więcej literatury o charakterze, zakresie i skutkach cyberstalkingu, a także o cechach zaangażowanych osób. Ten wpis definiuje cyberstalking i omawia jego kontekst. W dalszej części omówiono aktualne wyniki badań oraz niektóre znane krótko- i długoterminowe konsekwencje cyberstalkingu.

Definicja cyberstalkingu

Ponieważ Internet neguje tradycyjne bariery fizycznej lokalizacji i tożsamości, może służyć jako podstawowe medium dla osób, które chcą nękać, zastraszać lub grozić innym. Cyberstalking jest często jednym z elementów szerszej konstelacji zachowań, która obejmuje również nękanie i groźby poza Internetem. W tym scenariuszu cyberstalking należy uznać za rozszerzenie tradycyjnego stalkingu. Niektórzy obserwatorzy twierdzą, że cyberstalking jest najczęstszy w związkach byłych partnerów. Jednak ze względu na unikalne cechy komunikacji internetowej możliwe jest, że przestępcy w przypadku cyberstalkingu będą zupełnie obcy. Wyniki badania studentów z 2012 roku przeprowadzonego przez Bradforda Reynsa, Billy'ego Hensona i Bonnie Fishera wykazały, że 44% ofiar cyberstalkingu uważa, że w rzeczywistości są celem zupełnie obcych ludzi. Przestępca może wybrać ofiarę, a następnie zaatakować ją wyłącznie online. Według szacunków z 2014 r. około jedna czwarta przypadków cyberstalkingu jest całkowicie ograniczona do środowiska online. Alternatywnie, stalking może rozpocząć się w środowisku online, a następnie przerodzić się w stalking offline. Nie ma powszechnie akceptowanej definicji cyberstalkingu i zaproponowano wiele konceptualizacji. Sprawę dodatkowo komplikuje fakt, że terminy cybernękanie i cyberprzemoc były czasami używane zamiennie z cyberstalkingiem. Istnieje jednak kilka wspólnych tematów, które pojawiły się w odpowiedniej literaturze. W związku z tym cyberstalking można zdefiniować jako wielokrotne korzystanie z urządzeń obsługujących Internet w celu nękania lub grożenia innym. Brian H. Spitzberg i Gregory Hoobler zauważyli dwa kluczowe podobieństwa między cyberstalkingiem a stalkingiem "proksymalnym" lub "tradycyjnym". Po pierwsze, oba obejmują powtarzające się działania w czasie. Po drugie, muszą istnieć dowody na postrzegane zagrożenie związane z obydwoma tymi działaniami. Podobnie jak w przypadku tradycyjnego stalkingu, w przypadku cyberstalkingu należy wziąć pod uwagę motywację przestępcy. W szczególności sprawca musi mieć zamiar nękać ofiarę lub grozić jej swoim zachowaniem. Wreszcie błędem jest klasyfikowanie każdego niechcianego kontaktu przez Internet jako cyberstalkingu, co wydaje się robić niektórzy badacze. Na przykład powtarzające się wiadomości spamowe są z pewnością irytujące; jednak brakuje im postrzeganego zagrożenia i zamiaru zaklasyfikowania jako cyberstalking.

Kontekst cyberstalkingu

Cyberstalking może odbywać się za pośrednictwem różnych miejsc, w tym poczty e-mail, komunikatorów internetowych, tablic ogłoszeniowych, czatów i dowolnej stale rosnącej liczby serwisów społecznościowych. Pojęcie cyberstalkingu obejmuje szeroki wachlarz zachowań, w tym zbieranie informacji o ofierze, wielokrotne wysyłanie do niej wiadomości zawierających groźby oraz zamieszczanie wrogich materiałów mających na celu napiętnowanie lub zrujnowanie reputacji ofiary. Termin cybersmearing jest używany do opisania celowej próby zaszkodzenia reputacji innej osoby za pomocą medium jakim jest Internet. Pojęcie cyberseksualnego zniesławienia jest używane do opisywania publikowania w Internecie zniesławiających wiadomości o charakterze seksualnym lub wyraźnych zdjęć danej osoby. Cyberstalking może również obejmować "stalking przez pełnomocnika", w którym przestępca nakłania innych do nękania ofiary w jego imieniu. Jednym z przykładów może być umieszczenie fałszywej reklamy internetowej z wykorzystaniem danych kontaktowych ofiary. Cyberstalker może również opublikować kuszącą lub kontrowersyjną wiadomość na internetowym forum dyskusyjnym pod nazwą, adresem e-mail i/lub numerem telefonu celu, co skutkuje wysłaniem odpowiedzi do ofiary.

Badania nad cyberstalkingiem

Ponieważ cyberstalking jest stosunkowo nowym zjawiskiem, brakuje wiarygodnych badań na temat rozpowszechnienia tego zachowania. Ponieważ cyberstalking jest bez wątpienia przestępstwem, które nie zostało zgłoszone, oficjalne raporty policyjne są w tym względzie mało przydatne. Ponadto, istniejące badania na ten temat mają zasadniczo charakter eksploracyjny i generalnie wykorzystują próbki wygodne, które nie są adekwatną reprezentacją populacji ogólnej. W przeglądzie zachowanych szacunków dotyczących częstości występowania cyberstalkingu z 2014 r. Harald Dre?ing i współpracownicy odkryli, że szacunki wiktymizacji cyberstalkingu wahają się od 3,7% do 82%. Jednym z powodów tej niezwykłej zmienności szacunków jest użycie różnych definicji tego zachowania w analizowanych badaniach. W 2012 r. Reyns i współpracownicy oszacowali, że częstość występowania wiktymizacji przez cyberstalking w ciągu całego życia w próbie wygodnej studentów college'ów z Środkowego Zachodu wynosi 40,8%. Wśród próby użytkowników niemieckiego portalu społecznościowego Dre?ing i współpracownicy stwierdzili ponadto, że 6,3% respondentów zgłosiło wiktymizację cyberstalkingu. Ogólnie przyjmuje się, że osoby młodsze będą miały wyższy wskaźnik tego zachowania. Ograniczone badania na ten temat ujawniły wzorzec płci w odniesieniu do cyberstalkingu. Z jednej strony mężczyźni znacznie częściej angażują się w takie zachowanie. Z drugiej strony kobiety znacznie częściej padają ofiarą cyberstalkingu. Do tej pory tylko jedno badanie przeprowadzone przez Reynsa i współpracowników, opublikowane w 2011 r., dotyczyło różnych innych czynników predykcyjnych wiktymizacji cyberstalkingu. Po pierwsze, udział w "dewiacji online" był najbardziej konsekwentnym i najsilniejszym predyktorem wiktymizacji. Przykłady obejmowały nękanie online, cyberstalking i nielegalne pobieranie plików multimedialnych (tj. filmów i muzyki). Po drugie, im większa liczba kont w mediach społecznościowych dana osoba, tym większe ryzyko wiktymizacji. Wreszcie, osoby, które kojarzą się ze zboczonymi rówieśnikami online (osobami aktywnie zaangażowanymi w dewiacje online), są bardziej niż inne osoby narażone na cyberprześladowanie.

Wpływ cyberstalkingu

Cyberstalking może mieć niezwykle problematyczne konsekwencje dla ofiar. Te niekorzystne skutki obejmują poczucie bezradności, strach przed bezpieczeństwem osobistym, niepokój i koszmary senne. W jednym z nielicznych badań na ten temat Dreßing i współpracownicy doszli do wniosku, że skutki cyberstalkingu na samopoczucie ofiary są analogiczne do skutków stalkingu offline lub tradycyjnego. Na przykład badacze ci odkryli, że ponad połowa ofiar zgłosiła, że doświadczyła poczucia bezradności, agresji i gniewu. Co więcej, dwie trzecie ofiar zgłaszało problemy ze snem oraz brak zaufania do innych. Jednak szkody związane z dwoma konkretnymi przejawami cyberstalkingu - cybersmarowaniem i cyberseksualnym zniesławieniem - wydają się być znacznie bardziej szkodliwe niż jakiekolwiek równoważne działania off-line. W związku z tym po opublikowaniu szkodliwych treści może być natychmiast dostępny dla szerokiej gamy osób w nieskończonej liczbie lokalizacji. Ponadto ta szkodliwa zawartość może trwale pozostać w cyberprzestrzeni. Istnieje wiele czynników, które wydają się przyczyniać do istnienia zjawiska cyberstalkingu. Ponieważ w cyberprzestrzeni postrzegana jest anonimowość, przestępcy mogą sądzić, że mają niewielkie, jeśli w ogóle, szanse na zidentyfikowanie. W środowisku internetowym istnieje zjawisko, które psychologowie nazywają efektem odhamowania. Sugeruje to, że ludzie będą robić i mówić w cyberprzestrzeni różne rzeczy, których nie powiedzieliby ani nie zrobiliby w środowisku twarzą w twarz. Na przykład osoba, która może nie chcieć osobiście skonfrontować się z inną osobą, może nie wahać się przed wysłaniem napastliwej komunikacji do ofiary. W badaniu z 2004 r. John Suler opisał również "toksyczne odhamowanie", które obejmuje nienawiść, groźby, ostrą krytykę i niegrzeczny język (s. 321). Innym czynnikiem przyczyniającym się do tego są trudności organów ścigania w prowadzeniu dochodzeń i ściganiu przypadków cyberstalkingu. Sprawca i ofiara mogą znajdować się w różnych jurysdykcjach, a status prawny zachowań związanych z cyberstalkingiem może się znacznie różnić w poszczególnych jurysdykcjach. Wspomniana wcześniej anonimowość związana z interakcją online sprawia, że pozytywna identyfikacja rzeczywistego sprawcy, nawet w celu wszczęcia postępowania karnego, jest niezwykle trudna. Jedna z najpopularniejszych teorii w kryminologii, teoria czynności rutynowych, dostarcza użytecznych ram do rozważenia cyberstalkingu. Zgodnie z teorią czynności rutynowych przestępczość jest funkcją życia codziennego i występuje, gdy zbiegają się trzy określone czynniki. Pierwszy czynnik to zmotywowani przestępcy. Są to osoby, które chcą popełnić przestępstwo. Jeśli chodzi o cyberstalking, jest to ktoś, kto chce nękać, grozić lub zniesławiać inną osobę. Druga to obecność atrakcyjnych celów. To jest ktoś lub coś, co przemawia do zmotywowanego sprawcy. W przypadku cyberstalkingu atrakcyjnym celem byłaby osoba, do której przestępca ma pewien rodzaj wrogości. Ostatnim czynnikiem jest brak zdolnych opiekunów, czyli osób, które mogą zniechęcić do przestępstwa. Jak już wcześniej wspomniano, niezwykle trudno jest nadzorować Internet pod kątem przestępstw takich jak cyberstalking. Możliwość korzystania przez przestępcę z przeglądarek proxy i anonimowych remailerów sprawia, że jest jeszcze mniej prawdopodobne, że zainteresowane strony zdołają nawet poprawnie zidentyfikować cyberprzestępcę. Ponieważ cyberstalking jest nowym zjawiskiem i istnieje poważny brak badań naukowych, dobrze zaprojektowane badania empiryczne są bardzo potrzebne, aby rozwinąć naprawdę adekwatne zrozumienie tego zachowania. Najpilniejszą potrzebą jest dokładne oszacowanie rozpowszechnienia cyberstalkingu w populacji ogólnej. Nie będzie to jednak możliwe, dopóki naukowcy nie osiągną pewnego rodzaju konsensusu w sprawie rzeczywistej definicji operacyjnej cyberstalkingu.



Powrót

Cyberterroryzm



Cyberterroryzm dotyczy działalności, która wykorzystuje sieci komunikacji elektronicznej do realizacji celów niezgodnych z prawem i opartych na przemocy, i jest coraz większym problemem na całym świecie. Ponieważ komputery kontrolują większość infrastruktury rozwiniętego świata, infrastruktura ta jest łatwo penetrowana przez wyspecjalizowanych hakerów. Cyberataki mogą wyrządzić ogromne szkody terrorystom niewielkim kosztem. Niniejszy wpis analizuje sprzeczne definicje cyberterroryzmu i skalę zagrożenia cyberterroryzmem.

Definicje cyberterroryzmu

Nie ma międzynarodowo uzgodnionej definicji terroryzmu, ale większość definicji zawiera następujące elementy: Terroryści to podmioty niepaństwowe i/lub sponsorowane przez państwo. Motywacja jest oddzielona od osobistych korzyści; ma charakter polityczny, religijny lub ideologiczny. Akty terroru są zazwyczaj dziełem niewielkiej liczby zaangażowanych jednostek, które dążą do tego, co postrzegają jako "większe dobro" większej grupy, z którą terroryści się identyfikują. Cele terrorysty są dwojakie: (1) podkopanie, zranienie i/lub zniszczenie wroga oraz (2) szerzenie strachu wśród szerokich kręgów docelowej populacji i poza nią. Terroryści nie kierują się pewną zasadą. Są gotowi złamać każdą zasadę, aby promować swoje cele. Konwencje międzynarodowe nie mają do nich zastosowania. Łamanie wszelkich norm i zasad jest naczelną zasadą terrorysty. Środki nie mają granic. Terroryści są gotowi uzasadnić wszelkie środki do osiągnięcia swoich celów. Często stosują przemoc lub grożą przemocą wobec celów. Każda osoba, która nie należy do grupy terrorystycznej lub jej sojuszników, jest potencjalnie zaliczana do ogólnej kategorii "wroga". Celem są niewalczący, niewinni cywile i przedstawiciele państwa. Ich lokalizacja jest wszędzie. Terroryści chcą zaskakiwać, trzymać wroga na palcach, wyczerpywać i rozciągać jego zasoby. Atakują gdzie tylko mogą. Terroryzm jest zatem definiowany jako groźba lub użycie narzędzi zniszczenia przeciwko celom, w tym osobom nie walczącym i niewinnym cywilom, do celów politycznych, religijnych lub ideologicznych przez grupy i/lub osoby potajemne, których zachowanie ma na celu promowanie sprawy terrorysty, przyciągnięcie uwagi, oraz szerzyć strach i niepokój wśród szerokich kręgów docelowej populacji i poza nią. Cyberterroryzm ma na celu zastraszanie lub zmuszanie rządów do realizacji celów politycznych, religijnych lub ideologicznych. Jest przeznaczony do sabotowania krytycznej infrastruktury krajowej (sieci komputerowe, woda, elektryczność, transport i inne niezbędne operacje rządowe). Cyberterroryzm definiuje się jako ataki motywowane ideologicznie lub politycznie, przeprowadzane przez sponsorowanych przez państwo i podmioty niepaństwowe przeciwko skomputeryzowanej infrastrukturze z zamiarem wyrządzenia znacznych szkód agencjom rządowym i urzędnikom, a także celom niebędącym w walce. Takie działania, umożliwione przez komputery, mogą skutkować śmiercią i/lub zniszczeniem, tworząc terror w celu zmuszenia rządów do zmiany ich polityki. Cyberterroryzm może podważyć gospodarkę kraju, atakując krytyczną infrastrukturę dużych miast, taką jak tamy, reaktory jądrowe oraz źródła wody i energii, które często są obsługiwane za pomocą komputerów. Takie ataki mogą również wyrządzić poważne szkody bankom i innym instytucjom finansowym. Terroryzm i cyberterroryzm są destrukcyjne, ale niekoniecznie brutalne. Nawet jeśli Bliźniacze Wieże byłyby puste 11 września 2001 r., a atak nie spowodowałby ofiar w ludziach, to i tak zostałby uznany za akt terroru. Podobnie cyberterroryzm może zakłócać systemy komunikacji i informacji. Może powodować spustoszenie, zamęt i strach. Takie ataki gwarantowałyby również terrorystom szerokie relacje w mediach. Zależność społeczeństwa od technologii informacyjnych może zostać wykorzystana przez terrorystów. Są zainteresowani włamywaniem się do wrażliwych systemów komunikacyjnych i zdobywaniem informacji, które mogą osłabić wroga. Należą do nich narodowe systemy obronne; systemy finansowe i zdrowotne; trasy dla pojazdów przewożących odpady niebezpieczne; elektrownie, wodociągi i elektrownie; lotniska i bazy morskie; dostawy paliw dla gmin; powierzchnie do przechowywania zboża, bydła i innych produktów rolnych; miejsca przechowywania niebezpiecznych chemikaliów; plany transportu i budowy dróg; oraz imprezy okolicznościowe (duże zgromadzenia ludzi). Ataki na infrastrukturę można przeprowadzać zdalnie. W 2000 roku Vitek Boden, były pracownik wykonawcy, który zainstalował w Australii sterowane radiowo urządzenia kanalizacyjne, wykorzystał swoją wiedzę do zdalnego sterowania urządzeniami i uwolnił ponad 200 000 galonów nieoczyszczonych ścieków do dróg wodnych. Od czasu ataków terrorystycznych z 11 września 2001 r. rząd Stanów Zjednoczonych i media wielokrotnie wypowiadały się na temat zagrożenia terrorystów wykorzystujących komputery do przeprowadzenia katastrofalnego ataku na Stany Zjednoczone.

Czy zagrożenie cyberterroryzmem jest realne?

Istnieje spór co do tego, czy cyberterroryzm - czyny przestępcze popełniane za pomocą komputerów, powodujące przemoc, śmierć i/lub zniszczenie oraz tworzące terror w celu zmuszenia rządów do zmiany ich polityki - jest namacalnym zagrożeniem. Podczas gdy niektórzy twierdzą, że należy je postrzegać jako konkretne zagrożenie, inni uważają, że zagrożenie cyberterroryzmem jest rażąco przesadzone. Dorothy Denning stwierdziła, że możliwość wystąpienia cyberterroryzmu jest problemem, ponieważ grupy terrorystyczne stają się coraz bardziej świadome wartości cyberprzestrzeni dla ich celów. Są biegli w używaniu Internetu do rozpowszechniania propagandy i innych informacji, zbierania danych o potencjalnych celach i broni, komunikowania się z kohortami i zwolennikami, rekrutowania członków, zbierania pieniędzy i przyspieszania ich operacji. Opowiadali się za przeprowadzaniem cyberataków i angażowali się w hakowanie. Pojawiły się nowe grupy hakerskie z widocznymi powiązaniami z terrorystami. Denning twierdził, że Internet przyniósł rozszerzenie szkodliwych aktów wspierających cele terrorystyczne, niezależnie od tego, czy akty te są scharakteryzowane jako cyberterroryzm, czy nie. Co więcej, cyberterroryzm może wyrządzić ogromne szkody, podczas gdy sprawcy pozostają na obcych brzegach, z dala od celu. Inni twierdzą, że zagrożenie cyberterroryzmem było głośne, a ostrzeżenia przed niebezpieczeństwem znacznie przewyższają rzeczywiste zagrożenie. Zgodnie z tą krytyką cyberterroryzmu organizacjom terrorystycznym brakuje wymaganych zaawansowanych zdolności technologicznych do przeprowadzania takich ataków, a alarmiści nie doceniają zdolności wywiadu państwowego do identyfikowania i powstrzymywania takich ataków. Tak zwani realiści uważają, że cyberataki są mniej atrakcyjne dla terrorystów, ponieważ brakuje im teatralnej krwi ataków fizycznych. Bill Blunden nazywa dyskusje o zagrożeniu cyberterroryzmem "inflacją zagrożeń". Blunden wyjaśnia, że celem inflacji groźby jest wzbudzenie niepokoju, wywołanie głębokiego poczucia niepokoju, tak aby opinia publiczna była otwarta na zachęty marketingowe wyłaniające się z przemysłu obronnego. W tym samym duchu argumentowano, że rząd USA wyolbrzymia groźbę wywołania większego niepokoju publicznego przed terroryzmem, a tym samym zdobycia większego poparcia dla swojej wojny z terroryzmem. Joshua Green zapewnił, że po 11 września administracja George'a W. Busha i organizacje bezpieczeństwa wielokrotnie ostrzegały, że terroryści mogą uderzyć w krajowe sieci komputerowe, ale ostrzeżenia te przesadzały z ryzykiem cyberterroryzmu. Krytycy twierdzą, że administracja Busha podkreśliła groźbę zwiększenia publicznego niepokoju przed terroryzmem, a tym samym pozyskała większe wsparcie dla swojego budżetu na walkę z terroryzmem. Z kolei firmy technologiczne mogą skorzystać na ferworze związanym z cyberterroryzmem, ponieważ zwiększa to popyt na ich produkty zabezpieczające. Chociaż administracja Busha mogła wyolbrzymiać zagrożenie cyberterroryzmem, wyzwanie międzynarodowych sieci terroru jest realne i wymaga międzynarodowej współpracy w celu przeciwdziałania jego zagrożeniom. Cyberterroryzm może być wspierany i wspomagany przez państwa, które mają zasoby do organizowania takich ataków, jeśli i kiedy ich przywódcy uznają, że nadszedł czas i że taki atak będzie służył ich najlepszym interesom. Yoram Schweitzer i współpracownicy podkreślili związek między organizacjami terrorystycznymi a państwami, które sponsorują terror, argumentując, że cyberataki są dla nich atrakcyjne, ponieważ anonimowość zapewniana przez Internet utrudnia udowodnienie tożsamości sprawcy i przypisanie winy. Amerykanie wykazują rosnące zaniepokojenie cyberterroryzmem. Rząd USA inwestuje więcej środków, aby chronić naród przed takimi atakami. W 2004 roku były dyrektor CIA George Tenet twierdził, że brak ochrony sieci komputerowych zagraża stabilności finansowej i bezpieczeństwu fizycznemu USA. Inny były dyrektor CIA, Robert Gates, ostrzegł, że cyberterroryzm może być najbardziej niszczycielską bronią masowego rażenia i może sparaliżować amerykańską gospodarkę. Przedłużający się cyberatak na U.S. Naval War College w Newport w stanie Rhode Island w 2006 roku doprowadził do tego, że urzędnicy odcięli cały kampus od Internetu. W 2007 roku podobny atak na Pentagon skłonił urzędników do tymczasowego odłączenia części niesklasyfikowanej sieci od Internetu. Urzędnicy obrony USA przyznali, że do Globalnej Sieci Informacyjnej, która jest główną siecią armii USA, codziennie dochodziło ponad 3 miliony prób włamań. Administracja Baracka Obamy również poważnie potraktowała zagrożenie cyberterroryzmem. W 2009 roku Departament Bezpieczeństwa Wewnętrznego przeprowadził eksperyment Aurora Project, który ujawnił niektóre z podatności krajowych systemów kontroli na cyberterroryzm. Eksperyment polegał na ataku komputerowym na system sterowania generatorem, który spowodował przerwanie działalności i zniszczenie sprzętu. W październiku 2012 r. sekretarz obrony Leon Panetta ostrzegł, że Stany Zjednoczone stoją w obliczu możliwości "cyber-Pearl Harbor" i są coraz bardziej narażone na ataki zagranicznych hakerów komputerowych, którzy mogą zdemontować krajową sieć energetyczną, system transportowy, sieci finansowe i rząd. Panetta powiedział, że najbardziej destrukcyjne możliwości polegają na "cyberaktorach przeprowadzających jednocześnie kilka ataków na naszą infrastrukturę krytyczną w połączeniu z atakiem fizycznym". W lutym 2014 roku prezydent Obama oświadczył, że cyberterroryzm stał się największym zagrożeniem dla kraju. Obama złożył to oświadczenie po serii ataków typu "odmowa usługi" na komputery rządu USA i prób włamania do głównego komputera CIA oraz francuskich, izraelskich i brytyjskich agencji obrony. W marcu 2015 roku dyrektor CIA John Brennan ogłosił swój plan przeniesienia tysięcy tajnych szpiegów i analityków wywiadu w ramach restrukturyzacji agencji wywiadowczej, aby lepiej stawić czoła współczesnym zagrożeniom i wyzwaniom. Ale w 2015 r. w ocenie zagrożenia dla Senackiej Komisji Sił Zbrojnych i Stałej Komisji Specjalnej ds. Wywiadu, dyrektor krajowego wywiadu James Clapper zbagatelizował znaczenie zagrożenia cyberterroryzmem, mówiąc, że istnieje tylko znikoma możliwość katastrofalnego ataku ze strony konkretnego aktora. . Zamiast tego oświadczenie Clappera przewidywało cyberataki na niskim i średnim poziomie pochodzące z różnych źródeł (w tym z Iranu i Korei Północnej) i narzucające skumulowanie kosztów na konkurencyjność gospodarczą USA i bezpieczeństwo narodowe. W jego ocenie cyberzagrożenia nie da się wyeliminować; raczej należy nim zarządzać. W 2016 r. Instytut Technologii Infrastruktury Krytycznej poinformował, że główną grupą cyberterrorystów jest cyberoddział ISIS, zwany Cyberkalifatem. ISIS utworzyło linię pomocy cybernetycznej, aby ułatwić rekrutację, jednocześnie zapewniając anonimowość, dostarczając informacji o hakowaniu i sposobach przeprowadzania cyberataków. Według Timothy'ego Thomasa libańska organizacja terrorystyczna Hezbollah nakreśliła strategię zakłócenia izraelskiej gospodarki i operacje społeczne poprzez ataki na izraelskie strony internetowe rządu, wojska i biznesu. W 2012 roku były dyrektor CIA James Woolsey ostrzegał przed możliwością przeprowadzenia przez Hezbollah cyberataku na Stany Zjednoczone.

Rozważania na przyszłość

Media cyfrowe są aktywami dla wszystkich, w tym dla terrorystów. Rozpowszechnienie Internetu, jego międzynarodowy charakter i jego niski koszt przyczyniły się do powstania nowoczesnych form terroryzmu. Wyzwanie cyberterroryzmu jest konkretne. Ponieważ terroryści mogą uzyskać dostęp do poufnych informacji w Internecie, jednostki i państwa muszą uważać na to, co przesyłają lub publikują. Ponadto państwa mogą wzmocnić ochronę krytycznej komunikacji, systemów informatycznych i niezbędnej infrastruktury. Skuteczniejsze cyberbezpieczeństwo obejmowałoby systemy chroniące dostępność, integralność i poufność ważnych informacji. Ponieważ terroryści mają tendencję do pracy w międzynarodowych sieciach, niezbędna jest międzynarodowa koordynacja walki z nimi. Skuteczne zbieranie informacji wywiadowczych, ulepszone techniki śledzenia i pozyskiwanie możliwości zakłócania w celu udaremnienia cyberataków wymagają wysokiego poziomu współpracy zarówno online, jak i offline. Skuteczna obrona przed potencjalnymi atakami cyberterrorystycznymi wymaga współpracy między agencjami rządowymi, organami ścigania i firmami high-tech. W 2015 r. Biały Dom ogłosił, że Stany Zjednoczone i Rada Współpracy Zatoki Perskiej, w skład której wchodzą Bahrajn, Kuwejt, Oman, Katar, Arabia Saudyjska i Zjednoczone Emiraty Arabskie, będą "konsultować się w sprawie inicjatyw w zakresie cyberbezpieczeństwa, dzielić się wiedzą i najlepszymi praktykami w zakresie cyberbezpieczeństwa". polityka, strategia i reakcja na incydenty" (Lohrmann, 2015). W oświadczeniu stwierdzono ponadto, że Stany Zjednoczone zapewnią państwom członkowskim Rady Współpracy Państw Zatoki dodatkową pomoc w zakresie bezpieczeństwa, zorganizują wojskowe ćwiczenia cyberbezpieczeństwa i warsztaty dotyczące polityki krajowej oraz poprawią wymianę informacji". Również w 2015 r. urzędnicy ds. bezpieczeństwa Unii Europejskiej ogłosili plany utworzenia nowej europejskiej jednostki antyterrorystycznej do walki z cyberterroryzmem. Podobnie jak Internet, współczesny terroryzm jest globalny i zdecentralizowany. Jego zdolność do rozwoju jest w dużej mierze zależna od Internetu, a eksperci sieciowi mogą wyrządzić znaczne szkody, wykorzystując luki i słabości w sieciach telekomunikacyjnych. Do tej pory cyberterroryzm powodował zakłócenia systemów komunikacyjnych, udane nieautoryzowane włamania do systemów komunikacyjnych, wyłączanie i uszkadzanie stron internetowych, uszkadzanie kont w mediach społecznościowych oraz ujawnianie danych osobowych polityków, organów ścigania i personelu wojskowego w połączeniu z groźbami przeciwko nim i ich rodziny. Państwo Islamskie próbuje włamać się do amerykańskich firm energetycznych. Terroryści nieustannie inwestują i ulepszają swoje zdolności cybernetyczne, a międzynarodowa społeczność bezpieczeństwa również musi to robić, aby zwalczać cyberterroryzm.



Powrót

Cyberwojna



Cyberwojna polega na wykorzystywaniu Internetu przez jedno państwo do atakowania drugiego. Ataki cyberwojny zakłóciły infrastrukturę i systemy komunikacyjne krajów, w tym rynki finansowe, poprzez wykorzystanie szkodliwego kodu. Jak dotąd większość ataków cyberwojny przeprowadzanych w cyberprzestrzeni obejmowała rozproszone ataki typu "odmowa usługi" i była wymierzona w osoby zaangażowane poprzez spamowanie ich stron internetowych, dopóki nie będą już dostępne do użytku. Ataki te mogą potencjalnie wyrządzić znaczne szkody gospodarce i społeczeństwu docelowego kraju, jeśli będą przeprowadzane przez długi czas. Dobrze zaplanowany, skoordynowany atak który jednocześnie zniszczyły wiele systemów komputerowych obejmujących kontrolę ruchu lotniczego, transakcje finansowe i systemy energetyczne, mogą siać spustoszenie w kraju. Ten wpis dalej definiuje cyberwojnę i opisuje, czym różni się od wojny konwencjonalnej oraz od cyberterroryzmu i cyberprzestępczości. Następnie podaje przykłady. Cyberwojna różni się od wojny konwencjonalnej pod wieloma względami, w tym eliminacją granic między sferą cywilną i wojskową oraz między podmiotami państwowymi i niepaństwowymi. Różni się od cyberterroryzmu i cyberprzestępczości tym, że jest prowadzona przez aktorów państwowych, chociaż czasami trudno jest odróżnić te terminy, ponieważ są one luźno zdefiniowane. Eksperci, którzy pisali na temat cyberwojny w ostatnich latach, różnili się co do tego, czy stanowi ona pilny problem. W 2012 roku Thomas Rid twierdził, że cyberwojna nie miała miejsca i jest mało prawdopodobne, aby miało to miejsce w przyszłości, ponieważ cyberataki są po prostu rozszerzeniem od dawna używanych narzędzi wojny, takich jak szpiegostwo i sabotaż. Z drugiej strony, Gary McGraw argumentował w 2013 roku, że cyberwojna jest nieunikniona bez poprawy obrony przed nią. Ponieważ cyberataki mogą z łatwością przekraczać granice państw, można je postrzegać jako część wyzwania, jakie globalizacja stawia poglądowi, że każde państwo narodowe ma suwerenność nad swoim terytorium i sprawami wewnętrznymi. Ponieważ cyberaktywność jest trudna do wyśledzenia, często trudno jest ustalić, kto jest odpowiedzialny za atak i zrozumieć jego motywy. Cyberataki napięły stosunki dyplomatyczne, aw niektórych przypadkach doprowadziły do odwetu. Rządy zaczęły podejmować kroki w celu ograniczenia potencjalnych szkód cyberataków. Na przykład, Departament Bezpieczeństwa Krajowego Stanów Zjednoczonych National Cyber Security Division obsługuje Program Bezpieczeństwa Systemów Kontroli, który obejmuje wyspecjalizowany Zespół ds. Cyber Emergency Response Team Przemysłowych Systemów Kontroli. Cyberwojna zazwyczaj obejmuje sponsorowane przez rząd podmioty inicjujące ataki na rządy lub instytucje powiązane z określonymi stanami, takie jak media (np. Al Jazeera, BBC, NPR) lub instytucje finansowe (np. JPMorgan Chase, Bank of America). Zarówno niezależne kolektywy hakerskie, jak i państwowe jednostki wojskowe dokonały tych ataków, których celem jest zakłócenie i rozmontowanie infrastruktury państw, podobnie jak inne akty wojny lub terroru.

Przykłady cyberwojny

Chiny

Podejrzewa się, że Chiny stoją za cyberatakami na Stany Zjednoczone już w latach 90. XX wieku. W latach 90. Chiny zmieniły swoją strategię wojskową, aby skupić się na rozwoju technologii i nowych formach wojny, w tym cyberwojnie. Urzędnicy rządowi USA wykryli ataki na rządowe pliki wywiadowcze pochodzące z Chin, które były podobne do tych przeprowadzanych podczas zimnej wojny, i podejrzewają, że Chiny rozwinęły cyberjednostkę w swojej armii już w 2003 roku. Ostatnio ataki przypisywane Chinom obejmowały nie tylko wywiad rządowy, ale także włamywanie się na serwery korporacji z listy Fortune 500, w szczególności firm z sektora energetycznego i prywatnych wykonawców obrony. Firma Google przeniosła swoje chińskie operacje do Hongkongu po wielokrotnym włamaniu w 2009 i 2010 roku. Seria cyberataków na systemy komputerowe rządu USA i sojuszników USA w latach 2003-2005, nazwana Titan Rain, została w dużej mierze przypisana Chinom po prześledzeniu adresów protokołu internetowego do routerów w prowincji Guangdong. Stany Zjednoczone wielokrotnie zwracały się do Chin o egzekwowanie swoich przepisów przeciwko cyberprzestępczości, ale Chiny odmówiły usankcjonowania wszelkich ataków i nalegały, aby osoby, które zostaną złapane, były ścigane. W lutym 2013 r. rząd USA opublikował raport prywatnej firmy Mandiant zajmującej się bezpieczeństwem komputerowym, która po raz pierwszy oficjalnie oskarżyła Chiny o to, że stoją za atakami na ponad 140 firm i agencji rządowych. Raport szczegółowo opisywał działania jednostki 61398, biura Armii Ludowo-Wyzwoleńczej, które, jak się uważa, stało za atakami. Około 90% udokumentowanych ataków miało miejsce w bloku na przedmieściach Szanghaju, w którym mieści się jednostka. Większość cyberataków miała miejsce za pośrednictwem wiadomości e-mail typu spearfish, które umieszczają złośliwe oprogramowanie na komputerach i umożliwiają atakującemu zdalny dostęp do systemu komputerowego. Uważa się, że ataki umożliwiły jednostce 61398 kradzież danych, w tym szczegółów dotyczących infrastruktury, takiej jak linie wodne, gazowe i elektryczne, od 115 podmiotów w USA, a także kilku w Kanadzie i Wielkiej Brytanii. Chińscy urzędnicy zaprzeczali, że ataki były koordynowane przez wojsko, ale ataki natychmiast spowolniły po ogłoszeniu raportu. Jednak w kwietniu i maju 2013 r. nastąpił wzrost aktywności hakerskiej pochodzącej z tej samej lokalizacji geograficznej, choć z różnych komputerów. W maju 2013 roku Pentagon opublikował oficjalny raport identyfikujący chińskie wojsko jako źródło cyberataków i stwierdził, że ataki te ujawniły plany dotyczące amerykańskiej broni wojskowej i transportu. Chińscy urzędnicy twierdzą, że Stany Zjednoczone również przeprowadziły cyberataki na Chiny. Chiński Zespół Techniczny/Centrum Koordynacji Reagowania Kryzysowego Krajowej Sieci Komputerowej twierdzi, że posiada dowody na to, że 4062 amerykańskie serwery komputerowe przejęły 2,91 miliona komputerów typu mainframe w Chinach. W czerwcu 2013 r. South China Morning Post poinformował, że informacje dostarczone przez byłego kontrahenta Agencji Bezpieczeństwa Narodowego (NSA) i demaskatora Edwarda Snowdena wykazały, że co najmniej 63 komputery i serwery na Uniwersytecie Tsinghua w Pekinie zostały zhakowane przez NSA na początku tego roku. Rząd USA udzielił również wsparcia grupom działającym na rzecz obejścia tak zwanej Wielkiej Chińskiej Zapory Sieciowej, serii surowych przepisów dotyczących Internetu, które blokują dostęp do wielu zagranicznych stron internetowych.

Iran

Robak komputerowy Stuxnet, który został uruchomiony przeciwko Iranowi w 2009 roku, był spektakularnym przykładem cyberataku. Uważa się, że Stuxnet został zaprojektowany przez amerykańskich i izraelskich programistów i używany przeciwko wirówkom w zakładzie wzbogacania uranu w Natanz w Iranie. Amerykańskie próby powstrzymania irańskiego programu nuklearnego, w tym sankcje handlowe i żądania międzynarodowych inspekcji, zakończyły się niepowodzeniem, a doniesienia prasowe wskazywały, że wirus był postrzegany jako środek do ograniczenia irańskiego programu nuklearnego. Chociaż Izrael odmówił skomentowania ataku, ciąg tekstowy w wirusie zawierał słowo Myrtus, uważane za aluzję do hebrajskiego słowa Estera. W Księdze Estery Żydzi z wyprzedzeniem atakują swoich perskich wrogów. Eksperci wywiadu i wojskowi powiedzieli The New York Times, że robak był testowany na maszynach podobnych do tych w Iranie w Dimona, nieuznawanym obiekcie nuklearnym w Izraelu. W 2013 roku Snowden twierdził w wywiadzie dla niemieckiego magazynu Der Spiegel, że Izrael i NSA nawiązali współpracę przy tworzeniu kodu. W momencie odkrycia Stuxnet był uważany za najbardziej zaawansowaną broń do cyberwojny, jaką kiedykolwiek wdrożono, z ponad 15 000 linii kodu, który pozwalał mu na samoreplikację, podczas gdy pozostawał zasadniczo niewidoczny. Złośliwe oprogramowanie rozprzestrzeniło się w systemach operacyjnych Microsoft Windows i było ukierunkowane na oprogramowanie nadzorcze i akwizycji danych wykorzystywane do obsługi sterowników wirówek niezbędnych do wzbogacania uranu. Przed spowodowaniem nieprawidłowego działania wirówek, kod zapisał normalne procedury operacyjne do późniejszego odtworzenia, tak aby operacje wyglądały na normalne. Atak został uznany za pierwszy przypadek, w którym Stany Zjednoczone "wielokrotnie użyły cyberbroni w celu paraliżu infrastruktury innego państwa, osiągając za pomocą kodu komputerowego to, co do tej pory można było osiągnąć jedynie poprzez zbombardowanie państwa lub wysłanie agentów do podłożenia materiałów wybuchowych". Podczas gdy Stany Zjednoczone nadal rozszerzają stosowanie taktyk cyberwojny, atak miał kilka dalekosiężnych, choć niezamierzonych, konsekwencji. Rząd USA oskarżył hakerów powiązanych z rządem Iranu o przeprowadzanie cyberataków na amerykańskie banki i próby zamknięcia zapory w Nowym Jorku; Eksperci wywiadu spekulowali, że ataki były odwetem za atak Stuxnet. Ponadto błąd programistyczny umożliwił Stuxnetowi ucieczkę z Iranu i infiltrację dziesiątek tysięcy innych komputerów na całym świecie.

Korea Północna

Rząd Korei Północnej został oskarżony o cyberataki na korporacyjne i rządowe witryny internetowe w Korei Południowej i Stanach Zjednoczonych, w tym o rozproszone ataki typu "odmowa usługi" na Koreę Południową, które miały miejsce co najmniej od 2003 r. W 2009 r. komputery w południowokoreańskim pałacu prezydenckim w Seulu zostały zamknięte po atakach pochodzących z serwerów w Gruzji, Austrii, Niemczech i Stanach Zjednoczonych, które uważano za wszczęte przez rząd Korei Północnej. Niedawno rząd Kim Dzong-una oświadczył, że szuka celów internetowych u swojego południowego sąsiada. W 2013 roku trzy południowokoreańskie banki i trzech nadawców telewizyjnych były celem fal cyberataków, które sparaliżowały 48 000 komputerów i sparaliżowały sieci. Rząd Korei Południowej oskarżył agentów pracujących w imieniu Korei Północnej, chociaż rząd Korei Północnej zdecydowanie zaprzeczył zaangażowaniu. W czerwcu 2017 r. NSA powiązała rząd Korei Północnej ze stworzeniem robaka komputerowego WannaCry, który miesiąc wcześniej trafił na systemy komputerowe w około 150 krajach. Robak został sparowany z oprogramowaniem ransomware, które uniemożliwia użytkownikom dostęp do swoich danych do momentu zapłaty okupu, chociaż do połowy 2017 r. hakerzy nie spieniężyli 140 000 USD zebranych w Bitcoin, formie cyfrowej waluty. Robak WannaCry został zbudowany wokół narzędzia hakerskiego NSA, które zostało zdobyte i opublikowane online przez grupę nazywającą się Shadow Brokers.

Syria

Krótko po rozpoczęciu wojny domowej w Syrii na początku 2011 r. członkowie Syrian Computer Society, organizacji technicznej, którą prowadził syryjski prezydent Baszar al-Assad, zanim doszedł do władzy, utworzyli grupę znaną jako Syrian Electronic Army (SEA), aby zaoferować sprzeczne z wiadomościami pochodzącymi ze źródeł rebeliantów. Wkrótce po utworzeniu grupa popierająca Assada zaczęła atakować sieci komputerowe rebeliantów poprzez ataki z kuszą, próbując rozbić powstanie. SEA pozyskała również hasła i nazwy użytkownika od schwytanych aktywistów, wykorzystując te informacje do przejmowania tożsamości aktywistów w rozmowach e-mailowych lub Skype oraz do rozpowszechniania złośliwego oprogramowania wśród innych aktywistów. Złośliwe oprogramowanie, zaprojektowane tak, aby wyglądało jak programy, takie jak aktualizacje Flash Playera lub zabezpieczenia Facebooka, mogło przechwytywać aktywność kamery internetowej, wyłączać programy antywirusowe i prowadzić rejestr naciśnięć klawiszy w celu przechwytywania danych logowania i haseł. Fałszywe dokumenty zostały umieszczone na zhakowanych kontach w mediach społecznościowych, a fałszywe filmy z YouTube przedstawiające incydenty wojenne były rozpowszechniane, w których umieszczano wirusy na komputerach osób, które komentowały te filmy. Wraz z atakami na bojowników w Syrii pod koniec 2012 r. miały miejsce cyberataki na zachodnie media, które miały na celu wywołanie zakłóceń i budowanie poparcia dla reżimu Assada. SEA przypisała sobie zasługi za te działania hakerskie, mówiąc na przykład, że zaatakowała The Guardian za "rozpowszechnianie" kłamstw i oszczerstw na temat Syrii. Niektóre ataki polegały po prostu na zamieszczaniu artykułów lub wiadomości propagandowych wspierających reżim Assada na stronach internetowych mediów lub na stronach mediów społecznościowych celebrytów, ale inne ataki wyrządziły więcej szkód. 23 kwietnia 2013 r. SEA włamała się na konto Associated Press na Twitterze, a następnie napisała na Twitterze, że w Białym Domu doszło do dwóch eksplozji bomb i rannych został prezydent Obama. Down Jones spadł na krótki okres o 143 punkty.

Rosja

Rosja od wielu lat jest oskarżana o stosowanie taktyk cyberwojny. W kwietniu 2007 roku, kiedy rząd Estonii przeniósł sowiecki pomnik wojenny z centrum Tallina na cmentarz, rosyjscy hakerzy wyłączyli jego serwery podczas trwającego miesiąc masowego cyberataku polegającego na odmowie usługi. Atak, który stał się znany jako I wojna sieciowa, zablokował strony internetowe prezydenta i premiera, liczne ministerstwa oraz kilka banków, gazet i partii politycznych, zalewając je żądaniami informacji, zatykając serwery, routery i przełączniki. Rosyjski rząd zaprzeczył, jakoby był zaangażowany w ataki. Estońscy urzędnicy zaapelowali jednak do Unii Europejskiej i NATO (Organizacji Traktatu Północnoatlantyckiego) o pomoc w określeniu, co ich zdaniem było aktem wojny w erze cyfrowej, ale Unia Europejska i NATO odpowiedziały, że cyberataki nie stanowią działań militarnych. Podczas konfliktu zbrojnego między Rosją a Gruzją w 2008 r. cyberataki pojawiły się ponownie jako metoda zakłócania komunikacji rządowej. Podobnie jak w Estonii, rozproszone ataki typu "odmowa usługi" spowodowały przeciążenie i zamknięcie wielu gruzińskich serwerów; strona internetowa ówczesnego prezydenta Micheila Saakaszwilego została zamknięta na 24 godziny. Chociaż Gruzja w 2008 roku nie była obecna w Internecie, ataki rozprzestrzeniły się na gruzińskie media, firmy telekomunikacyjne, transport i niektóre banki, zakłócając pocztę elektroniczną i przejmując niektóre strony internetowe. Strony internetowe pochodzące z rosyjskich serwerów zawierały szczegółowe informacje na temat cyfrowego ataku na Gruzję. Jedna ze stron, Stop Georgia, zawierała oprogramowanie wykorzystywane do ataków wraz z instrukcjami pobierania i listą stron internetowych jako sugerowanych celów. Doświadczenia Rosji z cyberwojną tylko wzrosły od czasu wydarzeń w Gruzji. Na kilka dni przed referendum w marcu 2014 r., kiedy Krym głosował za odłączeniem się od Rosji, przeprowadzono 8-minutowy atak typu "odmowa usługi" na ukraińską sieć komputerową. Kilka dni później, podczas głosowania, ukraińskie strony rządowe zostały dotknięte 42 trudnymi do wyśledzenia atakami, ale ostatecznie były one powiązane z dwoma dużymi botnetami przestępczymi. Ukraina zemściła się na Rosji, inicjując 132 rozproszone ataki typu "odmowa usługi" na rosyjskie witryny, w tym jeden, który trwał 18 minut. Jeden z botnetów, który zaatakował strony internetowe na Ukrainie, był znany jako Dirtjumper i był odpowiedzialny za podobne ataki w Gruzji. Dirtjumper został również użyty w kilku atakach na ukraińskie strony rządowe w grudniu 2013 r. Urzędnicy Departamentu Stanu USA ostrzegli, że uważają, że Dirtjumper i prawdopodobnie inne rosyjskie botnety przeniknęły do sieci komputerowych w Stanach Zjednoczonych. Oficerowie wywiadu USA ostrzegli również przed możliwymi atakami na infrastrukturę i banki w Stanach Zjednoczonych w odwecie za amerykańskie sankcje przeciwko Rosji.



Powrót

Cyberwellness



Szybki postęp w technologii internetowej radykalnie poprawił i zmienił ludzkie zachowanie i interakcje. Osoby, które są połączone online, mogą wyszukiwać informacje istotne dla podejmowania codziennych decyzji, łączyć się na platformach mediów społecznościowych i dokonywać zakupów bez odwiedzania sklepów fizycznych. Pomimo poprawy pewnych aspektów współczesnego życia, istnieje wiele negatywnych społecznych i psychologicznych kosztów związanych z korzystaniem z Internetu. Badania wykazały, w jaki sposób platformy mediów społecznościowych sprzyjają niezdrowym porównaniom społecznym wśród nastolatków, co prowadzi do problemów, takich jak niezadowolenie z wizerunku ciała. Inni badacze wskazywali na media społecznościowe jako jeden z głównych motorów materializmu. Wreszcie niektórzy badacze podkreślili, w jaki sposób Internet zaostrza istniejące praktyki społeczne, które mogą być szkodliwe (np. zwiększanie dostępności materiałów o charakterze erotycznym dla społeczeństwa). Ponieważ technologia staje się wszechobecna, coraz częściej pojawiają się wezwania do ograniczania cyberzagrożeń i promowania cyberwellness. Termin cyberwellness został po raz pierwszy użyty dopiero w 2004 roku, oddając wartości zrównoważonego, spostrzegawczego i odpowiedzialnego korzystania z Internetu oraz szanowania innych użytkowników Internetu. W związku z tym cyberwellness można zdefiniować jako holistyczną promocję dobrostanu użytkowników Internetu poprzez edukowanie opinii publicznej na temat różnych rodzajów zagrożeń internetowych i zapewnienie im środków ochronnych i strategii mających na celu złagodzenie takich zagrożeń. Chociaż cyberwellness jest pojęciem wielowymiarowym, ogólnie rzecz biorąc, badania nad cyberwellness mają na celu zrozumienie rozpowszechnienia i czynników związanych z różnymi zagrożeniami cybernetycznymi, z szerszym celem informowania wielu interesariuszy, takich jak decydenci, edukatorzy, rodzice i ogółu społeczeństwa na temat opracowywania rozsądnych polityk i strategii interwencyjnych opartych na badaniach empirycznych w celu przezwyciężenia różnych zagrożeń internetowych. Ten wpis wprowadza i zawiera przegląd cyberwellness. W szczególności, wpis zawiera krótki przegląd tła wczesnych badań nad cyberwellness, identyfikuje obecny cel badań nad cyberwellness i określa niektóre przyszłe kierunki badań nad cyberwellness.

Wczesne badania cyberwellness

Badania cyberwellness sięgają lat 90-tych, kiedy to opinia publiczna zaczęła dostrzegać Internet. Chociaż Internet był wówczas stosunkowo młodą technologią, badacze zauważyli szereg niezamierzonych negatywnych konsekwencji korzystania z Internetu. Ogólnie rzecz biorąc, wczesne badania nad cyberwellness koncentrowały się na dwóch dominujących tematach: (1) możliwości i pojawieniu się nowych patologii, takich jak uzależnienie od Internetu oraz (2) rozprzestrzenianiu się pornografii internetowej i jej negatywnym wpływie na użytkowników.

Powstanie nowej patologii: uzależnienie od Internetu

Pierwsi badacze cyberwellness początkowo skupiali się na uzależnieniu od Internetu. Chociaż Web 1.0 był stosunkowo mniej interaktywny niż obecne aplikacje Web 2.0, wczesny Internet otworzył nowe formy kanałów komunikacji, takie jak poczta elektroniczna, fora dyskusyjne, czaty i gry online - te społeczne funkcje Internetu były częściowo odpowiedzialne dla użytkowników spędzających zbyt dużo czasu w Internecie. Zdając sobie z tego sprawę, wczesna grupa badaczy w latach 90. postulowała, że użytkownicy Internetu mogą rozwinąć formę uzależnienia technologicznego lub zaburzenia kontroli impulsów w związku z korzystaniem z Internetu. Badacze zajmujący się uzależnieniami od Internetu twierdzili, że jako forma niechemicznego uzależnienia behawioralnego osoby uzależnione od Internetu mogą wykazywać klasyczne objawy patologiczne występujące w innych typach uzależnień (np. hazard) w postaci (a) istotności (zaabsorbowanie Internetem), ( b) modyfikacja nastroju (wykorzystywanie aktywności w Internecie do regulowania emocji), (c) tolerancja (zwiększanie aktywności w Internecie w celu uzyskania tego samego poziomu gratyfikacji), (d) objawy abstynencyjne (nieprzyjemne skutki zaprzestania korzystania z Internetu), (e) konflikty (interpersonalne) napięcie lub konflikty spowodowane korzystaniem z Internetu) oraz (f) nawrót (powrót do wzorców korzystania z Internetu po wielokrotnych próbach kontrolowania korzystania z Internetu).

Rozprzestrzenianie się pornografii internetowej i jej negatywny wpływ na użytkowników

Drugim ważnym tematem we wczesnych latach badań nad cyberwellness było rozprzestrzenianie się pornografii internetowej i łatwość publicznego dostępu do treści o charakterze jednoznacznie seksualnym w Internecie. W szczególności, badacze byli zaniepokojeni zdolnością Internetu do nasycania społeczeństwa materiałami o charakterze jednoznacznie seksualnym w alarmującym tempie, co czyni go łatwo dostępnym dla ogółu społeczeństwa. Pornografia wpływa na użytkowników na wiele sposobów. Na przykład niektórzy badacze twierdzili, że nastolatki narażone na pornografię są bardziej narażone na seksistowskie i obiektywizujące rozumienie płci przeciwnej. Ponadto badania wykazały, że studenci płci męskiej narażeni na pornografię internetową wskazywali na wzrost postawy mizoginistycznej i akceptacji mitów o gwałcie. W skrajnych przypadkach korzystanie z pornografii internetowej może wiązać się z dewiacyjnymi zachowaniami seksualnymi, takimi jak poszukiwanie partnerów seksualnych w Internecie oraz okazywanie agresji seksualnej i udział w wykorzystywaniu seksualnym.

Aktualny zakres badań cyberwellness

Dzięki badaniom nad cyberwellness, które trwały co najmniej dwie dekady, funkcje i działania internetowe znacznie się rozwinęły, wprowadzając dodatkowe nowsze funkcje, które umożliwiają bardziej partycypacyjne i wspólne udostępnianie. Od tego czasu śledztwa dotyczące cyberwellness skupiły się na pojawiających się problemach w krajobrazie nowych mediów, takich jak (a) wiktymizacja i sprawstwo cyberprzemocy, (b) zagrożenia dla prywatności, (c) nowsze formy uzależnienia od Internetu oraz (d) wpływ Internetu na dobrostan psychospołeczny użytkowników.

Ofiara cybernękania i sprawstwo

Wnikliwie badanym obszarem jest zrozumienie przodków cyberprzemocy i jego konsekwencji. Wraz z powszechnością korzystania z mediów społecznościowych, częstość występowania cyberprzemocy na całym świecie rośnie, a badania pokazują, że wskaźniki zachorowalności wynoszą od 9% do 25%. W badaniu z 2008 r. Peter K. Smith i współpracownicy zdefiniowali cyberprzemoc jako celowy akt agresji dokonywany przez grupy lub osoby za pomocą elektronicznych środków komunikacji, wymierzony w ofiarę, która przez pewien czas nie może się wielokrotnie bronić. Cyberprzemoc ma wiele poważnych konsekwencji psychospołecznych dla zaangażowanych stron. Ofiary często zgłaszają niższą depresję poczucia własnej wartości, samotność lub lęk społeczny. W literaturze poświęconej cyberprzemocy badacze poświęcili wiele uwagi rozróżnieniu między wiktymizacją w cyberprzemocy a cyberprzemocą. Badania tych pierwszych często mają na celu zrozumienie cech demograficznych i behawioralnych osób, które najprawdopodobniej doświadczą wiktymizacji cyberprzemocy. Niektórzy nawiązują związek z tradycyjnym nękaniem w szkołach i stwierdzają, że tradycyjni łobuzi częściej stają się łobuzami online. Oprócz zbadania czynników związanych z wiktymizacją cyberprzemocy, badacze starali się zrozumieć, w jaki sposób ludzie chronią się przed nękaniem w Internecie i wzięli pod uwagę psychologię sprawców cyberprzemocy. Zbadano czynniki osobiste, takie jak cechy osobowości, to, czy dana osoba padła ofiarą wcześniejszych prób cyberprzemocy, zakres moralnego dystansu i poczucie własnej wartości oraz czynniki zewnętrzne, takie jak zaangażowanie rodzicielskiej mediacji w związku ze sprawcami cyberprzemocy.

Zagrożenia prywatności

Drugi dominujący obszar badań cyberwellness dotyczy zagrożeń prywatności. Dzięki wszechobecnemu korzystaniu z serwisów społecznościowych (SNS) osoby (zwłaszcza nastolatki) ujawniają bardziej prywatne i intymne szczegóły dotyczące ich życia. Osoby fizyczne ryzykują, że organizacje zbierają dane osobowe, takie jak rejestry połączeń, informacje o koncie, numer telefonu i miejsce pobytu za pośrednictwem aplikacji mobilnych bez zgody użytkownika. Takie zebrane informacje mogą być nadużywane przez marketerów do przywłaszczania tych danych i podawania użytkownikom niechcianych i niepotrzebnych informacji o produktach i usługach. Inwazja w prywatność jest coraz większym problemem dla użytkowników, ponieważ naraża użytkowników na ryzyko, takie jak kradzież tożsamości i bycie celem agresywnego marketingu firm.

Różne formy uzależnienia od Internetu

W miarę dodawania do Internetu coraz większej liczby aplikacji i funkcji, badacze odkryli, że uzależnienie od Internetu nie jest pojęciem jednowymiarowym. Dzieje się tak, ponieważ poszczególne osoby mogą być przyciągane do różnych funkcji Internetu i mogą rozwijać się w różnym stopniu nadużywania. Istniejące badania wykazały, że użytkownicy Internetu wykazują skłonności do uzależnień, takie jak problematyczne wiadomości błyskawiczne, uzależnienie od gier online, hazard online, kompulsywne zakupy online i problematyczne korzystanie z SNS. Obecnie większość badań w tych obszarach ma na celu wyjaśnienie różnych wymiarów uzależnienia od Internetu oraz identyfikację czynników zewnętrznych i wewnętrznych psychospołecznych poprzedników związanych z rozwojem problemowego używania.

Wpływ Internetu na psychospołeczne samopoczucie użytkowników

Wreszcie, coraz więcej uwagi poświęca się temu, jak korzystanie z SNS koreluje z rozwojem psychospołecznego dobrostanu użytkowników. Istniejąca literatura badała, w jaki sposób częste używanie SNS wiąże się z problemami, takimi jak zwiększony poziom depresji, samotność, stres, negatywne wyniki i obniżony poziom szczęścia. Powszechne przyjmowanie SNS zaowocowało tak zwaną ekonomią uwagi, w której użytkownicy SNS publikują treści (np. zdjęcia z podróży, selfie), które przedstawiają ich życie w luksusowym i przyjemnym stylu życia. Szczegóły życia ludzi swobodnie dostępne online ułatwiają kulturę nadzoru, śledząc nawzajem swoje wpisy tekstowe i fotograficzne. Ta ciągła ekspozycja na wyidealizowane selfie lub styl życia wiąże się z takimi problemami, jak zazdrość, internalizacja pewnych idealnych typów ciała (np. szczupłość lub muskularne ciała), niezadowolenie z wizerunku ciała i dążenie do osiągnięcia wyidealizowanych typów ciała. Jednocześnie badacze zbadali również kontrperspektywę i zbadali, w jaki sposób problemy psychospołeczne (np. depresja) i funkcje samoregulacyjne poprzedzają problematyczne SNS. Badacze, którzy przyjmują tę perspektywę, uważają, że afordancje SNS zapewniają efekty modyfikujące nastrój, a zatem osoby mogą zwracać się do nich, aby złagodzić swój nastrój dysforyczny.

Przyszłe kierunki badań cyberwellness

W ciągu ostatnich kilku lat badania cyberwellness znacznie się rozwinęły i można zauważyć pewne główne trendy w tej dziedzinie. Jednym z głównych osiągnięć jest wykorzystanie dużych zbiorów danych i zaawansowane podejścia obliczeniowe do wykrywania zagrożeń cybernetycznych w społeczności. Generowanie milionów punktów danych i silnie usieciowiona struktura środowiska mediów społecznościowych pozwalają na wykorzystanie technik obliczeniowych do identyfikacji skupisk osób borykających się z podobnymi problemami - badacze postulowali, że idea homofilii może przejawiać się w taki sposób, że uzależnieni od internetu skupiają się razem . Pozwala to naukowcom na całościowe śledzenie i rozwiązywanie problemów cyberwellness nie tylko na poziomie indywidualnym, ale także na poziomie społeczności. Drugim ważnym kierunkiem przyszłych badaczy cyberwellness jest ciągłe rozwijanie solidnych strategii interwencyjnych dla różnych zagrożeń cybernetycznych w oparciu o badania empiryczne. Badania pokazują, że platformy mediów społecznościowych kultywują większość częstotliwości cyberprzemocy, ponieważ takie przyszłe badania mogą koncentrować się na łagodzeniu przypadków cyberprzemocy, szczególnie na platformach mediów społecznościowych. Wraz z rozwojem Internetu natura zagrożeń cybernetycznych staje się coraz bardziej złożona. Aby skutecznie propagować cyberwellness wśród społeczeństwa, naukowcy i badacze muszą uwzględniać szybko zmieniające się zmiany, stale informując o pojawiających się problemach związanych z Internetem, a także o przydatnych podejściach metodologicznych.



Powrót

Cyklady



Francuska sieć Cyklad była eksperymentem w latach 70., który wdrożył innowacyjne podejście do sieci z komutacją pakietów. Jego najbardziej znaczącym wkładem był sposób, w jaki odszedł od tradycyjnych podejść telekomunikacyjnych, które opierały się na ciągłych obwodach, a zamiast tego wykorzystał podejście bezpołączeniowe lub czyste datagramowe, które mogło niezawodnie przełączać wiadomości między komputerami w przypadku braku ciągłych połączeń. W tym wpisie przyjrzymy się rozwojowi sieci, jej strukturze i wydajności, tym, jak różniła się ona od innych podejść oraz jej wpływowi. Historia Cyklad uwypukla kilka aspektów historii sieci informacyjnych w erze wielu takich eksperymentów w latach 70. XX wieku. Na poziomie ponadnarodowym pokazuje, że tworzenie Internetu nie jest linearną historią sukcesu USA, która zaczyna się od sieci Agencji Zaawansowanych Projektów Badawczych (ARPANET), a kończy na Internecie. Przypomina nam o europejskim zaangażowaniu w projekty internetowe od lat 70. i pokazuje sposób, w jaki Internet rozwijał się jako równowaga między ograniczeniami technicznymi i geopolitycznymi, społecznymi i ekonomicznymi. Cyklady to także okno na to, jak Francja próbowała wprowadzać innowacje i bronić swoich interesów w konkurencji z jej odpowiednikami, a jednocześnie uczestniczyć w dynamice europejskiej i międzynarodowej. Wreszcie koniec tej przełomowej sieci przełączania pakietów w 1979 r. ilustruje, w jaki sposób "przełączanie pakietów nigdy nie zostało przyjęte na podstawie czysto technicznych kryteriów, ale zawsze dlatego, że pasuje do szerszego socjotechnicznego zrozumienia, w jaki sposób sieci danych mogą i powinny być używane" (Abbate 1999, s. 8). Francuski informatyk Louis Pouzin był liderem i siłą motywującą Cyklady. Jego osiągnięcia z Cykladami uczyniły go jednym z najbardziej znanych i najbardziej utytułowanych francuskich informatyków. Pouzin, regularnie cytowany za swój wkład w projektowanie Internetu "od końca do końca", był jednym z pięciu mężczyzn, którzy w 2013 roku wraz z Vintonem Cerfem i Robertem Kahnem (współzałożycielami Internet Transmission Control) zdobyli Nagrodę Królowej Elżbiety w dziedzinie inżynierii. Protocol), Sir Tim Berners-Lee (wynalazca World Wide Web) i Marc Andreessen (autor przeglądarki internetowej Mosaic).

Cyklady .Geneza w kontekście

W latach 70. projekt ARPANET, opracowany w ARPA pod kierownictwem Lawrence'a Robertsa, miał decydujące znaczenie dla położenia podwalin pod "sieć sieci" dzięki innowacjom i wdrożeniom, takim jak przełączanie pakietów i heterogeniczna konstrukcja sieci, która może łączyć komputery różnych producentów. Po drugiej stronie Atlantyku w latach 70. niektóre europejskie organizacje i zespoły również pracowały nad rozwojem technologii przełączania pakietów. Na szczególną uwagę zasługuje pionierska praca Donalda Daviesa w Narodowym Laboratorium Fizycznym, ale ważną rolę odegrał również francuski Narodowy Instytut Badań nad Informatyką i Kontrolą (IRIA). W 1966 roku francuski prezydent Charles de Gaulle stworzył IRIA w ramach Plan Calcul - programu, którego celem było wspieranie francuskiego przemysłu komputerowego w rywalizacji z amerykańskim liderem w dziedzinie informatyki. Motywacją było dać Francji zarówno badania komputerowe, jak i przemysł komputerowy godny swojej nazwy (CII, Compagnie Internationale pour l'Informatique [Międzynarodowa Firma Informatyczna], została utworzona, aby zrealizować to drugie zadanie). W wyniku misji technicznej prowadzonej przez Delegację Informatyki kierowaną przez Maurice'a All?gre'a, IRIA uruchomiła projekt poświęcony udostępnianiu danych i programów i zaprosiła Pouzina w 1971 r. do kierowania projektem. Otrzymane instrukcje naukowe były dość ogólne: stworzyć sieć tak, jak Amerykanie stworzyli ARPANET. Ta swoboda techniczna nie byłaby niezadowolona z Pouzina; wręcz przeciwnie, wzmacniała jego i kreatywność osób, którym powierzył.

Zeitgeist i innowacje

Absolwent École Polytechnique, Pouzin był już ekspertem od dzielenia się czasem, co odkrył w Massachusetts Institute of Technology w połowie lat 60., kiedy pracował nad kompatybilnym systemem podziału czasu. Po powrocie ze Stanów Zjednoczonych Pouzin pracował w kilku firmach, m.in. w Bull-General Electric, a następnie w Société d'Économie et de Mathématiques Appliquées (Sema), gdzie opracował szeroki zakres aplikacji do współdzielenia czasu. Rozpoczął projekt Cyclades w 1972 roku, a on i jego zespół dokonali przełomowych wyborów projektowych, takich jak heterogeniczność, która była w czasach zeitgeist (np. ARPANET), ale była sprzeczna z zastrzeżonymi i wyspecjalizowanymi sieciami, takimi jak rozwój architektury systemów sieciowych IBM, które faworyzowali producenci. Dążąc do stworzenia sieci zdolnej do integracji komputerów różnych producentów, Pouzin mógł jednocześnie zintegrować produkty francuskiego CII, które spełniły cele Plan Calcul, a tym samym uniknąć bezpośredniej konfrontacji z IBM . Zastosowanie przełączania pakietów było drugą kluczową decyzją techniczną, podobnie jak w przypadku ARPANET. Trzy lata po swoim znanym amerykańskim poprzedniku, podczas pierwszej oficjalnej demonstracji w listopadzie 1972 r. na Cykladach działały połączone ze sobą cztery komputery. Dzięki temu znaczna liczba francuskich inżynierów mogła zapoznać się z sieciami z przełączaniem pakietów i nawiązać owocne kontakty z ich amerykańskimi odpowiednikami Cyklady wprowadził również pewne innowacje: Pouzin został wyróżniony w 1997 roku podczas SIGCOMM Awards za swoją pracę jako "wynalazca i orędownik Datagramów" (Grupa Specjalnych ds. Komunikacji Danych, 1999). Takie podejście faworyzujące "trasę adaptacyjną" dla pakietów danych - datagramy poruszają się różnymi trasami w zależności od dostępności przełączników i linii i są ponownie składane w miejscu docelowym - zostało przyjęte w 1974 r. w założycielskim Programie Kontroli Transmisji w Internecie (który później stał się TCP/IP).

Struktura i działanie Cyklad

Cyklady zaczęły działać w latach 1972-1979, zaczynając od węzłów w Paryżu i Rocquencourt (miasto w pobliżu Wersalu, gdzie znajdowała się IRIA), Rennes, Tuluzie i Grenoble (gdzie znajdowały się ważne ośrodki obliczeniowe i uniwersytety). Komputery, które utworzyły podsieć przełączania pakietów, to w szczególności Mitra 15 z francuskiego CII, a szybkość połączeń wynosiła od 4800 bitów na sekundę do 48 000 bitów na sekundę. Pod koniec 1974 r. było 16 węzłów, a codzienne użytkowanie rozpoczęło się od stycznia 1975 r. Techniczne podejście Cyclades jest zachowane w dokumentach takich jak The Cyclades Computer Network: Towards Layered Network Architectures (Pouzin, 1982), a "Biblioteka Cyklad" w archiwach INRIA, w tym wiele artykułów zespołu opisującego niektóre aspekty projektowania i eksperymentów Cyklad, a także wkład w Międzynarodową Grupę Roboczą Sieci, w której żywo uczestniczyli czołowi badacze zajmujący się przełączaniem pakietów w Stanach Zjednoczonych, Europie i Japonia.

Dwie szkoły przełączania pakietów

Wybierając metodę przełączania pakietów, sieć Cyklady Pouzina zderzyła się z podejściem promowanym przez General Telecommunications we Francji w odniesieniu do sieci transmisji danych, którą budował w tym samym czasie z inicjatywy Centre National d'Études des Télécommunications (CNET, Narodowe Centrum Studiów Telekomunikacyjnych). To Narodowe Centrum Studiów Telekomunikacyjnych potwierdziło większą skuteczność koncepcji "obwodów wirtualnych" niż datagramów. Model, który teraz nazywamy obwodami wirtualnymi, wykorzystuje konstrukcję, w której pakiety tych samych wiadomości następują po sobie i wszystkie podążają tą samą trasą. Ten wybór został wdrożony we francuskiej sieci Transpac, która została otwarta w 1978 r. i wspierała przepływ danych przez Minitel do 2012 r. Jej zwolennicy stwierdzili, że zapewnia wyższy poziom bezpieczeństwa i niezawodności przy routingu wiadomości oraz upraszcza proces rozliczeń. Ten wybór telekomunikacyjny odniósł pewien międzynarodowy sukces, ponieważ Międzynarodowy Komitet Konsultacyjny ds. Telegrafii i Telefonu zatwierdził go jesienią 1976 r. W tym czasie francuska administracja telekomunikacyjna PTT (skrót od "postes, télégraphes et téléphones") odgrywała zasadniczą rolę w sieciach poprzez kontrolę łączy i nadany przez państwo monopol telekomunikacyjny. Ale zamiast współpracować, jak o to proszono, zespół telekomunikacyjny i zespół Cyklad stały się konkurentami.

Koniec destrukcyjnych Cyklad

Pouzin był szczególnie prowokacyjny i wywrotowy, gdy prezentował Cyklady na poziomie międzynarodowym. W czerwcu 1976 r. na National Computer Conference w Nowym Jorku wygłosił ostre przemówienie zatytułowane "Obwody wirtualne a datagramy: kwestie techniczne i polityczne". Dwa miesiące później, na Międzynarodowej Konferencji Komunikacji Komputerowej w Toronto, publicznie sprzeciwił się datagramom i obwodom wirtualnym i oświadczył, że francuski PTT podpisał "pakt" o odrzuceniu datagramów w celu narzucenia użytkownikom własnych standardów. Chociaż działała, sieć Cyklad została zlikwidowana w 1979 roku. Na powierzchni umarła z powodu problemów budżetowych. Wymarcie Cyklad nastąpiło nie tylko dlatego, że rywale Pouzina w PTT byli silniejsi: koniec Cyklad zbiega się z końcem Delegacji Informatyki i CII, po prezydencie Francji Valery Giscard d′Estaing, który został wybrany w 1974 roku. , miał nowy plan francuskiej polityki telekomunikacyjnej w zależności od PTT.

Potomność Cyklad

Chociaż projekt Cyclades często pozostaje w cieniu Internetu, Pouzin i jego zespół wywarli międzynarodowy wpływ i przyczynili się do wzbogacenia projektowania sieci. Pomimo braku fizycznego połączenia między Cykladami a ARPANET, inżynierowie Cyklad prowadzili stałą wymianę zdań ze swoimi odpowiednikami, w których działali jako eksperci, a nie naśladowcy. Nawiązali produktywne kontakty z inżynierami z BBN (Bolt, Beranek i Newman), takimi jak Alex McKenzie i David Walden. Gérard Le Lann z Cyklad wyjechał na Uniwersytet Stanforda, aby pracować w Vinton LaboratoryCerfa w 1973 r. Udział Le Lann zbiegł się z nowymi pytaniami badawczymi w ramach ARPANET i był niezbędny do przejścia z protokołu sieciowego (NCP) do protokołu intersieci (TCP). Członkowie zespołu Cyklad wiedzieli, że muszą współpracować, aby ich propozycje miały jakąkolwiek szansę na przyjęcie - stąd ich wspólne wysiłki na kilku arenach, takich jak międzynarodowa Grupa Robocza Międzynarodowej Sieci Prestandaryzacyjnej; ich zaangażowanie (zwłaszcza Huberta Zimmermanna) w Open Systems Interconnection opracowany przez ISO (Międzynarodowa Organizacja Normalizacyjna); oraz ich silny udział w EIN (Europejska Sieć Informatyczna), która skonfrontowała się z europejską siecią telekomunikacyjną Euronet, opartą na obwodach wirtualnych. Taka współpraca przypomina nam, że Internet oparty na TCP był tylko jednym projektem w szerszej dziedzinie badań nad komutacją pakietów, a intersieć ma wiele punktów początkowych z różnych krajów.


Powrót

Cyfrowe podziały , globalny



Globalne przepaści cyfrowe to różnice w informacjach, wiedzy i wpływie technologii informacyjnej między regionami świata, krajami i regionalnymi jednostkami analizy w obrębie krajów. Porównując zaawansowaną cyfrowo część świata z ubogą cyfrowo częścią świata, następuje przepaść cyfrowa. Czasami bardziej odpowiednie jest rozważenie kontinuum cyfrowego, które kładzie większy nacisk na wiele poziomów wykorzystania cyfrowego lub wpływów między tymi dwoma skrajnościami. Przepaści cyfrowe nie ograniczają się do różnic geograficznych; na przykład poziomy kompetencji cyfrowych osób z wyższym wykształceniem na całym świecie można porównać z poziomami osób mniej wykształconych. Szacuje się, że pod koniec 2016 roku dostęp do Internetu miało 3,53 miliarda ludzi na całym świecie, co stanowi 48% z 7,36 miliarda ludzi na naszej planecie. Szerokopasmowy (tj. szybki Internet) szybko się rozwija. Broadband Commission oszacowała, że pod koniec 2014 roku 1,76 miliarda ludzi korzystało ze smartfonów z łączem szerokopasmowym, a według szacunków firmy Ericsson, Inc. liczba ta wzrośnie do 5,6 miliarda do 2019 roku. Abonamenty szerokopasmowe nie są stałe, ale z czasem wzrosły. Ogólnie rzecz biorąc, Międzynarodowy Związek Telekomunikacyjny (ITU) szacuje, że 47,2% światowej populacji ma abonamenty na mobilne usługi szerokopasmowe, podczas gdy tylko 10,8% ma dostęp do abonamentów na stacjonarne usługi szerokopasmowe. Przepaść cyfrowa zarówno w Internecie, jak iw szerokopasmowym dostępie szerokopasmowym jest bardzo duża w poszczególnych krajach. Na przykład według Światowego Forum Ekonomicznego (WEF), podczas gdy w 2016 r. na 100 mieszkańców Korei Południowej przypadało 108,6 abonamentów mobilnego Internetu szerokopasmowego, w Nigerii ten sam wskaźnik wynosił zaledwie 11,7. Globalne różnice podziałów stanowią zastrzeżenie o niektórych optymistycznych aspektach Internetu. Na przykład bardzo wysokie prędkości łączy szerokopasmowych i związana z nimi hiperłączność mają wpływ na ekonomicznie zaawansowane regiony świata i społeczności, ale obecnie nie mają one zastosowania do zubożałych populacji wiejskich w Afryce Środkowej. Nie chodzi tylko o to, że szerokopasmowa technologia internetowa nie jest jeszcze dostępna lub przystępna cenowo, ale także o to, że wielu z tych obywateli nie posiada umiejętności czytania i pisania ani wykształcenia, aby z niej skorzystać. W tym wpisie najpierw przeanalizowano globalne przepaści cyfrowe, zwracając szczególną uwagę na pomiar przepaści cyfrowych; badania empiryczne dotyczące tego, czy globalna przepaść cyfrowa jest zbieżna czy rozbieżna; oraz kilka modeli przepaści cyfrowej. Następnie podaje trzy przykłady - Chiny, Stany Zjednoczone i Afrykę - reprezentujące różne komponenty globalnej przepaści cyfrowej.

Globalna przepaść cyfrowa: szczegóły

Pomiar

Mierzenie, porównywanie i kontekstualizacja zakresu przyjęcia, wykorzystania i wpływu Internetu i innych technologii informacyjno-komunikacyjnych (ICT) w różnych regionach i podregionach świata, w obrębie krajów i między nimi, to nietrywialne przedsięwzięcie. Na poziomie globalnym i krajowym, ITU, wyspecjalizowana agencja Organizacji Narodów Zjednoczonych, zajmuje się pomiarami. Adopcja, rozpowszechnienie ICT i różnice w różnych częściach świata na poziomie krajowym. Od 2009 roku ITU publikuje coroczny raport, w którym kataloguje dostęp do najważniejszych wskaźników technologicznych w różnych częściach świata, regionach i subregionach, krajach i kontynentach. Aby zmierzyć przepaść cyfrową, ITU łączy ponad 160 krajów w oparciu o swój wskaźnik rozwoju ICT (IDI). IDI jest złożonym, zniuansowanym wskaźnikiem składającym się z (a) podindeksu dostępu mierzącego dostęp do pięciu głównych ICT, (b) podindeksu użytkowania mierzącego intensywność użytkowania oraz (c) podindeksu umiejętności ICT mierzącego zdolność populacji do skutecznego korzystania z ICT . W 2016 r. IDI składał się z 11 wskaźników. Ogólnie rzecz biorąc, ITU . IDI jest uważane za wiarygodną, autentyczną miarę globalnej przepaści cyfrowej. Innym dobrze znanym wskaźnikiem mierzącym dysproporcje w adopcji, dostępie i wykorzystaniu ICT jest Indeks Gotowości Sieciowej WEF (NRI). Podobnie jak IDI ITU, NRI WEF jest złożonym indeksem, który jest bardziej złożony niż IDI ITU iw 2016 roku składał się z czterech podindeksów z 53 indywidualnymi czynnikami. PIB zostanie zbadany bardziej szczegółowo później. Dzięki uprzejmości ITU i WEF wartości zarówno IDI, jak i NRI są dostępne w ujęciu podłużnym dla wielu krajów świata, umożliwiając międzynarodowe oraz roczne porównania postępu cyfrowego społeczeństw sieciowych. Jednak ich bogactwo szczegółów, a także brak zakładanych relacji między ich podopiecznymi zmiennymi (np. korzystanie z określonej technologii informacyjno-komunikacyjnej - Internetu) i zmienne niezależne (np. poziom wykształcenia wyższego w danym kraju na mieszkańca) również utrudniają przyjęcie ich jako ram w badaniach naukowych. Martin Hilbert argumentował, że tradycyjne podejście polegające na mierzeniu przepaści cyfrowych przy użyciu uniwersalnych, heterogenicznych ram tego, kto (np. osoby w krajach vs. cały kraj lub prowincja) z jakimi cechami (tj. wiek, płeć, dochód i edukacja) łączy, w jaki sposób (zwykły dostęp do faktycznego wykorzystania) z ICT (np. . Zasugerowano jednak alternatywne podejścia do pomiaru globalnych przepaści cyfrowych przy użyciu zainstalowanej przepustowości w krajach. Taka miara dowodzi, że samo zmierzenie subskrypcji ICT nie wystarczy; prawdziwą miarą przepaści cyfrowej jest pomiar przepustowości zainstalowanej w kraju - co jest szczególnie ważne w dobie dużych zbiorów danych. Argument ten przenosi dyskurs dotyczący podziału cyfrowego z prostego mierzenia różnic między cyfrowymi posiadaczami i nieposiadającymi do kontinuum, w którym dostępna przepustowość Internetu (szybka kontra wolna) może być prawdziwym wyróżnikiem rozwoju społecznego, kulturowego, politycznego i gospodarczego narodu. Jednak, jak przyznał Hilbert w 2016 r., powszechnie uzgodniona metryka pomiaru przepustowości okazała się nieuchwytna. Ponadto zharmonizowane, obszerne bazy danych dotyczące dostępu do technologii informacyjno-komunikacyjnych z wiarygodnych źródeł, takich jak ITU i WEF, zapewniają naukowcom dostęp do wiarygodnych danych na temat przyjęcia i wykorzystania technologii informacyjno-komunikacyjnych, w przeciwieństwie do bardziej sporadycznych danych dotyczących przepustowości krajowej. Co ciekawe, ITU od prawie dekady uwzględnia międzynarodową przepustowość Internetu (w bitach na sekundę) na użytkownika Internetu jako część swojego złożonego IDI. Podsumowując, pomiar globalnej przepaści cyfrowej jest złożonym, nietrywialnym przedsięwzięciem wynikającym ze złożoności samej przepaści cyfrowej. Jednym z rezultatów pomiaru globalnych podziałów cyfrowych jest pogłębienie wiedzy na temat tego, czy te podziały są zbieżne, czy rozbieżne. Ten temat jest omówiony dalej.

Konwergencja lub rozbieżność

Według Jana van Dijka (2013) globalna przepaść cyfrowa może być postrzegana jako ewoluująca od początkowej przepaści w dostępie, przez przepaść w użytkowaniu, aż po przepaść w wynikach. Podział dostępu to dysproporcja w dostępie do technologii między zestawami krajów (lub regionów) lub między nimi. Dostęp jest powszechnie mierzony odsetkiem gospodarstw domowych z dostępem do Internetu, a w 2016 r. wahał się on skrajnie, na przykład od Finlandii z dostępem 89,8% do Czadu z dostępem 2,7%. Podział użytkowania to różnica w korzystaniu z Internetu; jest powszechnie mierzony odsetkiem osób korzystających z Internetu, który waha się od Finlandii na poziomie 92,4% do Czadu na poziomie 2,5%. Podział wyników odnosi się do różnic w ekonomicznych lub społecznych skutkach korzystania z ICT. Istnieją różne sposoby mierzenia wpływu, ale jednym z nich jest wskaźnik wpływu ekonomicznego WEF, który jest ważonym wskaźnikiem odsetka pracowników wymagających wiedzy, wniosków patentowych ICT/mieszkańca oraz wpływu ICT na modele organizacyjne i biznesowe. Indeks wpływu gospodarczego WEF wahał się od 6,1 dla Finlandii do 2,0 dla Czadu. Biorąc pod uwagę te ogromne różnice, ważne jest, aby rozważyć, czy z czasem różnice te stawały się większe, czy mniejsze. Badanie tego zagadnienia przeprowadzone przez Jamesa B. Picka i Avijita Sarkara w 2015 r. na ograniczonej próbie 39 krajów w latach 2000-2013 wykazało konwergencję abonamentów na telefony komórkowe i abonamenty szerokopasmowe o ponad trzykrotnym zmniejszeniu rozrzutu wartości, mierzonego współczynnikiem zmiana. W szczególności współczynnik zmienności abonamentów szerokopasmowych został zmniejszony z 244,5 w 2000 r. do 83,1 w 2013 r. We wspomnianej wcześniej kolejności abonamenty szerokopasmowe znalazłyby się w "podziale cyfrowym dostępu", ponieważ abonament na usługę szerokopasmową nie oznacza korzystania. Geograficznie konwergencja jest ewidentna w tym, że łącza szerokopasmowe w XXI wieku odnotowały wyższy procentowy wzrost w krajach rozwijających się, takich jak większa część Afryki i Bliskiego Wschodu, niż w krajach rozwiniętych, takich jak Stany Zjednoczone i Japonia, które w pewnym stopniu ustabilizowały się wzrost abonamentów szerokopasmowych.Wykorzystanie danych abonamentów szerokopasmowych do pomiaru konwergencji w globalnej przepaści cyfrowej zostało zakwestionowane, ponieważ przepustowość łączy szerokopasmowych nadal rośnie na całym świecie, nie osiągając szczytu w bardziej zaawansowanych technologicznie krajach. Przepustowość odnosi się do szybkości transferu danych, czyli ilości danych, które można przesłać z jednego punktu do drugiego w czasie, który zwykle wynosi 1 sekundę. ITU publikuje przepustowości krajów (w kilobitach na sekundę na użytkownika Internetu), które znacznie się różnią. Na przykład krajowe przepustowości w latach 2014-2015 wynosiły 527,4 dla Szwecji, 71,0 dla Stanów Zjednoczonych, 5,0 dla Chin i 0,7 dla Czadu. Hilbert uznał, że abonamenty szerokopasmowe nie odzwierciedlają faktycznego wykorzystania, ale raczej liczbę urządzeń, które dana osoba może obsłużyć, a zatem pomija bardziej intensywne zastosowania bitowe. Kiedy zastosowano potencjał zainstalowanej przepustowości w celu określenia przepaści cyfrowej w wykorzystaniu, w oparciu o 172 kraje w okresie 1986-2014, porównanie potencjału zainstalowanej przepustowości krajów o wysokich dochodach z pozostałymi krajami wykazało przepaść cyfrową, która zmienia się w czasie, a nie zmniejsza się wraz z upływem czasu. z abonamentami. Implikacja polega na tym, że globalna przepaść cyfrowa w użytkowaniu nie jest zbieżna, co wskazuje na utrzymującą się lukę, aczkolwiek z zachęcającym skutkiem jest to, że świat jako całość i globalni obywatele stale doświadczają wyższych przepustowości.

Modele globalnej przepaści cyfrowej

Aby lepiej zrozumieć globalną przepaść cyfrową, pomocne mogą być modele wykraczające poza zwykłe trendy i liczby. Zbadano trzy różne modele - (1) model NRI, (2) model van Dijka i (3) przestrzennie świadomy model wykorzystania technologii (SATUM) - wraz z ich zaletami i wadami. Model NRI został wprowadzony przez WEF w pierwszym Global Information Technology Report w 2001 roku i od tego czasu znacznie się rozwinął. Model ten, w swojej najbardziej ogólnej formie, zakłada, że aby odnieść sukces z technologią, naród musi mieć czynniki motywujące (np. środowisko, gotowość i wykorzystanie), które wspierają i udostępniają technologię i wpływ rejestrujący rzeczywiste wyniki wykorzystania technologii. W ten sposób komponenty przypominają te w ewolucji przepaści cyfrowych od dostępu do użytkowania do wyników wspomnianych wcześniej. Subindeksy są zdefiniowane dla trzech podkomponentów sterownika i dla wpływu. Podindeks środowiskowy ocenia stopień, w jakim warunki rynkowe i ramy regulacyjne danego kraju wspierają przedsiębiorczość, innowacje i rozwój ICT; podindeks gotowości mierzy stopień, w jakim kraj posiada infrastrukturę i inne czynniki wspierające akceptację technologii informacyjno-komunikacyjnych; subindeks wykorzystania ocenia poziom przyjęcia ICT przez głównych interesariuszy społeczeństwa sieciowego: rząd, przedsiębiorstwa i osoby prywatne; a podindeks wpływu mierzy szeroki wpływ ekonomiczny i społeczny ICT. Każdy subindeks jest średnią ważoną od 8 do 18 zmiennych. Ogólny NRI jest średnią ważoną czterech subindeksów (tj. na podstawie 53 zmiennych ogółem). Zaletą NRI jest jego wybiegający w przyszłość komponent wpływu, na który składają się skutki gospodarcze i społeczne. Na przykład skutki gospodarcze są mierzone przez siłę roboczą intensywnie korzystającą z wiedzy, zgłoszenia patentowe dotyczące technologii oraz wpływ technologii informacyjno-komunikacyjnych na modele biznesowe i organizacyjne. W ten sposób wpływ technologii cyfrowych, być może najlepsza miara znaczenia przepaści cyfrowej, można porównywać między krajami. Słabością tego modelu jest to, że nie proponuje ścieżek przyczyny i skutku. Model van Dijka koncentruje się na nierównościach, zaczynając od kategorii pozycyjnych wpływających na jednostki, takich jak wykształcenie i cechy gospodarstwa domowego, po cechy osobiste, takie jak inteligencja, płeć i wiek. Ich nierówności implikują nierówne zasoby i nierówny dostęp do ICT (na który wpływ mają również umiejętności technologiczne i ICT), co z kolei prowadzi do nierównych skutków w społeczeństwie, które z kolei sprzężone są zwrotnie i wpływają na kategorie pozycyjne. Teoria jest złożona, gdy jest w pełni wyjaśniona. Na przykład umiejętności cyfrowe można podzielić na umiejętności operacyjne, formalne, informacyjne, komunikacyjne, strategiczne i umiejętności tworzenia treści, podczas gdy pomiar wykorzystania koncentruje się na liczbie i różnorodności aplikacji, dziennikach codziennego użytkowania i czasie użytkowania. Plusy tegon modelu polegają na tym, że nierówności są osadzone na każdym kroku; uwzględniono wiele wymiarów dostępu, użytkowania i wpływu; zaproponowano ścieżkę przyczynową w pętli sprzężenia zwrotnego. Z drugiej strony, ponieważ model reprezentuje wiele jednostek analizy, od technologii, przez indywidualne cechy, po skutki społeczne, jego pełnej złożoności nie można poprzeć danymi dostępnymi z międzynarodowych agencji, dotyczącymi dużych prób krajów. Trzeci model, SATUM, obejmuje zmienne społeczne i ekonomiczne zaczerpnięte z wcześniejszej literatury które wpływają na wiele zmiennych zależnych, w tym oparte na Internecie dostęp do Internetu w domu, adopcję łączy szerokopasmowych w gospodarstwach domowych, mobilny szybki Internet, korzystanie z mediów społecznościowych oraz mobilne aplikacje internetowe w handlu elektronicznym i rozrywce elektronicznej. Model obejmuje również relacje przestrzenne, w tym ocenę odchyleń przestrzennych, mapowanie klastrów o wysokim lub niskim natężeniu korzystania z technologii informacyjno-komunikacyjnych oraz stosowanie lokalnych wskaźników autokorelacji przestrzennej w celu określenia gorących i zimnych punktów korzystania z Internetu. Model ma tę zaletę, że bierze pod uwagę lokalizację przepaści cyfrowej, która pokazuje przestrzenne wzorce dysproporcji cyfrowych na całym świecie lub w obrębie krajów, a także koryguje metody regresji pod kątem błędu przestrzennego. Z drugiej strony model nie obejmuje złożonych ścieżek przyczynowych ani nie podkreśla postępu od dostępu do używania do wyników.

Wybitni korelaci

Często zakłada się, że różnice w przyjmowaniu i rozpowszechnianiu ICT są związane z czynnikami demograficznymi, cechami ekonomicznymi, warunkami społecznymi, czynnikami infrastrukturalnymi, innowacjami i otwartością społeczną. W tej części omówiono niektóre z ważnych korelatów dostępu do ICT, o których mowa w literaturze dotyczącej przepaści cyfrowej.

Wskaźniki demograficzne

Struktura wiekowa, płeć, rasa i pochodzenie etniczne, poziom wykształcenia i położenie geograficzne są często uważane za związane z dostępem do ICT. Na całym świecie kraje - nawet uprzemysłowione - w regionach rozwiniętych o wyższej medianie wieku mają znacznie niższy poziom adopcji Internetu wśród osób starszych w porównaniu z młodszymi populacjami. Dobrymi przykładami są Niemcy, Francja i Wielka Brytania w Europie oraz Japonia w Azji. Ponadto rozbieżności związane z płcią w zakresie przyjmowania i korzystania z Internetu i łączy szerokopasmowych utrzymywał się w historycznie patriarchalnych społeczeństwach Azji i Europy. W takich społeczeństwach przepaść cyfrowa wynika przede wszystkim z nierówności strukturalnych istniejących między mężczyznami i kobietami. Wyższy poziom dostępu i wykorzystania ICT jest również pozytywnie powiązany z wyższym poziomem wykształcenia. Różnice rasowe i etniczne w przyjmowaniu i użytkowaniu ICT istnieją w Stanach Zjednoczonych, gdzie adopcja Internetu i łączy szerokopasmowych w gospodarstwach domowych Afroamerykanów i Latynosów historycznie pozostawała w tyle za innymi grupami rasowymi i etnicznymi, takimi jak biali i Azjaci. Osoby z wyższym wykształceniem są bardziej skłonne do korzystania i przyjmowania ICT niż osoby z niższym wykształceniem. Różnice miejsko-wiejskie w całym spektrum. Technologie informacyjno-komunikacyjne nieustannie powodują podziały cyfrowe w krajach rozwiniętych i rozwijających się oraz w krajach zamożnych i biednych. Obszary miejskie są domem dla ludzi i przedsiębiorstw, dzięki czemu działają jako centra popytu dla dostawców usług ICT. Z kolei mniejszy popyt na usługi ICT na obszarach wiejskich działa niekorzystnie na rozwój infrastruktury służącej docelowo świadczeniu usług konsumentom.

Czynniki ekonomiczne

Dochód i wykształcenie, choć silnie skorelowane w wielu regionach świata, są pozytywnie powiązane z wyższymi poziomami adopcji ICT. Bogate, dobrze prosperujące kraje z wyższymi produktami krajowymi brutto (PKB) i wyższymi dochodami na mieszkańca zazwyczaj kojarzą się z gospodarkami o dużych wydatkach na technologie informacyjno-komunikacyjne. Gospodarki zorientowane na usługi, zwłaszcza usługi oparte na wiedzy, katalizują adopcję oraz wykorzystanie technologii informacyjno-komunikacyjnych, takich jak Internet i łącza szerokopasmowe, często w celu napędzania innowacji. Uważa się, że siła robocza zorientowana na sektor usług, zwłaszcza zatrudnienie w usługach profesjonalnych, naukowych i technicznych, pozytywnie wpłynie na adopcję ICT.

Czynniki infrastrukturalne

Dostępność infrastruktury ICT (w tym dostępność powiązanych technologii, np. telefonii stacjonarnej, komórkowej, stacjonarnego Internetu i łączy szerokopasmowych) została powiązana z wysokim poziomem przyjęcia i wykorzystania ICT. Argumentowano, że wyższy poziom infrastruktury ICT doprowadziłby do większego tempa rozpowszechniania i zlikwidowania przepaści cyfrowej. Jest to z pewnością prawdziwe w krajach skandynawskich - ojczyźnie zaawansowanych społeczeństw sieciowych. Kluczowa staje się tu rola rządów. Na przykład rządy skandynawskie zachęcały do rozwoju jednych z najlepszych na świecie infrastruktur internetowych, w tym szerokopasmowych i bezprzewodowych usług internetowych, co skutkuje wyjątkowo wysokim poziomem wykorzystania wśród ich obywateli. Innym przykładem jest Korea Południowa, która doprowadziła do rozwoju inteligentnych miast. I odwrotnie, niestabilne dostawy energii elektrycznej i zakłócenia w sieci energetycznej oraz związana z tym awaria infrastruktury były zmorą wyższego poziomu łączności internetowej w Afryce i niektórych częściach Azji Południowej i Środkowej.

Innowacja

Uważa się, że innowacyjność, często oceniana w literaturze dotyczącej przepaści cyfrowej na podstawie danych zastępczych, takich jak publikacje naukowe i techniczne, jest pozytywnie związana z przyjęciem technologii informacyjno-komunikacyjnych. ICT umożliwiają materializację innowacji, co może przejawiać się w różnych formach. Na przykład na Bliskim Wschodzie i w Afryce Północnej kraje takie jak Egipt, Jordania, Liban, Maroko i Tunezja uruchomiły portale rządowe, aby umożliwić obywatelom dostęp do usług rządowych drogą elektroniczną w 2000 roku. W tamtym czasie inicjatywy e-administracji w tych krajach były uważane za innowacyjne, sprzyjające adopcji technologii informacyjno-komunikacyjnych wśród ogółu społeczeństwa. Inne badania wykazały znaczenie innowacji oraz badań i rozwoju w Stanach Zjednoczonych i Japonii.

Otwartość społeczna

Społeczeństwa demokratyczne, otwarte i wolne będą prawdopodobnie wykorzystywać ICT do wymiany informacji; do udziału w handlu elektronicznym, rozrywce i powiązanych działaniach; a także do celów komunikacji w mediach społecznościowych. Cenzura i tłumienie Internetu , komunikacji elektronicznej w cyberprzestrzeni zostały udokumentowane jako utrudniające przyjęcie i wykorzystanie technologii informacyjno-komunikacyjnych w Afryce Subsaharyjskiej (SSA). Badania wykazały również, że otwarta wymiana informacji możliwa dzięki wykorzystaniu technologii informacyjno-komunikacyjnych jest wspierana przez dobrze ugruntowane systemy prawne i regulacyjne, które są wykorzystywane jako pośredniki i mają pozytywny wpływ na zwiększone wykorzystanie technologii informacyjno-komunikacyjnych.

Kapitał społeczny

Niedawne badania przeprowadzone przez Ritu Agarwala i współpracowników oraz Wenhong Chen wykazały, że ściśle powiązane społeczności o wysokim poziomie kapitału społecznego zapewniają członkom społeczności ścieżki do tworzenia więzi i więzi z osobami w społeczności posiadającymi wiedzę i umiejętności do przyjęcia i wykorzystania ICT . Kapitał społeczny może przejawiać się w różnych formach. W Indiach wykazano, że uczestnictwo w spółdzielniach, utworzonych na podstawie współpracy społecznej w różnych sektorach, głównie na obszarach wiejskich, ma pozytywny wpływ na dostęp i korzystanie z określonych form technologii informacyjno-komunikacyjnych. Podsumowując, tradycyjnie uznaje się, że czynniki socjodemograficzne, ekonomiczne, infrastrukturalne i innowacyjne mają wpływ na dysproporcje cyfrowe na całym świecie. W niektórych badaniach na pierwszy plan wysunięto również rolę otwartości społecznej i kapitału społecznego. Poniższa sekcja analizuje przepaści cyfrowe w Chinach, Stanach Zjednoczonych i Afryce, kontekstualizując rolę kilku z tych czynników.

Przykłady

Chiny i Stany Zjednoczone to ludne, rozległe geograficznie, zróżnicowane kraje o silnych gospodarkach, zwłaszcza w epoce nowożytnej. Ich rozległe populacje zapewniają rozległą bazę użytkowników Internetu i abonentów telefonii komórkowej - fundamenty silnego społeczeństwa sieciowego. 31 jednostek administracyjnych na poziomie prowincji w Chinach kontynentalnych i 50 stanach USA o różnym poziomie przyjęcia i wykorzystania technologii informacyjno-komunikacyjnych przedstawia interesujące kontrasty w ramach podziałów cyfrowych poszczególnych krajów. Z drugiej strony zdecydowana większość krajów afrykańskich powyżej 50. świecie, jak również między samymi krajami afrykańskimi.

Chiny

Chiny mają największą liczbę osób korzystających z Internetu spośród wszystkich krajów, szacowaną na 721 milionów w połowie 2016 r., podczas gdy abonamenty mobilnego Internetu szerokopasmowego wyniosły 41,8 na 100 mieszkańców lub 575 milionów abonamentów. W przeliczeniu na jednego mieszkańca, Chiny plasują się na średnich pozycjach, odpowiednio 70 i 71 na 139 krajów. Chociaż rozwój Internetu w Chinach rozpoczął się późno, w 2006 r. przekroczył tylko 10% obywateli korzystających z Internetu, w ciągu dekady odnotował wzrost do 50% w 2016 r. Niezwykły wzrost liczby ludności w tej ogromnej populacji wynika z połączenia planowania przez rząd centralny i wsparcie; dynamiczna i rozwijająca się galaktyka rynkowych firm internetowych, takich jak Tencent, Baidu, Alibaba i inne; szybki wzrost chińskiej gospodarki; oraz sukces w łączeniu się z globalnymi łańcuchami dostaw w celu dostarczania komponentów i handlu światowego. Jednocześnie istnieją ograniczenia, w tym opóźniona adopcja wśród osób starszych; opóźnione obszary geograficzne na zachodzie i północnym zachodzie pod względem infrastruktury, umiejętności technologicznych i edukacji; oraz chińska cenzura Internetu. Ta ostatnia obejmuje tylko firmy i organizacje zatwierdzone przez rząd centralny, które mogą tworzyć internetowe sieci szkieletowe - podmioty, które z kolei ograniczają licencje do firm prywatnych i wymagają sprzętu do cenzury. Wewnętrzna przepaść cyfrowa Chin między 31 prowincjami na kontynencie jest bardzo duża, z prowincjami megamiast, takimi jak Pekin, Szanghaj, i kilkoma prowincjami południowo-wschodnimi, przybrzeżnymi, na średnim światowym poziomie wykorzystania technologii, podczas gdy odległe prowincje zachodnie, takie jak Qinghai i Tybet są na bardzo niskim poziomie. Badanie z wykorzystaniem modelu SATUM chińskich prowincji w 2006 i 2009 roku wykazało, że głównymi wyznacznikami wewnętrznego przepaści cyfrowej Chin były wartość towarów eksportowych, opublikowane książki (interpretowane jako wskaźnik zastępczy dla produkcji treści internetowych) oraz przedsiębiorstwa niebędące własnością państwa ( tj. firmy napędzane rynkiem). Powiązanie z towarami eksportowymi wskazuje na wyższy poziom Internetu i innych ICT w prowincjach, które kładą nacisk na globalny łańcuch dostaw. Mapowanie i analizy skupień przestrzennych potwierdzają bardzo duże różnice geograficzne w Chinach kontynentalnych między megamiastami na południowym wschodzie a peryferyjnymi prowincjami na zachodzie. Chiny znajdują się na trajektorii zwiększonego korzystania z Internetu w całym kraju, do czego zachęca obecny plan pięcioletni rządu centralnego i dobrze prosperujące firmy technologiczne. Ze względu na swoją wielkość, stanowiącą 18,6% światowej populacji w 2016 r., Chiny mają ogromny wpływ na globalną przepaść cyfrową, tak dużą, że wewnętrzne dysproporcje w poszczególnych prowincjach muszą zostać uwzględnione przy ocenie światowego bilansu intensywności Internetu. Ekonomiczne i społeczne skutki rozwijającego się internetu w Chinach są zmienne i trudne do oszacowania, ponieważ brakuje solidnych ogólnokrajowych danych na temat wpływu. Jednak WEF ocenia ekonomiczny i społeczny wpływ technologii informacyjno-komunikacyjnych na odpowiednio 37 i 41 miejsce, co sugeruje, że wpływ ten jest na dość znaczącym poziomie krajowym na całym świecie i bardzo wysoki, jeśli weźmie się pod uwagę populację Chin.

Stany Zjednoczone

Stany Zjednoczone, piąte miejsce według NRI WEF na 139 krajów w 2016 r., znajdują się na górnym końcu światowej przepaści cyfrowej. Spośród czynników składowych NRI, Stany Zjednoczone są szczególnie wysokie pod względem środowiska biznesowego i informacyjnego, infrastruktury, wykorzystania biznesowego oraz wpływu gospodarczego i społecznego (wszystkie w pierwszej 7), ale niższe pod względem osób korzystających z Internetu (13. miejsce) oraz gospodarstw domowych z dostępem do Internetu (29 miejsce). Poprawiło się korzystanie z Internetu, z 52% dorosłych użytkowników w 2000 r. do 84% w 2015 r., według Andrew Perrina i Maeve Duggan. Ponieważ Stany Zjednoczone są bardzo duże i złożone pod względem ekonomicznym i geograficznym, w 2015 r. Wykazywały znaczne różnice pod względem wykształcenia, wieku i rasowej grupy etnicznej. Chociaż różnice zbiegły się od 2000 r., różnice pozostają. Na przykład 95% obywateli z wyższym wykształceniem korzysta z Internetu, w porównaniu z 66% obywateli z wykształceniem niższym niż średnie. Podczas gdy 97% dorosłych Azjatów (anglojęzycznych) korzysta z Internetu, korzysta z niego 78% dorosłych rasy czarnej i 81% dorosłych Latynosów. Te i inne różnice są widoczne w bardziej szczegółowych badaniach przepaści cyfrowej w Stanach Zjednoczonych. W badaniu wewnętrznej przepaści cyfrowej, w którym zastosowano model SATUM do 50 stanów, najważniejszymi determinantami społecznymi i ekonomicznymi były kapitał społeczny, wykształcenie wyższe oraz rasa/pochodzenie etniczne. Kapitał społeczny reprezentuje więzi i powiązania między jednostkami mierzone interakcjami społecznymi, takimi jak członkostwo w klubach, organizacjach i grupach sąsiedzkich oraz udział w działaniach grupowych. Wynika z tego, że korzystanie z Internetu i technologii informacyjno-komunikacyjnych przez daną osobę "ociera się" o osoby, z którymi dana osoba wchodzi w interakcje, podczas gdy z wcześniejszej dyskusji oczekuje się, że wykształcenie będzie korelatem. Ze względu na pochodzenie etniczne Amerykanie pochodzenia azjatyckiego częściej korzystali z Internetu, podczas gdy pochodzenie latynoskie miało wpływ redukujący. Pod względem geograficznym Internet i łącza szerokopasmowe były szeroko rozpowszechnione w stanach północno-zachodniego Pacyfiku, Gór Skalistych i północno-wschodnich, ale niskie wykorzystanie w środkowych i niższych stanach środkowo-południowych. Natomiast korzystanie z Facebooka było bardziej równomierne rozprzestrzeniło się po całym kraju, z pewną redukcją w dolnej części środkowego południa. Krótko mówiąc, Stany Zjednoczone znajdują się w górnej części globalnej przepaści cyfrowej, choć mają znaczną wewnętrzną przepaść cyfrową.

Afryka

Kontynent afrykański jest rozległy geograficznie. Według Internet World Stats 2017 składa się z około 50 stanów, które w 2016 roku stanowiły ponad 16% światowej populacji, ale mniej niż 10% użytkowników Internetu. Penetracja Internetu w Afryce w 2016 roku była najniższa spośród wszystkich aglomeracji kontynentalnych i wyniosła 28,7% ogółu ludności w porównaniu z odpowiednio 89% i 74% ogółu ludności w Ameryce Północnej i Europie oraz 45,6% w Azji. Przepaść cyfrowa między Afryką a resztą świata przejawia się również w dużej różnicy w wartości IDI ITU. W 2016 r. średni wskaźnik IDI w Afryce wynoszący 2,48 w porównaniu ze średnią światową wynoszącą 4,94 jest w dużej mierze wynikiem wysokich wartości odstających, takich jak Mauritius, Seszele i Republika Południowej Afryki, trzech krajów kontynentu o wysokich wynikach ICT. Wiele cyfrowych zmagań Afryki wynika z niskiego poziomu rozwoju społecznego i warunków ekonomicznych krajów afrykańskich. Jest to szczególnie prawdziwe w SSA; w rzeczywistości większość z 29 z 39 krajów afrykańskich uszeregowane według IDI ITU i sklasyfikowane jako najmniej połączone kraje znajdują się w regionie SSA. W Afryce Kenia, Seszele, Maroko i Mauritius odnotowały penetrację Internetu na poziomie co najmniej 60% w 2016 r., a następnie RPA, Tunezja i Nigeria. Na samym dole znajdują się zubożałe, czasem podatne na konflikty kraje, takie jak Sierra Leone, Sahara Zachodnia, Etiopia, Kongo i Niger, w których poziom penetracji Internetu w 2016 r. wyniósł mniej niż 10%. Przepaść cyfrową w Afryce podkreśla rozbieżność między Nigerią, najbardziej zaludniony kraj w 2016 r., z 28,5% użytkowników Internetu w Afryce i penetracją Internetu na poziomie 52%, oraz Etiopia, drugi pod względem liczby ludności kraj w Afryce, z 1,3% użytkowników Internetu w Afryce i marną penetracją na poziomie 4,4%. Różnica między Egiptem a Kongo, trzecim i czwartym najbardziej zaludnionym krajem, wynosi równie ostry. Subindeks IDI ITU koncentrował się na punktach dostępu ICT do znacznej poprawy penetracji telefonii komórkowej i szerokopasmowego internetu mobilnego w wielu krajach afrykańskich, takich jak silniej usieciowione społeczeństwa w Afryce Południowej, a także w krajach najmniej połączonych, takich jak Etiopia, Ghana i Rwanda. Telefonia stacjonarna, choć jest starszą formą ICT, jest słabym punktem na całym kontynencie afrykańskim, z wyjątkiem Republiki Południowej Afryki. Wskazuje to jednak na szerszy problem złego samopoczucia w infrastrukturze, który utrudnia również stałą łączność z Internetem, co powoduje, że w kilku krajach afrykańskich, zwłaszcza na obszarach miejskich, rozwijają się kawiarenki internetowe. Podczas gdy takie kawiarenki internetowe zapewniają zagranicznym turystom stosunkowo łatwy i niedrogi dostęp do Internetu, ich wysokie ceny często stanowią barierę w dostępie do Internetu dla miejscowej ludności. Ta dyskusja na temat przepaści cyfrowej w Afryce kończy się spostrzeżeniem, że autorytarne reżimy i konflikty wewnętrzne w kilku najsłabiej połączonych krajach Afryki, takich jak Sudan, Rwanda i inne, oraz wysoki poziom cenzury Internetu osłabiają i tak już słabe społeczeństwo sieciowe w tych krajach. Monopolistyczne rządowe agencje telekomunikacyjne w połączeniu z rządową ingerencją w cyberprzestrzeń w Sudanie, Kenii, Zimbabwe oraz nieefektywne kongresy i parlamenty skutkujące okresami zawirowań, niestabilności i ciągłych zmian hamują rozwój solidnych przepisów dotyczących ICT. Ma to negatywny wpływ na przyjęcie, dostęp i wykorzystanie ICT w wielu częściach Afryki. Podsumowując, oprócz niskiego poziomu rozwoju społecznego i społeczno-gospodarczego, brak otwartości społecznej nadal stanowi wyzwanie dla niwelowania przepaści cyfrowej między krajami afrykańskimi oraz między Afryką a resztą świata.

Końcowe przemyślenia

W stosunkowo krótkim czasie globalny system ICT zmienił się i znacznie powiększył pod względem liczby i rodzajów technologii, rosnącej bazy użytkowników, różnorodności sposobów użytkowania, liczby dostawców usług i treści oraz samych treści . Rozprzestrzenianie się smartfonów, komputerów o dużej mocy obliczeniowej, dużych zbiorów danych i Internetu przedmiotów umożliwiła powszechna dostępność Internetu. Dostęp do Internetu w wielu częściach rozwiniętego świata jest szybki, wszechobecny i mobilny. Jednak w krajach rozwijających się wyzwania pozostają. Patrząc w przyszłość, państwa członkowskie ITU zobowiązały się do realizacji programu Connect 2020 opartego na wspólnej wizji "społeczeństwa informacyjnego, wzmocnionego przez wzajemnie połączony świat, w którym telekomunikacja/ICT umożliwia i przyspiesza społecznie, ekonomicznie i środowiskowo zrównoważony wzrost i rozwój dla wszystkich ". Cele agendy 2020 obejmują:

•  Wzrost: umożliwianie i wspieranie dostępu do telekomunikacji/TIK oraz zwiększonego ich wykorzystania
•  Inkluzywność: pokonaj przepaść cyfrową i zapewnij szerokopasmowe łącze dla wszystkich
•  Zrównoważony rozwój: Zarządzaj wyzwaniami wynikającymi z rozwoju telekomunikacji/ICT
•  Innowacje i partnerstwo: przewodzenie, ulepszanie i dostosowywanie się do zmieniającego się środowiska telekomunikacyjnego/ICT

Wraz z ewolucją technologii informacyjno-komunikacyjnych zmienia się również dyskurs dotyczący wykluczenia cyfrowego. Od mierzenia czystego dostępu do ICT pod względem abonamentów, krajowe organizacje telekomunikacyjne, takie jak US National Telecommunications & Information Administration, śledzą teraz nie tylko subskrypcje (tj. dostęp), ale także rzeczywisty cel korzystania z Internetu (np. w handlu elektronicznym, bankowości internetowej , gry i rozrywka, korzystanie z mediów społecznościowych, e-edukacja i e-zdrowie). Ta fundamentalna zmiana paradygmatu, od śledzenia dostępu do rzeczywistego wykorzystania do ostatecznych wyników lub wpływu wykorzystania ICT, jest nie tylko niezbędna, ale także ważnym kolejnym krokiem w badaniu globalnych przepaści cyfrowych zarówno w rządzie, jak iw przemyśle.



Powrót

Cyfrowe podziały , język



Szybki postęp technologii informacyjno-komunikacyjnych przyczynił się do powstania nowej formy nierówności społecznych, powszechnie znanej jako przepaść cyfrowa. Na przepaść cyfrową nakłada się wiele czynników demograficznych, w tym język pochodzenia, status społeczno-ekonomiczny, wykształcenie, płeć, wiek i położenie geograficzne w sposób nakładający się i wzajemnie wzmacniający. Ten wpis koncentruje się na tym, jak język wpływa na przepaść cyfrową. W szczególności wpis analizuje podziały cyfrowe oparte na języku w odniesieniu do dostępu, użytkowania i umiejętności.

Język i podział w dostępie online

Dostęp online jest kluczowym aspektem przepaści cyfrowej. W tym przypadku dostęp odnosi się zarówno do dostępu fizycznego (np. własny dostęp do urządzeń cyfrowych i Internetu), jak i dostępu do treści (np. dostępność treści online w języku znanym użytkownikowi).

Dostęp do Internetu

Jeśli chodzi o podział między użytkownikami języków w Stanach Zjednoczonych, od 2014 r. Badanie Current Population Survey wykazało, że 51,4% gospodarstw domowych z ograniczoną liczbą anglojęzycznych miało dostęp do Internetu, w porównaniu z 75,5% wskaźnikiem dostępu w gospodarstwach domowych anglojęzycznych. Ograniczone anglojęzyczne gospodarstwa domowe odnoszą się do tych gospodarstw domowych, w których członkowie w wieku powyżej 14 lat albo nie mówią zbyt dobrze po angielsku, albo nie mówią tylko po angielsku w domu. Mówiąc dokładniej, wśród latynoskiej populacji amerykańskiej istnieje rozbieżność w dostępie do Internetu między Latynosami z dominacją hiszpańską, którzy są bardziej biegli w języku hiszpańskim niż angielskim, a Latynosami z dominacją angielską lub dwujęzycznymi. Raport Latynosi i technologia cyfrowa opublikowane przez Pew Hispanic Center w 2010 r. wykazało, że tylko 37% Latynosów z dominacją hiszpańską miało domowe łącza internetowe w porównaniu z 61% Latynosów dwujęzycznych i 77% Latynosów z dominacją anglojęzyczną. Jeśli chodzi o warunki dostępu, w 2010 r. około jedna czwarta (26 %) Latynosów z dominacją Hiszpanii miała dostęp szerokopasmowy w domu, w porównaniu z około połową (52 %) dwujęzycznych Latynosów i dwiema trzecimi (66 %) anglojęzycznych dominujący Latynosi. Chociaż liczby te poprawiły się z biegiem czasu, od 2007 r do 2017 r. nadal istnieją różnice, zwłaszcza w gospodarstwach domowych zdominowanych przez Hiszpanów. Analizując kontekst globalny, międzynarodowe różnice w dostępie do Internetu są znacznie większe niż w Stanach Zjednoczonych. Według danych Międzynarodowego Związku Telekomunikacyjnego i Zjednoczonego, Organizacja Narodów Zjednoczonych ds. Oświaty, Nauki i Kultury. Co ciekawe, poziom znajomości języka angielskiego okazuje się być również czynnikiem związanym z szybkością dostępu do Internetu w wielu krajach najsłabiej rozwiniętych. Według badania Pew Research Center opublikowanego w 2015 roku, ci, którzy potrafią mówić i czytać po angielsku, mają znacznie większe szanse na dostęp do Internetu niż ich odpowiednicy w tym samym kraju. Na przykład w Chile, gdzie średni wskaźnik dostępu do Internetu wynosi 76%, osoby posługujące się językiem angielskim mają znacznie wyższy wskaźnik dostępu (96%) niż populacja uważana za analfabetów w języku angielskim (64%). Dotyczy to również pozostałych 31 krajów objętych badaniem. Badania wykazały, że osoby z ograniczoną znajomością języka angielskiego w Stanach Zjednoczonych i innych krajach są zwykle w niekorzystnej sytuacji w obszarach takich jak edukacja i dochody, które zwykle wiążą się z niższymi stawkami dostępu do Internetu. Biorąc pod uwagę wpływ tych czynników na biegłość w języku angielskim w Stanach Zjednoczonych, populacja o ograniczonej znajomości języka angielskiego, z której 63% to Latynosi, jest bardziej narażona na życie w ubóstwie i mniej wykształconą niż ich rówieśnicy biegle posługujący się językiem angielskim. Te grupy osób mogą mieć ograniczoną mobilność społeczno-ekonomiczną, co może tym samym ograniczać możliwości dostępu do Internetu. Sytuację tę można zaobserwować również w kontekście globalnym. Na przykład w Chile istnieje pozytywna korelacja między znajomością języka angielskiego, poziomem wykształcenia i dochodami gospodarstw domowych. Statystyki te wskazują na związek między językiem, rasą, wykształceniem i statusem społeczno-ekonomicznym w odniesieniu do przepaści cyfrowej, dostarczając dowodów na to, że sam język nie jest jedyną przyczyną nierówności w dostępie do Internetu.

Dostęp do treści online

Chociaż Internet staje się coraz bardziej zróżnicowany językowo, język angielski nadal dominuje w treściach online. Według badania Web Technology Survey, język angielski jest używany na 53,7% wszystkich stron internetowych, następnie rosyjski (6,3%), niemiecki (5,7%), japoński (5,0%) i hiszpański (4,9%). Od 2016 r. najczęściej używany język chiński stanowił zaledwie 1,9% treści internetowych, podczas gdy hindi, którym posługuje się 260 milionów ludzi, stanowi mniej niż 0,1%. Na przykład w Wikipedii występują duże asymetrie w ilości treści online dla różnych wydań językowych. Do lutego 2016 roku angielski zyskał znaczącą przewagę z ponad 5 milionami artykułów, a następnie szwedzki z 1,4 milionami. Po drugiej stronie spektrum, Ndonga i Afar, języki używane w krajach afrykańskich, mają mniej niż 10 stron. Podobnie w Google można wyszukiwać tylko 130 różnych języków spośród szacunkowych 6000 używanych obecnie języków. Neil Gandal zwraca uwagę, że gdy język angielski zdobędzie początkową przewagę, może wystąpić efekt sieciowy, prowadzący do utrwalenia znaczenia języka angielskiego. Wartość dostępności zasobów internetowych zmotywuje osoby nieanglojęzyczne do nauki języka angielskiego, co spowoduje dalszy wzrost zawartości w języku angielskim. Badanie przeprowadzone w 2002 roku przez Marka Warschauera i współpracowników dotyczące komunikacji online w Egipcie ilustruje ten złożony związek między używaniem języka a technologią w miarę rozprzestrzeniania się Internetu. Okazało się, że młodzi profesjonaliści stanowili większość wczesnych użytkowników Internetu w Egipcie, których podstawowym językiem w szkole i pracy był angielski. Z tego powodu, a także z wczesnych trudności w używaniu pisma arabskiego na komputerach, ci pierwsi użytkownicy Internetu w Egipcie często używali języka angielskiego w swoich e-mailach i na czacie. Natomiast brak obecności w Internecie dla poszczególnych języków nie tylko ogranicza możliwości dostępu do informacji dla osób posługujących się tymi językami, ale także, w skrajnych przypadkach, może przyspieszyć wymieranie języka. Językoznawca matematyczny twierdzi, że tylko 5% języków na świecie "rosnie cyfrowo", co sugeruje, że przyszłość pozostałych 95% jest niepewna.

Język i różnice w korzystaniu z Internetu

Korzystanie z Internetu przecina się z różnorodnością językową na dwa sposoby: po pierwsze, w zakresie, w jakim ludzie z różnych środowisk językowych korzystają z Internetu, a po drugie, w jaki sposób użytkownicy różnych języków korzystają z Internetu (np. i interakcji społecznych).

Wskaźniki korzystania z Internetu według języka

Oprócz dostępu do Internetu, innym ważnym aspektem penetracji technologii jest korzystanie z Internetu, które odnosi się do odsetka populacji, która korzysta z Internetu w dowolnym celu z dowolnego miejsca, w tym z domu, szkoły, miejsca pracy i innych. Ze względu na elastyczność lokalizacji można by oczekiwać, że stawki za korzystanie z Internetu będą wyższe niż stawki za dostęp do domu. W Stanach Zjednoczonych wskaźniki korzystania z Internetu przez grupy językowe odpowiadają ich stawkom za dostęp. W 2012 roku Pew Research Center poinformowało, że osoby mówiące po angielsku, urodzone w kraju, dobrze wykształcone i pochodzące z wyższej klasy społeczno-ekonomicznej częściej korzystają z Internetu niż ich mniej uprzywilejowani odpowiednicy. Jeśli chodzi o populację Latynosów, 91% Latynosów z dominacją anglojęzyczną i 83% Latynosów dwujęzycznych korzysta z Internetu lub wysyła i odbiera e-maile przynajmniej od czasu do czasu, w porównaniu z 63% Latynosów z dominacją hiszpańską i 78% Latynosów ogółem, według dane ankietowe zgłoszone przez Pew Hispanic Center w 2013 r. Na całym świecie różnice we wskaźnikach użytkowania są podobne do różnic we wskaźnikach dostępu między krajami rozwiniętymi, rozwijającymi się i najsłabiej rozwiniętymi.

Wzorce korzystania z Internetu według języka

Badania wykazały, że ludzie mówiący różnymi językami korzystają z Internetu w różny sposób. Podstawowe przyczyny zróżnicowania użycia w zależności od języka, które wyłoniły się z literatury, są dwojakie. Po pierwsze, różne wzorce używania określonych grup językowych mogą w rzeczywistości wynikać z czynników innych niż język - na przykład pochodzenia kulturowego, pochodzenia etnicznego i statusu społeczno-ekonomicznego. Drugi język może być również czynnikiem wzmacniającym dysproporcje we wzorcach użytkowania, biorąc pod uwagę fakt, że język angielski jest dominującym językiem zasobów informacyjnych w Internecie. W poniższych akapitach omówiono, w jaki sposób język wpływa na korzystanie z Internetu przez ludzi w celach edukacyjnych, rozrywkowych i/lub interakcji społecznych.

Język i podziały w edukacji online

Jednym z głównych oczekiwań związanych z edukacją online jest złagodzenie geograficznej nierównowagi zasobów edukacyjnych. Wynika to z jego potencjału w zakresie dostarczania wysokiej jakości edukacji przez Internet studentom na całym świecie. Biorąc pod uwagę fakt, że wiele uniwersytetów oferujących masowe otwarte kursy online (MOOC) jest amerykańskich, a językiem podstawowym jest angielski, zrozumiałe jest, że angielski staje się dominującym językiem do tworzenia kursów. Do 2014 roku Coursera oferowała większość swoich kursów w języku angielskim, chociaż ma rosnącą listę programów w językach takich jak hiszpański, chiński i portugalski. To, czy język może pozostać barierą uniemożliwiającą osobom nieanglojęzycznym korzystanie z tych możliwości edukacyjnych, jest kwestią dwuwarstwową. Z jednej strony, ponieważ kursy MOOC były tradycyjnie skierowane do studentów i absolwentów studiów podyplomowych, którzy mają relatywnie wyższy poziom znajomości języka angielskiego niż przeciętna populacja, niektórzy uważają, że język nie będzie dla tych studentów istotną przeszkodą podczas oglądania wykładów wideo, mimo że język angielski dominuje nad treścią kursu. Osoby posługujące się językiem angielskim jako pierwszym językiem stanowią zaledwie 46% użytkowników online Coursera, podczas gdy reszta to osoby, dla których ten język nie jest językiem ojczystym. Wśród nieanglojęzycznych użytkowników Coursera użytkownicy z krajów hiszpańskojęzycznych stanowią 11% aktywnych użytkowników na całym świecie i stanowią drugą co do wielkości społeczność po anglojęzycznych. W badaniu przeprowadzonym w 2015 roku Wenhong Chen i jego współpracownicy stwierdzili, że 92% Amerykanów pochodzenia latynoskiego, którzy sami identyfikowali się jako motywowani rozwojem zawodowym i edukacyjnym, zgłosiło korzyści z uczestnictwa w kursach Coursera. Jednak z drugiej strony bariery językowe i kulturowe uniemożliwiają osobom, dla których angielski nie jest językiem ojczystym, pełne wykorzystanie możliwości wspólnego uczenia się, jakie stwarzają te kursy języka angielskiego. Na przykład w jednym z badań zbadano stosunek chińskich uczniów do doświadczeń edukacyjnych w kursach MOOC, ujawniając, że niewystarczająca znajomość języka angielskiego i szok kulturowy utrudniają chińskim uczącym się uczestnictwo w forach dyskusyjnych z uczestnikami kursów anglojęzycznych.

Język i podziały w rozrywce online

Internet stał się znaczącym źródłem rozrywki. Rosnąca konsumpcja technologii rozrywkowych przez ludzi niesie ze sobą zarówno ryzyko ewentualnych szkód, jak i potencjał wzbogacenia nauki i pozytywnego rozwoju. Jeśli chodzi o rozrywkę online i przepaść cyfrową, badacze, którzy postrzegają rozrywkę online jako pozytywną aktywność, uważają, że ilość czasu, jaką ludzie spędzają online w celach rozrywkowych, może przyczynić się do ich rozwoju osobistego, a tym samym ułatwić awans. Z drugiej strony niektórzy badacze postrzegają rozrywkę online jako niekorzystną. Przedstawili koncepcję luki marnującej czas, która odnosi się do dysproporcji czasu spędzanego online na czystej rozrywce przez różne grupy ludności. Naukowcy odkryli, że dzięki zwiększonemu dostępowi do urządzeń cyfrowych w ostatnich latach dzieci z niższych środowisk społeczno-ekonomicznych spędzają więcej czasu niż dzieci z wyższych środowisk społeczno-ekonomicznych na korzystaniu z tych technologii w celach rekreacyjnych. Chociaż żadne badania nie próbowały zmierzyć różnorodności językowej w korzystaniu z Internetu w celach rozrywkowych, można by oczekiwać, że członkowie populacji USA z ograniczoną znajomością języka angielskiego, często kojarzeni z niższym poziomem wykształcenia i statusem społeczno-ekonomicznym, mogą spędzać więcej czasu na rozrywce . Czas, jaki ludzie spędzają online dla czystej rozrywki, odzwierciedla ich zdolność do efektywnego korzystania z Internetu, co jest związane z umiejętnościami cyfrowymi. Związek między językiem a rozrywką online jest również związany z uwarunkowaniami kulturowymi. Badania pokazują, że niektóre grupy etniczne mają tendencję do korzystania z mediów w swoich językach ojczystych w celach rozrywkowych w celu podtrzymania etnicznych powiązań kulturowych i wartości kulturowych. Jedna ankieta wykazała, że wielu Latynosów ze Stanów Zjednoczonych, którzy mówią głównie po angielsku, nadal preferuje media w języku hiszpańskim do uprawiania sportu i rozrywki. Wśród powodów może to być związek kulturowy i poczucie wśród niektórych Latynosów, że anglojęzyczne media przedstawiają ich negatywnie.

Język i podziały w interakcjach społecznościowych online

Interakcje społecznościowe online są generowane przez samych użytkowników o różnym pochodzeniu językowym. W związku z tym oczekuje się, że te strony internetowe mediów społecznościowych będą bardziej wielojęzyczne w porównaniu z witrynami innych niż media społecznościowe, które są głównie w języku angielskim. Pogląd ten znajduje potwierdzenie w poniższym badaniu. Chociaż język angielski jest najpopularniejszym językiem na Twitterze, do września 2013 r. tylko ponad jedna trzecia (34%) wszystkich tweetów była w języku angielskim. Inne popularne języki to japoński (16%), hiszpański (12%), malajski (8%) , portugalskim (6%) i arabskim (6%), razem odpowiadając za 48% tweetów. Niektóre badania pokazują, że użytkownicy mediów społecznościowych w różnych językach mogą wyrażać różne zachowania. Badając 62 miliony tweetów z 10 najpopularniejszych języków Twittera, Lichan Hong i współpracownicy odkryli międzyjęzykowe różnice w przyjmowaniu funkcji, takich jak adresy URL, hashtagi, wzmianki, odpowiedzi i retweety. Weźmy jako przykład "wzmiankę", za pomocą której użytkownicy Twittera mogą odnosić się do konkretnego użytkownika w swoich tweetach, prezentowanych w postaci "@nazwa_użytkownika". Raport Honga pokazuje, że 49% zebranych tweetów zawierało wzmianki. Jednak odsetek ten różnił się w zależności od języka: 73% tweetów w języku koreańskim i 72% tweetów w języku indonezyjskim zawierało wzmianki, podczas gdy tylko 36% tweetów w języku niemieckim zawierało wzmianki. Użytkownicy różnych języków mogą przynależeć do różnych kultur regionalnych lub etnicznych, co znajduje odzwierciedlenie w różnych wzorcach zachowań w mediach społecznościowych. Według badań na wyższe wskaźniki wykorzystania wzmianek wśród użytkowników koreańskich i indonezyjskich może mieć wpływ ich kultura zbiorowa, w której ludzie częściej angażują się w publiczne rozmowy z innymi. Na poziomie indywidualnym ta sama osoba może zachowywać się w różny sposób na różnych platformach mediów społecznościowych, używając różnych języków. W badaniu z 2013 roku Lin Qiu i współpracownicy przeanalizowali osoby dwujęzyczne korzystające z Facebooka w języku angielskim i jego chińskiego odpowiednika Renren.com w języku mandaryńskim. Użytkownicy na Facebooku wykazywali bardziej indywidualistyczne tendencje, natomiast na Renren użytkownicy ci częściej udostępniali wpisy zgodne z opiniami szerszej grupy. To odkrycie współgra z ideą, że osoby dwukulturowe mogą elastycznie zmieniać swoje zachowania w odpowiedzi na różne konteksty kulturowe. Innym interesującym tematem jest sposób, w jaki grupy językowe oddzielają się w społecznościach internetowych. Podczas gdy dostęp do Internetu stwarza okazję do globalnej konwersacji, istnieją dowody na fragmentację Internetu wynikającą z granic językowych i kulturowych. Analiza zachowań użytkowników przeprowadzona przez Pabla J. Boczkowskiego w 1999 r. pokazuje, że użytkownicy Twittera mają tendencję do ograniczania swoich obserwacji, tweetów i retweetów do osób mówiących tym samym językiem. Tendencja ta jest uważana za próbę wzmocnienia poczucia przynależności do ich rodzimej kultury lub grup etnicznych. Srinivas R. Melkote i DJ Liu zbadali związek między udziałem chińskich studentów i naukowców w chińskiej internetowej grupie dyskusyjnej a ich akulturacją. Badanie sugeruje, że aby poznać nowe środowisko i zdobyć informacje z kraju ojczystego, uczniowie polegali na internetowej grupie dyskusyjnej. Jednak dla tych, którzy posługują się językami mniejszości, oddzielenie społeczności internetowych może oznaczać, że większość rozmów w sieci będzie dla nich zablokowana, a ich rozmowy będą odizolowane od osób mówiących innymi językami. W rezultacie ci użytkownicy Internetu mogą być narażeni na ryzyko okupacji cyfrowych gett z powodu ograniczonego używania ich języków ojczystych.

Język i różnice w umiejętnościach cyfrowych

Wraz ze wzrostem wskaźników dostępu do Internetu i korzystania z niego niektórzy badacze sugerowali, że pierwotna przepaść cyfrowa w dużej mierze rozwiązała się sama. Jednakże, opierając się na założeniu, że sposób, w jaki ludzie korzystają z technologii cyfrowej, ma długoterminowe skutki, które mogą być zarówno korzystne, jak i niekorzystne, nowa przepaść cyfrowa polega na zróżnicowanych zdolnościach do korzystania z technologii w korzystny sposób, co jest powszechnie określane jako umiejętność korzystania z technologii cyfrowych. Badania rzucają światło na związek między umiejętnościami cyfrowymi a płcią, pochodzeniem etnicznym, pochodzeniem narodowym, statusem społeczno-ekonomicznym itd. Na przykład w badaniu z 2015 roku Stephen Reder analizuje dane z amerykańskiej ankiety dotyczącej rozwiązywania problemów w środowiskach bogatych w technologię, sugerując, że populacje kobiet, osób urodzonych za granicą, osób rasy czarnej lub Latynosów mają niższe wyniki w zakresie umiejętności cyfrowych w porównaniu z osobami urodzonymi w USA, Biali mężczyźni. W innym raporcie, który został opublikowany w 2011 roku, Marco Gui i Gianluca Argentin zbadali działania uczniów szkół średnich i umiejętności oceny informacji internetowych, ujawniając, że istnieją znaczne różnice między uczniami z różnych środowisk kulturowych w rodzinie. Literatura skupiająca się na umiejętnościach cyfrowych wśród użytkowników języków jest nieliczna, choć jest to obiecujący obszar do dalszych badań. Badanie przeprowadzone przez José Torralbę dotyczy problemu wyłaniającej się umiejętności cyfrowych imigrantów latynoskich, którzy posługują się językiem angielskim jako drugim językiem w Stanach Zjednoczonych. Wyniki wskazują, że ci nowicjusze nabywają umiejętności właściwego korzystania z narzędzi informatycznych w celu zaspokojenia swoich potrzeb i aspiracji osobistych, edukacyjnych i zawodowych w swoich domach, co prowadzi do rozwoju umiejętności cyfrowych i językowych, a także otwiera nowe sposoby interakcji z instytucjami formalnymi w Stany Zjednoczone. Inny raport opublikowany przez Departament Spisu i Statystyki Sri Lanki w 2014 r., dotyczący wskaźników alfabetyzacji cyfrowej wśród różnych osób mówiących językami na Sri Lance, pokazuje, że wskaźnik alfabetyzacji komputerowej jest wyższy wśród osób biegłych w języku angielskim (67,3%), w porównaniu z tymi, którzy biegle władają syngaleskim (30,4%) i tamilskim (25,1%), dwoma językami ojczystymi Sri Lanki. W tym niewielkim zbiorze literatury można dostrzec kilka powodów, które mogą w pewnym stopniu wyjaśniać, w jaki sposób pochodzenie językowe wiąże się ze zdolnością ludzi do korzystania z technologii cyfrowych. Po pierwsze, przepaść w zakresie umiejętności cyfrowych może w rzeczywistości ściśle splatać się z lukami w dostępie do Internetu i korzystaniu z niego, które są uważane za punkt wyjścia do rozwijania umiejętności cyfrowych. W ten sposób pierwotny podział na fizyczny dostęp do Internetu przekształcił się w różnicę w umiejętnościach korzystania z Internetu. W związku z tym można by oczekiwać, że poziomy umiejętności cyfrowych odpowiadają wskaźnikom dostępu i wykorzystania w zależności od grupy językowej. Drugi aspekt polega na przytłaczającej obecności języka angielskiego jako języka narzędzi i treści internetowych, jak wskazano w poprzedniej sekcji. Język pozostaje przeszkodą dla niektórych grup ludności, ponieważ muszą one szukać informacji w innych, mniej znanych językach ze względu na brak zasobów w ich najbardziej biegłych językach, co dodatkowo utrudnia im zdobywanie i rozpowszechnianie informacji w krytyczny sposób. Wreszcie jedno badanie dotyczące gospodarstw domowych imigrantów w USA i umiejętności cyfrowych sugeruje znaczenie sieci społecznościowych w doskonaleniu umiejętności technologicznych. Wielu imigrantów ze słabszą znajomością języka angielskiego może nie mieć sieci społecznościowych, które zwiększyłyby ich szanse na zdobycie dostępu do Internetu i umiejętności. Uważa się również, że osoby te będą mniej zmotywowane do pozostawania w kontakcie w porównaniu z tymi, które mają dużą sieć społecznościową online.

Niwelowanie przepaści cyfrowej opartej na języku

Jak wspomniano wcześniej, przepaść cyfrowa w zakresie dostępu do Internetu, korzystania z niego i umiejętności w różnych językach jest powiązana z wieloma innymi czynnikami. Dlatego dążenie do zamknięcia przepaści musi być wielowymiarowe i wielokierunkowe. Jednak kilka rozwiązań opartych na języku może przyczynić się do zlikwidowania przepaści cyfrowej.

Wielojęzyczne treści internetowe

Ponieważ Internet stał się medium uniwersalnym, potrzeba treści wielojęzycznych staje się koniecznością, aby zapewnić dostęp do internetowych zasobów informacyjnych, udostępnianie ich i korzystanie z nich przez wszystkie grupy językowe. Obecnie można zaobserwować dwie pozytywne tendencje. Wiele firm udostępnia platformy w różnych językach, a liczba stron internetowych tworzonych przez użytkowników w różnych językach rośnie. Na przykład odsetek kursów MOOC prowadzonych w języku angielskim nieznacznie spadł w 2015 r., z 80% w 2014 r. do 75% w 2015 r. Na ten trend mogło wpłynąć kilka czynników. Platformy nieanglojęzyczne stale się rozwijają, na przykład wspierany przez francuski rząd France Université Numerique i hiszpańska platforma Miriada X. Ponadto niektóre główne amerykańskie platformy MOOC, w tym Coursera, rozszerzają obecnie swoją ofertę kursów w językach innych niż angielski na rynki międzynarodowe. Coursera podjęła inicjatywę, aby zachęcić ochotników do tłumaczenia napisów z angielskiego na inne języki dla ponad 600 kursów wideo na swojej stronie. Podobne starania podjął Facebook, który w 2016 roku informował, że jest dostępny w 101 językach. Wolontariusze tłumaczyli kolejnych 40 języków w celu ewentualnego umieszczenia ich na stronie, w tym aymara, rdzenny język używany głównie w Boliwii, Peru i Chile, który jest uważany za zagrożony. Jeśli ajmara stanie się dostępny na Facebooku jako język urzędowy, może to być ważnym źródłem motywacji dla ajmarów do używania ich języka ojczystego.

Narzędzia do tłumaczenia online

Technologie tłumaczeniowe służą jako potężne narzędzia zapewniające powszechną dostępność zasobów internetowych. Na przykład Tłumacz Google może obsługiwać zarówno tłumaczenie tekstu, jak i strony internetowej w ponad 40 językach. Chociaż usługa Google Translate obsługuje tylko niewielką liczbę popularnych języków, jest to pozytywny krok w kierunku zmniejszenia barier językowych. Ponadto technologie tłumaczeniowe zapewniają możliwość łączenia się z użytkownikami różnych języków w ich własnym języku, zarówno w formie pisemnej, jak i ustnej. Na przykład Microsoft zademonstrował nowe narzędzie Skype, które umożliwia tłumaczenie rozmów głosowych na inne języki w czasie zbliżonym do rzeczywistego. Ponieważ treści online są zdominowane przez język angielski, zakłada się, że narzędzia tłumaczeniowe będą częściej wykorzystywane przez osoby nieanglojęzyczne do tłumaczenia dokumentów z języka angielskiego na inne języki. Niektórzy badacze ostrzegają jednak, że tego rodzaju narzędzia tłumaczeniowe mogą wzmocnić dominację języka angielskiego, jednocześnie wzmacniając pozycję osób, dla których angielski nie jest językiem ojczystym.

Nauka języków wspomagana komputerowo

Nauka języków wspomagana komputerowo, metoda integracji technologii informacyjnej jako części ekologii używania języka, jest gorącym tematem od lat 90. W przypadku uczniów takie doświadczenia obejmują naukę drugiego języka w środowisku cyfrowym, naukę poruszania się po nowych technologiach w języku docelowym, a także naukę czytania nowych tekstów cyfrowych, takich jak strony internetowe. Naukowcy dostrzegają potencjał uczenia się języków wspomaganego komputerowo w ułatwianiu ludziom jednoczesnego rozwijania umiejętności cyfrowych i znajomości drugiego języka. Jedno badanie dotyczące wykorzystania Wikipedii na kursach języka angielskiego na poziomie uniwersyteckim stanowi przykład przyjęcia praktyk cyfrowych w programie nauczania języków. Studenci uniwersytetu w Hongkongu otrzymali zadanie napisania i opublikowania wpisu w angielskiej Wikipedii na tematy związane z Hongkongiem. Wyniki sugerują, że ci uczniowie stopniowo konstruują swoją tożsamość jako doświadczonego pisarza w języku angielskim za pośrednictwem internetowych społeczności piszących w możliwości wykorzystania technologii informacyjno-komunikacyjnych. Język wraz z wieloma innymi czynnikami, w tym statusem społeczno-ekonomicznym, wykształceniem, płcią, wiekiem i położeniem geograficznym, przeplata się, kształtując każdy z trzech wymiarów podziału: (1) dostęp, (2) użytkowanie i (3) umiejętności. Z jednej strony sam język nie jest jedyną bezpośrednią przyczyną przepaści cyfrowej między różnymi grupami językowymi i jest związany z innymi czynnikami społecznymi, które mogą powodować przepaść cyfrową. W tym sensie przepaść cyfrowa może w mniejszym stopniu wynikać z języka niż z warunków społeczno-ekonomicznych. Z drugiej strony, biorąc pod uwagę fakt, że w świecie Internetu dominuje tylko kilka języków, język ma wpływ na korzystanie z Internetu i umiejętności ludzi. Wraz z rozwojem Internetu przepaść cyfrowa będzie nadal dynamicznie powiązana z kwestią języka.



Powrót

Cyfrowa Ziemia



Cyfrowa Ziemia to nazwa koncepcji wprowadzonej przez Ala Gore′a, ówczesnego wiceprezydenta Stanów Zjednoczonych, w przemówieniu wygłoszonym w 1998 roku w California Science Center w Los Angeles. Gore opisał cyfrową Ziemię jako wielorozdzielczą, trójwymiarową reprezentację planety, w której można osadzić ogromne ilości danych georeferencyjnych - czyli interaktywną cyfrową replikę planety. Ten wpis opisuje cyfrową ziemię i jej cel oraz przygląda się projektom związanym z cyfrową ziemią i perspektywami na jej przyszłość. W swoim przemówieniu z 1998 roku Gore zauważył, że żyjemy w świecie, w którym nieustannie gromadzone są ogromne ilości danych georeferencyjnych. Na przykład program Landsat pozyskał miliony obrazów powierzchni Ziemi od czasu jego uruchomienia w 1972 r. Jednak takie dane są zazwyczaj przechowywane w dużych silosach elektronicznych, gdzie nie można ich łatwo uzyskać ani przeanalizować. Gore przewidział, że to wyzwanie można pokonać za pomocą cyfrowej ziemi. Koncepcja cyfrowej ziemi Gore′a zasadniczo różni się od tradycyjnego systemu informacji geograficznej (GIS). W GIS nie wchodzi się w interakcję z cyfrową repliką planety, ale zamiast tego wchodzi w interakcję z różnymi jej dwuwymiarowymi projekcjami. W rezultacie dane georeferencyjne o dużej skali geograficznej mogą być dokładniej reprezentowane i bardziej intuicyjnie obsługiwane przy użyciu cyfrowej ziemi niż tradycyjny GIS, ponieważ ten pierwszy nie wykazuje zniekształceń geometrycznych wprowadzanych przez dwuwymiarowe projekcje. Gore postawił hipotezę, że cyfrowa Ziemia może służyć jako platforma do współpracy (laboratorium bez ścian) dla naukowców pragnących zrozumieć złożoną interakcję między ludźmi a ich środowiskiem. Cyfrowa ziemia to połączenie oprogramowania, sprzętu i danych. Dane wejściowe do cyfrowej ziemi to dane, które są wizualizowane za pomocą oprogramowania. Renderowanie tych wizualizacji wymaga intensywnych obliczeń i jest możliwe dzięki postępowi w projektowaniu sprzętu. Dane, które można wykorzystać w cyfrowej Ziemi, mogą pochodzić z niezliczonych zasobów, w tym z sieci czujników, satelitarnych stacji obserwacyjnych, monitorowania środowiska w czasie rzeczywistym, mediów społecznościowych i badań naziemnych. Rzeczywiście, próba wymienienia źródeł danych wejściowych do cyfrowej ziemi jest trudnym zadaniem. Można argumentować, że zasadniczo każde dane, które mają wyraźnie lub pośrednio osadzony komponent geoprzestrzenny, można uznać za kandydata do wykorzystania w cyfrowej Ziemi. Oprogramowanie dla cyfrowej ziemi obejmuje dowolne oprogramowanie (oprogramowanie open source, zastrzeżone lub mieszane), które ma możliwość obsługi danych przestrzennych. Kiedy Gore po raz pierwszy wyobraził sobie cyfrową ziemię, technologie wymagane do realizacji tej wizji nie istniały, ale postęp technologiczny w ciągu ostatnich dwóch dekad zbliżył tę ideę do rzeczywistości.

Projekty związane z Digital Earth

Google Earth i NASA (National Aeronautics and Space Administration) WorldWind to dwa najważniejsze projekty, które w pewnym stopniu zbliżają się do realizacji oryginalnej wizji Gore'a. Google Earth został uruchomiony w 2001 roku i przez wielu uważany jest za pierwszą implementację cyfrowej ziemi, którą wymyślił Gore. Google Earth ma szeroki zakres funkcji. W przypadku większości obszarów na powierzchni Ziemi program Google Earth może wyświetlać zdjęcia satelitarne o różnej rozdzielczości. Google Earth integruje te zdjęcia z cyfrowym modelem wysokości uzyskanym z NASA Shuttle Radar Topography Mission. Google Earth ma również szereg bardziej zaawansowanych funkcji, w tym możliwość oglądania pod powierzchnią oceanu i przeglądania zdjęć historycznych. Inne implementacje cyfrowej ziemi szybko nastąpiły po uruchomieniu Google Earth. Najbardziej znanym z nich jest WorldWind NASA, który został uruchomiony w 2003 roku. W przeciwieństwie do Google Earth, jest to projekt typu open source, który zapewnia programistom zestaw programistyczny. Spowodowało to, że programiści rozpoczęli szereg niezależnych projektów z wykorzystaniem kopii kodu źródłowego. Pomimo postępów pokazanych na tych przykładach, wiele elementów oryginalnej wizji Gore'a nie zostało jeszcze zrealizowanych. Na przykład od początku 2017 r. Google Earth i WorldWind nie ułatwiały żadnej formy współpracy.

Przyszłość cyfrowej Ziemi

Cyfrowa ziemia może ułatwić dostęp do danych i informacji o planecie oraz poprawić komunikację między naukowcami, decydentami i obywatelami. W tym celu Michael Goodchild zasugerował, że w przyszłości cyfrowa ziemia powinna położyć większy nacisk na przewidywanie i sposób działania planety. Obszar badań i rozwoju cyfrowej ziemi szybko się rozrósł wraz z postępem technologicznym w coraz szybszym tempie. Kilku autorów spekulowało, że zmierzamy w kierunku społeczeństwa, w którym technologia cyfrowa staje się niewidoczna, a nasza rzeczywistość fizyczna i wirtualna są zintegrowane. W tego typu społeczeństwie technologia geoprzestrzenna byłaby wszechobecna. Peter Mooney i Padraig Corcoran omówili rolę, jaką w cyfrowej ziemi mogą odgrywać projekty związane z informacjami geograficznymi (VGI), takie jak OpenStreetMap. Cyfrowa ziemia mogłaby odegrać ważną rolę w promocji VGI poprzez zintegrowanie jej z większą liczbą platform aplikacyjnych, ale nadal istnieją problemy z VGI, w tym wątpliwości co do jednorodnego zasięgu i jakości danych. W swoim badaniu cyfrowych systemów naziemnych z 2015 r. Ali Mahdavi-Amiri, Troy Alderson i Faramarz Samavati doszli do wniosku, że wiele pytań i wyzwań badawczych pozostaje nierozwiązanych. Podsumowali te wyzwania jako związane przede wszystkim z reprezentacją dużych zbiorów danych, kreatywną wizualizacją zestawów danych geoprzestrzennych oraz obsługą dynamicznych i nieprzewidywalnych zestawów danych, takich jak dane środowiskowe. Inne badania dotyczące cyfrowej ziemi wykazały, że jej użyteczność jest ograniczona przez brak dostępu do szybkiego łącza internetowego dla wielu osób, nawet w krajach rozwiniętych. Cyfrowa ziemia w jej przyszłych formach będzie miała do czynienia z większymi zbiorami danych, bardziej złożonymi wizualizacjami i strumieniami danych w czasie rzeczywistym, więc wysokiej jakości dostęp do Internetu jest niezbędny, aby cyfrowa ziemia była użyteczna.



Powrót

Cyfrowi tubylcy



Koncepcja cyfrowych tubylców została zaproponowana przez konsultanta ds. edukacji Marca Prensky′ego w 2001 roku w celu opisania uczniów urodzonych po 1980 roku. Ten wpis opisuje tę koncepcję, a następnie omawia badania nad młodymi ludźmi i technologią oraz reakcję Prensky′ego na krytykę formułowania cyfrowych tubylców. Kończy się badaniem ram dla odwiedzających i mieszkańców, które koncentruje się na poziomie zaangażowania w technologię, a nie na wieku użytkowników. Cyfrowi tubylcy, w ujęciu Prensky′ego, to ci, którzy dorastali lub dorastają w epoce cyfrowej, która rozpoczęła się pod koniec lat 70. Zaangażowanie w działania związane z technologią cyfrową jest częścią ich codziennego życia. Według Prensky′ego cyfrowi tubylcy mają kulturę łączności oraz tworzenia i udostępniania online. Ich życie kręci się wokół Internetu, gdzie uzyskują dostęp do informacji i wchodzą w interakcje z innymi, na przykład poprzez blogowanie; granie w gry online; pobieranie filmów, muzyki i innych treści online; kupowanie i sprzedawanie przez Internet; i towarzyskich za pośrednictwem sieci społecznościowych. Twierdzenie jest takie, że cyfrowi tubylcy uczą się inaczej niż poprzednie pokolenia uczniów. Są aktywnymi uczniami doświadczalnymi, którzy lubią szybko otrzymywać informacje, są wielozadaniowi i przetwarzają równolegle oraz wolą grafikę od tekstów. Prensky użył terminu cyfrowych imigrantów dla osób urodzonych przed cyfrowymi tubylcami, opisując ich w przeciwieństwie do cyfrowych tubylców jako dorosłych, którzy przegapili dorastanie w erze cyfrowej i są znacznie mniej obeznani z technologią i mniej zaznajomieni z technologicznym językiem cyfrowych tubylców. Chociaż Prensky zapoczątkował terminy "cyfrowi tubylcy" i "cyfrowi imigranci", inni używali wcześniej metafory tubylców i imigrantów, aby opisać różnice pokoleniowe w stosunku do technologii, w tym John Perry Barlow w swoim manifeście z 1996 r. "Deklaracja niepodległości cyberprzestrzeni". W edukacji imigranci cyfrowi zwykle odnoszą się do pokolenia nauczycieli sprzed 1980 r., którzy kształcą cyfrowych tubylców w szkołach i na uczelniach wyższych. Ponieważ ci nauczyciele-imigranci cyfrowi mają inne doświadczenie świata w porównaniu z tubylcami cyfrowymi, wydaje się, że ich poziom biegłości cyfrowej uniemożliwia im skuteczne kształcenie uczniów, ponieważ nie są w stanie zintegrować typów technologii, z którymi są tubylcy cyfrowi przyzwyczajony. W ciągu ostatniej dekady badania koncentrowały się na różnicach między cyfrowymi natywnymi i cyfrowymi imigrantami oraz ich implikacjach dla nauczania, a także programów kształcenia zawodowego dla edukatorów cyfrowych imigrantów. Koncepcja cyfrowych tubylców nie ma podstaw empirycznych, ale pozostaje popularna wśród rodziców i nauczycieli, aby opisać uczniów, którzy znają tylko życie otoczone technologią. Od tego czasu w literaturze pojawiły się inne nazwy określające uczniów urodzonych w epoce cyfrowej. Obejmują one cyfrowe dzieci (Hsi, 2007; Salen, Torres, Wolozin, Rufo-Tepper i Shapiro, 2011), millenialsi (McMahon i Pospisil, 2005), generowanie sieci (Oblinger i Oblinger, 2005) oraz generowanie aplikacji (Gardner i Davis, 2013). W ostatnich latach argumentowali inni badacze wbrew natywnemu opisowi cyfrowemu z powodu braku dowodów empirycznych na poparcie twierdzeń. Przeprowadzono badania tych badaczy, aby zrozumieć młodych ludzi i ich cechy charakterystyczne w odniesieniu do technologii cyfrowej. Główne założenia ich ustaleń z tych badań, które nie zgadzają się z opisami natywnych użytkowników cyfrowych, koncentrowały się na następujących kwestiach.

Czynnik generacji.

Nazewnictwo zgodnie z założonym ukierunkowaniem na technologię cyfrową sugeruje, że wszystkich ludzi w tym samym wieku można scharakteryzować w ten sam sposób. Większość badaczy zgadza się, że technologia cyfrowa, w szczególności technologia mobilna, wpływa na osobiste doświadczenia uczniów poza klasą w sposobie komunikowania się, nawiązywania kontaktów towarzyskich i uczenia się, ale istnieją różnice między osobami w tym samym wieku w zależności od ich środowiska i doświadczeń. Czynniki, które poza wiekiem wpływają na dostępność technologii dla młodych ludzi, obejmują dostępność technologii, zakres jej wykorzystania, ich wcześniejsze doświadczenia, poczucie własnej skuteczności oraz poziom wykształcenia w zakresie korzystania z technologii, zwłaszcza do nauki. Literatura wskazuje, że istnieje zróżnicowanie w obrębie pokolenia cyfrowych tubylców, tak samo jak między pokoleniami. Konieczność zmiany przez nauczycieli sposobów nauczania w celu dostosowania ich do cyfrowych tubylców. Często twierdzi się, że zamiłowanie młodych ludzi do technologii cyfrowych i częste skojarzenia z nimi wymagają fundamentalnych zmian w sposobie bycia edukatorów . Naukowcy argumentują jednak, że korzystanie z technologii przez młodych ludzi w edukacji różni się od jej wykorzystania w życiu codziennym, na przykład korzystania z mediów społecznościowych. Wielu uczniów ma trudności z korzystaniem z sieci akademickiej, ponieważ brakuje im strategii wyszukiwania w sieci i umiejętności krytycznego myślenia, aby szukać informacji oraz identyfikować i krytycznie oceniać znalezione zasoby. Rola nauczycieli jest kluczowa w zapewnianiu młodym ludziom możliwości, celu i wskazówek, jak skutecznie uczyć się za pomocą technologii cyfrowych. Obejmuje to zdolność rozumienia multimodalności w poszukiwaniu informacji i przekazywaniu wiedzy w celu wykazania zrozumienia oraz komunikowania się na poziomie społecznym.

Struktura mózgu cyfrowych tubylców

Niektórzy twierdzą, że oparte na technologii działania cyfrowych tubylców zmieniają sposób, w jaki rozwijają się ich mózgi. Ale kognitywiści odrzucili pomysł, że te doświadczenia zmieniają podstawowe zdolności mózgu do przetwarzania informacji i nie ma empirycznych dowodów sugerujących, że dorośli w wieku przedcyfrowym i cyfrowi tubylcy mają inną strukturę mózgu.

Kultura i postawy

Odnosząc się do kontrowersji wywołanych przez terminy "cyfrowi tubylcy" i "cyfrowi imigranci", Prensky wskazał, że terminy te były metaforami mającymi pomóc ludziom zrozumieć, dlaczego i jak rzeczy wokół nich się zmieniają. Zapewnił, że nie dotyczą one tego, co ludzie wiedzą lub mogą zrobić z technologią, ale raczej kultury i postaw. Twierdził, że podczas gdy cyfrowi tubylcy żyli i znali tylko kulturę ery cyfrowej, cyfrowi imigranci żyli zarówno w kulturze przedcyfrowej, jak i cyfrowej. Kultura formacyjna imigrantów cyfrowych, która miała miejsce głównie w epoce przedcyfrowej, odzwierciedlałaby postawy różniące się od postaw cyfrowych tubylców. Może to potencjalnie doprowadzić do zderzenia kultur. Aby zasymilować się, nauczyciele-imigranci cyfrowi musieliby ocenić własne myślenie i działania, aby zdecydować, czy sposób, w jaki się uczyli i nauczali w środowisku przedcyfrowym, jest nadal najlepszym sposobem nauczania. Prensky twierdzi również, że wciąż jest wiele rzeczy, których cyfrowi tubylcy mogą się nauczyć w odniesieniu do technologii cyfrowej. Odchodząc od terminów cyfrowych tubylców i cyfrowych imigrantów, do 2011 roku Prensky mówił o przeniesieniu punktu ciężkości na dwie grupy pracujące nad cyfrową mądrością. Cyfrowa mądrość może się rozwinąć, gdy narzędzia cyfrowe są wykorzystywane do zwiększania możliwości ludzkiego umysłu. Cyfrowe doskonalenie naszych zdolności poznawczych prowadzi do większej mądrości, ponieważ umożliwia gromadzenie i przetwarzanie dużych ilości informacji (np. bazy danych, programy statystyczne), możliwość wglądu w innych (np. alternatywne perspektywy.

Model odwiedzających i mieszkańców

W miejsce dychotomii cyfrowych tubylców i cyfrowych imigrantów David White i Alison Le Cornu zaproponowali nowe metafory cyfrowych gości i mieszkańców. Odwiedzający i mieszkańcy oferują ramy, które przedstawiają kontinuum trybów zrozumienia preferencji użytkowników w motywowaniu zaangażowania w technologię cyfrową i działania online. W trybie odwiedzającym ludzie wykorzystują technologię do osiągnięcia celu. Decydują o tym, co jest wymagane do wykonania zadania, przechodzą do trybu online, aby je ukończyć i wychodzą, lub zdobywają wymagane zasoby (np. pobranie aplikacji lub odzyskanie informacji) i przechodzą do trybu offline, aby ukończyć zadanie. Odwiedzający nie pozostawiają żadnych śladów społecznościowych w Internecie ani nie mają żadnej formy tożsamości online. Woleliby pozostać anonimowi. Z kolei ludzie, którzy są rezydentami, korzystają z Internetu, aby łączyć się z innymi ludźmi i zaistnieć w społecznościach. Postrzegają sieć jako miejsce, w którym mają przyjaciół, z którymi mogą dzielić się informacjami o swoim życiu i pracy oraz od których mogą uzyskać informacje. Mieszkańcy spędzają dużą część swojego życia w Internecie, stąd zacierają się u nich granice między życiem online i offline. Mają profil w sieciach społecznościowych w otwartej sieci - na przykład tweetują na Twitterze, blogują i/lub publikują posty na Facebooku i Instagramie. Pozostawiają trwały ślad społeczny w otwartej sieci lub w środowisku zamkniętym, takim jak fora dyskusyjne dotyczące systemów zarządzania nauczaniem stosowanych przez instytucje edukacyjne. Goście i mieszkańcy nie są dychotomią, ponieważ większość ludzi przez większość czasu znajduje się gdzieś na kontinuum gości i mieszkańców. Ramy nie uwzględniają podziałów ze względu na wiek w odniesieniu do korzystania z technologii cyfrowej. Zamiast tego koncentruje się na różnych poziomach zaangażowania użytkowników w technologię. Ramy są wykorzystywane przez nauczycieli i badaczy jako narzędzie do mapowania, aby dowiedzieć się, w jaki sposób uczniowie angażują się w technologię na różnych etapach edukacji. To z kolei wpłynie na praktykę pedagogiczną nauczycieli w zakresie włączania technologii cyfrowej do ich nauczania.



Powrót

Cyfrowa steganografia



Ilość komunikacji w Internecie przewyższa obecnie tradycyjne media, takie jak listy czy faksy, w związku z czym istnieje pilna potrzeba opracowania metod zabezpieczenia poufnej komunikacji online. Jedną z metod poufnej komunikacji online jest steganografia. Termin steganografia jest połączeniem dwóch greckich słów, steganos, czyli "okładka" i graphein, czyli "pisanie". Dlatego steganografia odnosi się do "pisania zakrytego" lub "pisma tajnego". Jest klasyfikowany jako forma ukrywania danych. Obejmuje metody tajnej komunikacji przy użyciu niewinnie wyglądających mediów, w których celem jest zapewnienie, że poufne informacje są przekazywane w tajemnicy, bez wykrycia przez nieupoważnione osoby trzecie. Ten wpis przebiega w kilku krokach. Po pierwsze, stanowi wprowadzenie do dziedziny steganografii poprzez opisanie jej genezy; po drugie, porównuje steganografię z inną techniką bezpieczeństwa, kryptografią; po trzecie, wyjaśnia różne typy technik steganograficznych; po czwarte, przedstawia różne zastosowania steganografii; i wreszcie opisuje niektóre metody wykrywania steganografii.

Początki steganografii

Początki steganografii sięgają cywilizacji greckiej już w 440 roku p.n.e. Jedna z wczesnych metod steganografii polegała na wytatuowaniu tajnej wiadomości na głowie niewolnika, która była ukrywana, gdy włosy osobnika odrastały. Niewolnik następnie udał się do określonego miejsca docelowego i ogolił włosy, aby ujawnić ukrytą wiadomość zamierzonemu odbiorcy. Inne historyczne przykłady steganografii obejmują używanie niewidzialnego atramentu lub tajnego atramentu, pisanie za znaczkami pocztowymi, używanie różnych czcionek lub krojów pisma w dokumencie, ukrywanie alfabetu Morse′a w ubraniach i mruganie alfabetem Morse′a. Te przykłady reprezentują przypadki fizycznej steganografii; jednak w dzisiejszych czasach steganografia stała się cyfrowa, a tajna komunikacja odbywa się teraz cyfrowo w Internecie. Wraz z pojawieniem się komputerów osobistych steganografia wkroczyła na arenę cyfrową. Ludzie zaczęli eksperymentować ze steganografią w mediach cyfrowych, takich jak obrazy, wideo, audio i tekst. Początkowo postęp w tej dziedzinie był bardzo powolny, ale ostatnio, dzięki darmowemu oprogramowaniu steganograficznemu dostępnemu w Internecie, stało się ono bardziej dostępne. Niektóre przykłady cyfrowej steganografii obejmują usuwanie najmniej znaczących bitów obrazu w celu ukrycia tajnej wiadomości, osadzenie tajnych danych w zaszyfrowanych danych oraz zmianę tonu lub wysokości sygnału audio w celu przekazania tajnej wiadomości.

Steganografia kontra kryptografia

Podobna do steganografii jest inna technika zwana kryptografią, która służy do bezpiecznej, poufnej komunikacji, ale istnieje różnica między tymi dwiema technikami. Kryptografia szyfruje poufne wiadomości w celu zabezpieczenia wiadomości podczas cyfrowej komunikacji przez Internet. Hakerzy lub atakujący mogą zobaczyć przesyłaną zaszyfrowaną wiadomość, ale nie mogą wyodrębnić oryginalnej wiadomości, ponieważ jest ona zaszyfrowana przy użyciu tajnego klucza (lub klucza publicznego). W kryptografii fakt, że odbywa się poufna komunikacja, jest widoczny i znany, ponieważ zaszyfrowana wiadomość jest widoczna, ale nie można jej odszyfrować. W przeciwieństwie do tego, steganografia faktycznie ukrywa poufną komunikację, unikając w ten sposób podejrzeń o jakąkolwiek tajną komunikację. Na przykład, gdy obraz jest wysyłany pocztą e-mail, może nie wzbudzać podejrzeń o poufną komunikację, ponieważ tak wiele osób regularnie udostępnia zdjęcia za pośrednictwem poczty e-mail lub sieci społecznościowych. Ale jeśli ktoś zauważy, że zaszyfrowana wiadomość jest wysyłana pocztą elektroniczną, może to oznaczać, że ma miejsce jakaś forma poufnej komunikacji.

Proces cyfrowej steganografii

Aby zrozumieć, jak ukryć poufną wiadomość na nośniku cyfrowym, takim jak obraz lub wideo, niezbędne jest zrozumienie procesu cyfrowej steganografii. Istnieją dwa główne etapy: Pierwszym krokiem jest osadzenie poufnej wiadomości w nośniku stanowiącym okładkę (np. obrazie lub wideo), a drugim krokiem jest wyodrębnienie poufnej wiadomości z nośnika stanowiącego okładkę. Poufna wiadomość jest najpierw kompresowana cyfrowo (w celu zmniejszenia jej rozmiaru), następnie szyfrowana przy użyciu kryptografii (jest to krok opcjonalny), a na końcu jest ukrywana na nośniku za pomocą algorytmu osadzania specjalnie zaprojektowane dla określonego nośnika okładki (np. obrazów). Algorytm osadzania koduje poufną wiadomość za pomocą jednej z technik steganograficznych, takich jak steganografia obrazu lub steganografia wideo. Algorytm osadzania używa tajnego klucza (lub klucza publicznego) do wybrania miejsca ukrycia. Po zidentyfikowaniu miejsca ukrycia i ukryciu poufnej wiadomości, powstały nośnik nazywa się stego medium. Nośnik stego jest następnie przesyłany przez Internet do odbiorcy, który może wyodrębnić poufną wiadomość za pomocą algorytmu ekstrakcji i tajnego klucza (lub klucza prywatnego). Wyodrębnione informacje można odszyfrować i zdekompresować, aby odzyskać oryginalną poufną wiadomość. Jest to ogólny proces steganografii. Algorytmy osadzania zawierają podstawową logikę steganograficzną służącą do ukrywania poufnej wiadomości.

Właściwości steganografii cyfrowej

Techniki steganograficzne charakteryzują się trzema podstawowymi właściwościami: (1) niewyczuwalnością, (2) zdolnością zatapiania i (3) solidnością.

Niezauważalność

Niedostrzegalność jest miarą oceny jakości danych wyjściowych stego (np. obrazu stego), ponieważ podstawową ideą stojącą za steganografią jest upewnienie się, że medium stego nie wzbudza podejrzeń. W związku z tym nośnik wyjściowy stego nie powinien wprowadzać żadnych dostrzegalnych lub zauważalnych zmian, które mogłyby wzbudzić podejrzenie poufnej komunikacji. W kontekście steganografii obrazu niedostrzegalność mierzy się porównując oryginalny obraz i obraz stego przy użyciu kryterium, takiego jak szczytowy stosunek sygnału do szumu. Szczytowa wartość stosunku sygnału do szumu poniżej pewnego progu jest uważana za niezauważalną dla człowieka.

Pojemność

Pojemność jest miarą tego, ile tajnych treści można ukryć w danym nośniku stanowiącym okładkę, tak aby nie wprowadzał on żadnych zauważalnych różnic między oryginałem a nośnikiem stego. Jest mierzona w kilobajtach lub megabajtach informacji przechowywanych na nośniku stego.

Odporność

Odporność jest miarą wiarygodności osadzonych danych po ich wyodrębnieniu przy użyciu typowych operacji przetwarzania sygnału, takich jak skalowanie, kompresja, przycinanie itd. jeśli osadzone dane można całkowicie wyodrębnić po niezamierzonych lub celowych atakach, wówczas schemat steganograficzny jest uważany za solidny. Odporność mierzona jest procentem odzyskania (tj. jaki procent danych można jeszcze odzyskać po ataku).

Cyfrowe techniki steganograficzne

Istnieje kilka różnych technik cyfrowych komunikacji steganograficznej. Steganografia obrazu jest zdecydowanie najpopularniejsza, ale istnieje kilka innych, wykorzystujących różne media, takie jak steganografia wideo, steganografia tekstu, steganografia audio, steganografia sieciowa, steganografia rozproszona, steganograficzne systemy plików i steganografia społecznościowa.

Steganografia obrazu

Steganografia obrazu to technika, w której obrazy służą jako przykrywka do ukrywania poufnych wiadomości. Istnieje wiele sposobów manipulowania obrazem w celu ukrycia tajnej wiadomości. Jedną z najprostszych metod jest steganografia najmniej znaczących bitów (LSB). Każdy obraz składa się z dużej liczby pikseli. Kolor każdego piksela jest reprezentowany przez osiem bitów. Z tych ośmiu bitów ostatni (lub najmniej znaczący bit) można zmanipulować w celu zakodowania tajnej wiadomości. Na przykład, jeśli osiem bitów to "10110110", wówczas LSB wynosi 0. W steganografii LSB, LSB jest manipulowane (tj. zmieniane z "0" na "1"). Jeśli wszystkie LSB są manipulowane w ten sposób, tajną wiadomość można łatwo zakodować w obrazie. Na przykład, jeśli wziąć obraz w skali szarości o szerokości 2048 pikseli i wysokości 1536 pikseli (2048 × 1536), będzie on zawierał 3145728 pikseli. Każdy znak w ASCII (American Standard Code for Information Interchange) jest reprezentowany za pomocą ośmiu bitów, więc ten obraz teoretycznie mógłby ukryć 393 216 znaków (3 145 728 pikseli podzielonych przez osiem bitów na alfabet). W języku angielskim średnia długość słowa wynosi pięć znaków, co oznacza, że w obrazie można ukryć 78 643 słów. To jest przykład możliwości osadzania obrazu. W przypadku innych mediów, takich jak wideo lub audio, możliwości osadzania są jeszcze większe. Steganografia LSB działa w przestrzennej domenie obrazów; jednakże obrazy można przekształcić do innych domen, takich jak dyskretna transformata falkowa (DWT), dyskretna transformata kosinusowa (DCT) i dyskretna transformata Fouriera, a transformacje te można również wykorzystać do steganografii. Zasadniczo transformacje obrazu, takie jak DCT lub DWT, przekształcają obraz z reprezentacji na inny za pomocą prostych lub złożonych funkcji matematycznych. Te transformacje są teoretycznie znacznie lepsze, ponieważ są bardziej odporne na celowe lub niezamierzone manipulowanie obrazami.

Dźwięk i głos

Internet Protocol Steganography Steganografia audio to metoda przekazywania poufnych informacji poprzez ukrywanie ich w pliku audio. Wynikowy plik audio powinien spełniać trzy właściwości steganograficzne, to znaczy (1) niewyczuwalność, (2) solidność i (3) zdolność osadzania. W sygnale dźwiękowym można ukryć dowolne informacje, takie jak teksty lub obrazy, a nawet inny mniejszy sygnał dźwiękowy. Można zastosować proste metody, takie jak steganografia LSB Tutaj Istnieją pewne metody specyficzne dla dźwięku, takie jak ukrywanie echa, w których echo jest dodawane do oryginalnego sygnału w celu przekazania tajnej wiadomości. Podobnie metody oparte na DCT i DWT, jak opisano wcześniejszy może być również używany do steganografii audio. Voice over Internet Protocol to technologia wykorzystywana do wykonywania połączeń telefonicznych za pośrednictwem Internetu. Metody steganografii audio mogą być również wykorzystywane w połączeniach Voice over Internet Protocol.

Steganografia wideo

Steganografia wideo jest teoretycznie podobna do steganografii obrazu i dźwięku, ponieważ wideo jest w rzeczywistości dużym zbiorem obrazów powiązanych z dźwiękiem. Dlatego większość metod stosowanych w steganografii obrazu i steganografii audio można również zastosować do wideo. Formaty wideo, takie jak wysoka rozdzielczość (HD lub 2560 × 1440 pikseli), 4K (3840 × 2160 pikseli) lub 8K (7680 × 4320 pikseli) oferują duże ilości danych, które można wykorzystać do ich ukrycia. Ponadto jakość wideo zależy od częstotliwości klatek obrazu na sekundę (fps), która zwykle jest mierzona w hercach (Hz). Niektóre typowe szybkości klatek to 24 kl./s lub 24 Hz, 50 kl./s i 60 kl./s. W związku z tym zdolność osadzania w ciągu 1 sekundy wideo HD przy 60 Hz wyniesie 2560 × 1440 × 60 = 221 184 000 pikseli. Opisaną wcześniej metodę LSB można zastosować również do filmów.

Steganografia tekstu

Steganografia tekstowa osadza poufne wiadomości w tekście. Tekst może pochodzić z edytora tekstu, pliku HTML (hipertekstowy język znaczników), kaskadowych arkuszy stylów i tak dalej. W porównaniu z obrazem, dźwiękiem lub wideo, możliwości osadzania w tekście są bardzo ograniczone, ponieważ istnieje bardzo niewiele nadmiarowych danych, które można zastąpić w celu osadzenia klucza tajnego. Dlatego steganografia tekstu jest trudniejsza niż jakakolwiek inna forma steganografii. Jednak do steganografii tekstu można zastosować następujące techniki: przesuwanie słów w określonych odstępach czasu, użycie "," lub ";" do komunikowania "0" lub "1", techniki spacji, w których jedna spacja odnosi się do "0", a dwie spacje odnoszą się do "1", oraz zmodyfikowane znaczniki HTML w celu osadzenia "0" lub "1".

Inne techniki steganograficzne

Istnieją inne techniki steganograficzne, takie jak steganografia sieciowa (np. ukrywanie w sieciowych pakietach danych, protokołach) i steganografia rozproszona (dystrybucja poufnych informacji na różnych nośnikach, takich jak obrazy, audio, wideo). Nie są one tak powszechne jak steganografia obrazu, dźwięku i wideo, ale zyskują na popularności. Oprócz steganografii istnieją metody wykrywające użycie steganografii, a ta dziedzina jest określana jako steganalysis, której celem jest wykrywanie i wydobywanie ukrytych informacji z podejrzanych mediów okładkowych. Wraz z upowszechnieniem się stosowania steganografii, równie istotne staje się zapotrzebowanie na zaawansowane metody analizy steganograficznej. Metody statystyczne są obecnie stosowane do wykrywania steganografii, ale wykrywanie to tylko pierwszy krok; ważniejsze jest wydobycie ukrytych informacji, co stanowi główne wyzwanie.



Powrót

Cyfrowy znak wodny



W tym wpisie omówiono jedną kategorię technik ukrywania informacji: cyfrowy znak wodny i jego zastosowania w rozwiązywaniu problemów handlowych spowodowanych nieuprawnionym udostępnianiem nośników cyfrowych przez Internet. W szczególności ten wpis wprowadza dwie różne technologie, które stanowią część cyfrowego znaku wodnego: (1) solidny znak wodny i (2) delikatny znak wodny. Techniki te dotyczą piractwa informacyjnego, ochrony praw autorskich, wykrywania manipulacji, śledzenia zdrajców i weryfikacji własności. Kwestie te stały się głównym problemem wraz z upowszechnieniem się Internetu, w którym ludzie regularnie udostępniają treści cyfrowe w postaci muzyki, filmów i programów telewizyjnych. W większości przypadków, gdy kupujemy cyfrową kopię muzyki lub wideo, jesteśmy związani warunkami licencji, które zabraniają nam udostępniania lub tworzenia cyfrowych kopii multimediów. Ten wpis rozpoczyna się od omówienia pochodzenia znaku wodnego oraz kilku przykładów fizycznych i cyfrowych znaków wodnych. Następnie wpis opisuje różne rodzaje cyfrowych znaków wodnych, porównując solidne znaki wodne z delikatnymi znakami wodnymi oraz różnice między nimi.

Klasyfikacja technik cyfrowego znaku wodnego

Schemat klasyfikacji technik cyfrowego znaku wodnego przedstawiono na rysunku 1, gdzie techniki te zostały sklasyfikowane na podstawie ich głównych zastosowań. Cyfrowe znaki wodne dzielą się na dwie kategorie: (1) solidne znaki wodne i (2) delikatne znaki wodne. Solidne techniki znakowania wodnego osadzają informacje o prawach autorskich w mediach cyfrowych, aby zapewnić ochronę praw autorskich właścicielom mediów cyfrowych. Ta technika może osadzić widoczny znak wodny lub niewidoczny lub niewidoczny znak wodny. W porównaniu z solidnymi znakami wodnymi, delikatne znaki wodne rozwiązują problem manipulowania danymi cyfrowymi ukrywanie kodu uwierzytelniającego w celu zapewnienia autentyczności treści.

Solidne znaki wodne kontra odciski palców a delikatne znaki wodne

Solidny znak wodny osadza silny/solidny znak wodny w nośniku cyfrowym, aby rozwiązać problem kradzieży własności intelektualnej, ponieważ ludzie udostępniają nieautoryzowane treści w Internecie lub sieciach peer-to-peer, co skutkuje naruszeniem praw autorskich. Techniki kryptograficzne mogą chronić zawartość podczas transmisji, ale po jej odszyfrowaniu nie powstrzymuje to nieautoryzowanej redystrybucji. Dlatego osoba, która narusza prawa autorskie, nie może być ścigana, ponieważ nie ma dowodów własności. Solidne znaki wodne rozwiązują ten problem, umieszczając informacje o własności w mediach cyfrowych. Dla porównania, odciski palców to specjalny rodzaj niezawodnej techniki znaku wodnego, która ukrywa dane nabywcy (np. unikalny identyfikator) lub tego, kto kupił media cyfrowe (np. piosenkę lub film). Dane te są dodawane jako znak wodny do nośnika cyfrowego przed wysłaniem go do nabywcy. Użycie terminu odcisk palca jest podobne do prawdziwego ludzkiego odcisku palca, który jest również wyjątkowy. Dlatego, gdy mówimy, że nośnik cyfrowy jest odciskiem palca, oznacza to, że dane nabywcy są ukryte w nośniku. W rezultacie podejście to jest wykorzystywane do weryfikacji własności i śledzenia zdrajców. Delikatny znak wodny wykorzystuje technologię cyfrowego znaku wodnego do uwierzytelniania treści. Treści cyfrowe, takie jak obrazy lub nagrania telewizji przemysłowej z miejsca zbrodni, można łatwo sfałszować bez pozostawiania widocznych śladów. Takie manipulowanie mediami jest bardzo niepokojące. Jeśli taka ingerencja ma miejsce, powinna być możliwa do zidentyfikowania i zlokalizowana, aby wiedzieć, że media zostały naruszone i gdzie dokładnie zostały naruszone.

Niewidoczne znaki wodne kontra widoczne znaki wodne

Solidne znakowanie wodne obejmuje dwie techniki podrzędne. Niewidoczny znak wodny osadza niewidoczny znak wodny, natomiast widoczny znak wodny osadza widoczny znak wodny w postaci logo.

Cyfrowy proces znakowania wodnego

Proces cyfrowego znaku wodnego składa się z trzech głównych etapów: (1) generowanie znaku wodnego, (2) osadzanie znaku wodnego oraz (3) ekstrakcja znaku wodnego i wykrywanie.

Generowanie znaku wodnego

Pierwszym krokiem jest wygenerowanie znaku wodnego. Istnieje kilka różnych rodzajów znaków wodnych, które są powszechnie używane do znakowania wodnego. Prostym znakiem wodnym może być fragment danych binarnych, na przykład "1100101011110011011", obraz lub standardowy kod kreskowy. Znak wodny jest generowany przy użyciu algorytmu generowania znaku wodnego. Zasadniczo pomysł polega na pobraniu szczegółów własności i wygenerowaniu znaku wodnego, który może potwierdzić informacje o własności (np. imię i nazwisko właściciela można przekonwertować na ciąg binarny i użyć jako znaku wodnego). Alternatywnie zdjęcie właściciela może być użyte jako znak wodny. Rozmiar znaku wodnego zależy od rozmiaru nośnika (np. obrazu, dźwięku lub wideo). Jak omówiono wcześniej, podczas znakowania wodnego należy osiągnąć niedostrzegalność, pojemność i wytrzymałość. Stąd, jeśli rozmiar znaku wodnego jest zbyt duży w porównaniu z nośnikiem-gospodarzem, właściwość niedostrzegalności może nie być spełniona.

Osadzanie znaku wodnego

Osadzanie znaku wodnego w nośniku hosta jest drugim etapem umieszczania znaku wodnego i wykorzystuje algorytm osadzania, który identyfikuje miejsce, w którym ma zostać wstawiony znak wodny. Znak wodny może być widocznym znakiem wodnym lub niewidocznym znakiem wodnym. Lokalizacja jest określana przez (a) tajny klucz, (b) typ nośnika hosta oraz (c) rodzaj znaku wodnego (widoczny vs. niewidoczny). Na przykład podczas osadzania znaku wodnego w obrazie widoczny znak wodny można osadzić, modyfikując (lub zastępując) najbardziej znaczące fragmenty obrazu. Z drugiej strony, niewidoczny znak wodny można osadzić, modyfikując (lub zastępując) najmniej znaczące bity obrazu lub zmieniając dyskretną transformatę kosinusową lub dyskretną transformatę falkową.

Ekstrakcja i wykrywanie znaku wodnego

Wyodrębnianie i wykrywanie obecności znaku wodnego z nośnika ze znakiem wodnym jest ostatnim krokiem w tworzeniu znaku wodnego. Wykorzystuje algorytm ekstrakcji i wykrywania, który weryfikuje obecność znaku wodnego w nośniku hosta. Lokalizacja osadzania jest określana przez tajny klucz, a informacje binarne przechowywane w tych lokalizacjach są wyodrębniane i łączone we właściwym formacie w celu utworzenia znaku wodnego. Ten wyodrębniony znak wodny jest subiektywnie lub obiektywnie badany w celu oceny, czy nośnik jest opatrzony znakiem wodnym, czy nie. Jeśli ciąg binarny (lub obraz lub kod kreskowy) jest osadzony jako znak wodny, wyodrębniony ciąg binarny (lub obraz lub kod kreskowy) jest porównywany z oryginałem, aby udowodnić obecność znaku wodnego.

Ataki

Nośniki ze znakiem wodnym mogą zostać poddane celowym atakom mającym na celu usunięcie znaku wodnego. Dlatego algorytm znaku wodnego musi być odporny na takie ataki. W tym przypadku algorytm osadzania odgrywa kluczową rolę w zapewnieniu odporności na celowe ataki poprzez identyfikację miejsc osadzania, które atakującemu mogą być trudne do znalezienia i zaatakowania.

Właściwości cyfrowego znaku wodnego

Cyfrowe techniki znakowania wodnego charakteryzują się pięcioma podstawowymi właściwościami: (1) niedostrzegalnością, (2) zdolnością osadzania, (3) wytrzymałością, (4) wykrywaniem na ślepo i (5) skutecznością osadzania.

Niezauważalność

Jest to miara oceny widocznej jakości nośnika ze znakiem wodnym (np. obrazu ze znakiem wodnym). Celem niedostrzegalnego znaku wodnego jest zapewnienie, że osadzony znak wodny pozostanie niewidoczny i nie wprowadza żadnych widocznych artefaktów. Często włączane są modele ludzkiego układu wzrokowego do oceny jakości nośników ze znakiem wodnym.

Pojemność

Ta właściwość mierzy maksymalny rozmiar znaku wodnego, który można osadzić na nośniku cyfrowym (np. obrazie lub wideo), tak aby nie wprowadzał żadnych anomalii wizualnych między oryginałem i nośnikiem ze znakiem wodnym. Jest mierzony w kilobajtach lub megabajtach.

Odporność

Odporność mierzy siłę lub słabość techniki cyfrowego znaku wodnego w stosunku do celowych ataków mających na celu zniszczenie osadzonego znaku wodnego. Jeśli technika znaku wodnego jest wyjątkowo mocna i odporna na wszystkie ataki, spełnia kryteria solidnego znaku wodnego i odcisków palców. Jeśli jednak technika jest bardzo słaba (tj. nie jest odporna na celowe ataki), spełnia kryteria delikatnego znaku wodnego. Solidność w kontekście solidnego znaku wodnego mierzy, jaki procent znaku wodnego jest odzyskiwany po ataku w celu udowodnienia własności.

Wykrywanie w ciemno

Detektory znaku wodnego mogą być wykrywaczami ślepymi lub wykrywaczami poinformowanymi. Ślepe detektory nie wymagają oryginalnego nośnika do wykrywania obecności znaku wodnego. Dla porównania, poinformowane detektory wymagają oryginalnych nośników. Wykrywanie na ślepo jest preferowaną metodą, ponieważ jest mniej zależne od dostępności oryginalnych nośników.

Skuteczność osadzania

Ta właściwość odnosi się do prawdopodobieństwa wykrycia znaku wodnego natychmiast po osadzeniu znaku wodnego (tj. zanim nośnik ze znakiem wodnym zostanie poddany jakimkolwiek atakom lub zmianom).

Zastosowania ochrony praw autorskich do cyfrowych znaków wodnych

Solidne znaki wodne mogą być wykorzystywane przez studia filmowe w walce z piractwem medialnym poprzez osadzenie solidnego znaku wodnego we wszystkich sprzedawanych przez nich utworach muzycznych lub filmach. Obecność znaku wodnego może służyć do identyfikacji oryginalnego twórcy mediów i zapobiegania ich nieautoryzowanej redystrybucji.

Weryfikacja własności

W celu weryfikacji własności unikalny kod identyfikacyjny jest potajemnie ukryty jako znak wodny na każdym nośniku cyfrowym. Ten unikalny identyfikator jest analogiczny do ludzkiego odcisku palca, który jest unikalny dla konkretnej osoby i może służyć do identyfikacji właściciela nośnika cyfrowego. Ten rodzaj znaku wodnego jest określany jako odcisk palca.

Śledzenie zdrajcy
Po dodaniu cyfrowego odcisku palca do nośnika przechowywane są informacje o osobie, która zapłaciła opłatę licencyjną za korzystanie z nośnika. Gdy ta osoba udostępnia materiał chroniony prawem autorskim, skutkuje to naruszeniem praw autorskich. Właściciel materiału chronionego prawem autorskim może użyć technik cyfrowych odcisków palców w celu zidentyfikowania zdrajcy.

Wykrywanie sabotażu

Delikatna technika znakowania wodnego jest używana do wykrywania manipulacji i uwierzytelniania treści. Modyfikowanie treści cyfrowych bez pozostawiania śladów percepcyjnych stało się bardzo łatwe (np. istotne dowody z miejsca zbrodni można usunąć ze zdjęcia cyfrowego za pomocą oprogramowania do edycji obrazu). Taka ingerencja jest poważnym problemem, dlatego w celu uwierzytelnienia treści wstawiany jest delikatny znak wodny. Jak sama nazwa wskazuje, delikatny znak wodny można łatwo utracić, gdy nośnik cyfrowy zostanie nieznacznie zmodyfikowany lub naruszony. Brak delikatnego znaku wodnego świadczy o tym, że nośnik został naruszony.

Dalsze rozważania

Techniki cyfrowego znaku wodnego (w tym odciski palców i delikatny znak wodny) są stosowane do wielu różnych mediów, takich jak obrazy, audio, wideo, połączenia VoIP i relacyjne bazy danych. Podstawowy cel i zastosowania pozostają takie same (tj. ochrona praw autorskich, weryfikacja własności, śledzenie zdrajców i wykrywanie manipulacji); zmienia się tylko rodzaj nośnika. Podobnie, podstawowy proces również pozostaje taki sam (tj. generuje znak wodny, identyfikuje miejsce osadzania znaku wodnego i wreszcie wykrywa znak wodny). Miejsce osadzania, pojemność osadzania i funkcje solidności różnią się w zależności od typu nośnika. Stale rozwijane są nowe i innowacyjne podejścia, które mają na celu dobre działanie na wszystkich pięciu właściwościach znaku wodnego, aby zapewnić niezawodne bezpieczeństwo w cyfrowym świecie.



Powrót

Cenzura internetowa



Represyjne rządy często kontrolują dostęp do Internetu, aby uniemożliwić jednostkom obchodzenie kontroli nad mediami, kultywować atmosferę strachu oraz zapobiegać lub minimalizować sprzeciw. Cenzura Internetu polega na ograniczaniu dostępu i sprawowaniu kontroli nad jego funkcjonalnością i zawartością. Cenzura rządowa, począwszy od stosunkowo łagodnych kroków, takich jak środki antypornograficzne, po bardziej drakońskie działania, w tym aresztowania i egzekucje cyberdysydentów, stała się nieuniknionym wymiarem cyberprzestrzeni. Ten wpis omawia cenzurę Internetu w trzech etapach. Po pierwsze, zawiera przegląd motywacji do cenzurowania oraz rodzajów i narzędzi stosowanej cenzury. Po drugie, zwracamy uwagę na to, jak można wyjaśnić przestrzenne zróżnicowanie cenzury. Na koniec zwraca się do serii przykładów cenzury regionalnej, aby podkreślić, jak cenzura różni się na całym świecie.

Motywacje i rodzaje cenzury Internetu

Istnieje wiele motywacji dla cenzury Internetu, a zatem istnieje kilka form i rodzajów cenzury Internetu, w tym (a) polityczne represje wobec dysydentów, obrońców praw człowieka lub komentarze obrażające państwo (np. w Chinach, Iranie, Myanmarze); (b) kontrole religijne mające na celu powstrzymanie rozpowszechniania idei uznanych za heretyckie lub świętokradzkie (jak to ma miejsce w wielu państwach z przewagą muzułmanów); (c) ochrona własności intelektualnej, w tym ograniczenia dotyczące nielegalnie pobieranych filmów i muzyki; oraz (d) ograniczenia kulturowe, które istnieją w ramach ucisku mniejszości etnicznych (np. odmowa zezwolenia na rządowe strony internetowe w niektórych językach) lub mniejszości seksualnych (np. gejów i lesbijek). Rządy często cenzurują informacje znalezione w Internecie lub ograniczają dostęp do Internetu w imię ochrony moralności publicznej przed pozornymi grzechami, takimi jak pornografia lub hazard, chociaż ostatnio walka z terroryzmem stała się ulubionym uzasadnieniem. Często przywołuje się celowo niejasne pojęcia bezpieczeństwa narodowego i stabilności społecznej. Cenzura rządowa różni się pod względem zakresu (lub zakresu tematów) i głębokości (lub stopnia interwencji). Interwencje mające na celu ograniczenie dostępu lub kształtowanie zawartości cyberprzestrzeni często odzwierciedlają wysoce scentralizowane struktury władzy, zwłaszcza autorytarne państwa jednopartyjne, które obawiają się erozji legitymacji. Państwa różnią się pod względem tzw. stopień centralności w zarządzaniu cenzurą Internetu. W cenzurze rządowej może działać wiele powodów i motywacji, gdy jest ona przeprowadzana przez wiele organów rządowych, które realizują różne strategie cenzury. Często cenzura generuje niezamierzone konsekwencje, takie jak zmniejszona innowacyjność, negatywny rozgłos, który może prowadzić do statusu pariasa, ograniczenia turystyki lub obrażania korporacji. Do kontrolowania przepływu informacji cyfrowych stosuje się wiele różnych metod, w tym wymaganie dyskryminujących licencji dostawców usług internetowych (ISP), dyskryminujące lub zaporowe polityki cenowe, filtrowanie treści na podstawie słów kluczowych i przekierowywanie użytkowników do serwerów proxy. Inne formy cenzury obejmują manipulację sprzętem i oprogramowaniem, włamywanie się na strony internetowe opozycji i rozprzestrzenianie wirusów, ataki typu "odmowa usługi", które przeciążają serwery lub połączenia sieciowe przy użyciu "pasarzy botów" oraz tymczasowe just-in-time blokowanie w momentach, gdy informacje polityczne są krytyczne, na przykład tuż przed wyborami. Filtrowanie treści często opiera się na algorytmach dopasowywania słów kluczowych, które mogą występować na poziomie dostawcy usług internetowych, nazwy domeny, określonego adresu protokołu internetowego (IP) lub określonego adresu URL. Użytkownicy często nie są świadomi tej formy cenzury, ponieważ może być trudna do wykrycia. Dostawcy usług internetowych nie zawsze mają możliwość zablokowania transmisji do indywidualnego adresu IP lub adresu URL, dlatego wiele rządów zakupiło w tym celu komercyjne oprogramowanie do filtrowania treści. Mechanizmy filtrowania są niedokładne i czasami blokują dostęp do stron, które nie miały być cenzurowane lub zezwalają na dostęp do stron, które miały być zabronione. Jednym z najskuteczniejszych sposobów cenzury jest ustanowienie przez państwo poczucia swojej władzy, które zachęca do autocenzury, ponieważ większość przypadkowych użytkowników Internetu zna granice politycznie akceptowalnego wykorzystania w swoich państwach.

Regionalne geografie cenzury Internetu

Różnice w cenzurze Internetu na całym świecie odzwierciedlają (a) różnorodność światowych systemów politycznych; (b) zakres penetracji Internetu; (c) społeczne, kulturowe i ekonomiczne konstytucje różnych społeczeństw; oraz (d) stopień opozycji politycznej. Taka złożoność oznacza, że wzorce cenzury internetowej nie dają się łatwo scharakteryzować, ale wymagają bardziej szczegółowej analizy każdego przypadku. Stopień centralizacji kontroli politycznej, postawy kulturowe wobec sprzeciwu i problemy geopolityczne wpływają na decyzje rządów dotyczące tego, czy i jak regulować dostęp do Internetu. Aby docenić złożoność i różnorodność cenzury internetowej, niezbędny jest zatem regionalny zestaw analiz. Na przykład kraje, które chcą promować rozwój sektora technologii informatycznych lub międzynarodowy eksport usług, takich jak turystyka, często obawiają się, że cenzura Internetu może zmniejszyć dochody z takich wysiłków.

Chiny

Komunistyczna Partia Chin od dawna sprawuje ścisłą, scentralizowaną kontrolę nad przepływem informacji w granicach kraju i przez nie, głównie za pośrednictwem swojego Ministerstwa Przemysłu Informacyjnego, chociaż nadzór nad Internetem jest prowadzony głównie przez Ministerstwo Bezpieczeństwa Państwowego. Państwo zachęca do korzystania z Internetu, ale tylko w kontrolowanym przez siebie środowisku, a cyberprzestrzeń w Chinach pozostaje stosunkowo wolna w porównaniu z tradycyjnymi mediami. We wczesnych fazach rozwoju Internetu państwo robiło niewiele, by regulować cyberprzestrzeń, ale gdy czaty i blogi przesunęły granice dopuszczalnego sprzeciwu poprzez krytykę urzędników państwowych, rząd zaczął znacznie zacieśniać kontrolę po 2000 r. Wraz z gwałtownym wzrostem liczby chińskich obywateli korzystających z Internetu, Internet w coraz większym stopniu stawał się narzędziem wyzwań dla państwa władzy, co z kolei doprowadziło do coraz ostrzejszych represji. Chiński rząd stwierdził, że cenzura jest potrzebna do utrzymania "harmonijnego społeczeństwa". Aby zachować kontrolę nad Internetem, rząd zatrudnia obserwatorów i wolontariuszy obywatelskich, sprawdza blogi i wiadomości e-mail pod kątem potencjalnych zagrożeń dla ustalonego porządku politycznego oraz kontroluje dostęp do międzynarodowych połączeń internetowych przez wybraną grupę kontrolowanych przez państwo sieci szkieletowych w systemie nieformalnie znany jako Wielki Firewall. Przepisy, które weszły w życie w 2008 r. wymagały, aby strony internetowe oferujące treści audio i wideo były własnością państwa, chociaż rząd zapowiedział, że nie nałoży tego wymogu na już działające firmy prywatne. W różnych okresach rząd ograniczał dostęp do platform mediów społecznościowych i usług internetowych, takich jak Facebook, Twitter i Yahoo. Nisko opłacani pracownicy monitorują blogi i czaty oraz publikują komentarze zgodne z rządową propagandą. Firmy internetowe same monitorują czaty, blogi, usługi sieciowe, wyszukiwarki i witryny wideo w poszukiwaniu materiałów wrażliwych politycznie, aby dostosować się do ograniczeń rządowych. Witryny takie jak anonymizer.com i proxify.com, które pomagają użytkownikom obejść cenzurę, są zabronione. Niektóre strony internetowe i tablice ogłoszeń w Chinach zawierają wizerunki policjantów z kreskówek o imionach Jingjing i Chacha, którzy przypominają internautom, aby uważali na to, co przeglądają i piszą w Internecie. Blogi, które krytykują rząd, są często usuwane, a usługi wiadomości błyskawicznych i SMS-ów w telefonach komórkowych są mocno filtrowane. W czerwcu 2009 r. rząd starał się wymagać instalacji oprogramowania filtrującego znanego jako Green Dam Youth Escort na wszystkich nowych komputerach, ale wycofał się po tym, jak internauci i korporacje wypowiedziały się przeciwko niemu oraz po pierwszym uruchomieniu, podczas którego oprogramowanie zacinało się i powodowało awarie komputerów . Czasami cenzura rządowa może powodować problemy z inwestorami zagranicznymi. W przypadku Chin Google, największy na świecie pojedynczy dostawca bezpłatnych usług internetowych, założył oddzielną stronę internetową, Google.cn, która została ocenzurowana, aby dostosować się do ograniczeń wymaganych przez państwo chińskie. Na początku 2010 roku, w odpowiedzi na międzynarodową krytykę, Google zakończył tę praktykę i ogłosił, że w razie potrzeby wycofa się z Chin; od tego czasu zakończył niektóre swoje usługi w Chinach. Jako alternatywę chiński rząd promuje swoje rodzime wyszukiwarki, takie jak Baidu i Sina.com. Wreszcie państwo chińskie aresztowało i zatrzymało kilku użytkowników Internetu, którzy zapuszczali się w politycznie drażliwe obszary. Chociaż państwo nie może monitorować wszystkich stron internetowych w kraju, stosuje strategię zastraszania popularnie znaną jako "zabijanie kurczaków, aby przestraszyć małpy". Takie środki pomogły ograniczyć korzystanie z sieci przez obrońców demokracji i praw człowieka, separatystów tybetańskich i grupy religijne, takie jak Falun Gong. Jednak uzyskując dostęp do zagranicznych serwerów proxy, niektórzy chińscy internauci angażują się w fanqiang, czyli "wspinanie się po ścianie" (Stone i Barboza, 2010). Korzystając ze swoich programistów w Stanach Zjednoczonych, Falun Gong opracowało oprogramowanie do obchodzenia cenzury o nazwie Freegate, które zaoferowało dysydentom w innych miejscach, szczególnie w Iranie.

Azja Południowo-Wschodnia

Zróżnicowany zestaw społeczeństw, które generalnie doświadczyły szybkiego wzrostu gospodarczego, Azja Południowo-Wschodnia wykazuje również wiele form cenzury Internetu. Wiele rządów w regionie usprawiedliwia taką interwencję tym, że podzielają "azjatyckie wartości" pozornie sprzeczne z zachodnimi koncepcjami demokratycznego dostępu. W Wietnamie cenzura obejmuje złożony system zapór ogniowych, kontroli dostępu, przeszukiwania poczty elektronicznej i usilnie zachęcanej autocenzury. Wietnam uwięził tych, którzy wypowiadali się przeciwko rządowi w Internecie, takich jak Pham Hong Son, lekarz, który opublikował w Internecie artykuł wzywający do demokracji. Pomimo wysiłków reformatorskich znanych jako doi moi, Komunistyczna Partia Wietnamu ściśle kontroluje ruch internetowy, w szczególności strony internetowe uważane za "obraźliwe dla kultury wietnamskiej" (Kalathil i Boas, 2003, s. 84). Po przewrocie wojskowym w 2006 roku w Tajlandii nastąpił dramatyczny wzrost liczby zablokowanych stron internetowych, a kolejne rządy nadal wprowadzały ograniczenia w Internecie. Rząd Tajlandii tymczasowo zablokował YouTube w 2007 roku po tym, jak użytkownik opublikował 44-sekundowy film wyśmiewający króla Tajlandii Bhumibola Adulyadeja. Pragnąc pobudzić rozwój sektora technologii informatycznych w swoim kraju, malezyjski premier Mahathir Mohamad publicznie oświadczył w 1996 r., że nie będzie cenzury Internetu, częściowo po to, by dać swojemu krajowi przewagę nad sąsiednim rywalem Singapurem. Jednak w 2002 roku rząd Malezji zasygnalizował, że będzie wymagał od operatorów witryn uzyskania licencji w celu monitorowania treści. Witryna informacyjna z siedzibą w Wielkiej Brytanii została zablokowana w 2015 r., kiedy donosiła o zarzutach korupcyjnych dotyczących premiera Najiba Razaka. Jednak krajowy Multimedialny Super Korytarz, zaprojektowany w celu przyciągnięcia zagranicznych inwestorów, pozostaje strefą wolną od cenzury, co pokazuje, że geografia cenzury różni się nie tylko w poszczególnych krajach, ale także w ich obrębie. Singapur, jeden z najbardziej połączonych i najbardziej dynamicznych technologicznie krajów na świecie, również regularnie cenzuruje Internet. Rządowy Urząd ds. Rozwoju Mediów Infocomm automatycznie udziela licencji wszystkim dostawcom usług internetowych, którzy muszą przestrzegać internetowego kodeksu postępowania z 1996 r. Kodeks szczegółowo określa zakaz treści uznanych za nieodpowiednie ze względu na interes publiczny, moralność publiczną, porządek publiczny, bezpieczeństwo publiczne lub harmonię narodową. Autocenzura i surowe przepisy dotyczące zniesławienia również działały w celu ograniczenia wypowiedzi politycznej. Mjanma miała jeden z najbardziej restrykcyjnych reżimów kontroli Internetu na świecie, dopóki rządy junty wojskowej nie dobiegły końca w 2011 roku; od tego czasu ograniczenia zostały złagodzone, ale rząd nadal więzi osoby pod zarzutem zniesławienia w Internecie.

Południowa Azja

Indie, pomimo ogólnie demokratycznej praktyki rządzenia, zaangażowały się również w umiarkowaną cenzurę Internetu. W 2000 r. indyjski parlament zatwierdził ustawę o technologii informacyjnej, która ma zwalczać cyberprzestępczość i zezwala na przeszukiwanie kawiarenek internetowych i domów użytkowników Internetu bez nakazu w ramach dochodzeń karnych. Pozwoliło to również rządowi blokować dostęp do stron uważanych za pornograficzne lub "zagrażających porządkowi publicznemu, integralności i bezpieczeństwu narodu oraz stosunkom z innymi krajami" (Reporterzy bez Granic, 2004). W 2002 r. parlament Indii uchwalił ustawę o zapobieganiu terroryzmowi, która upoważniła rząd do monitorowania komunikacji elektronicznej, w tym osobistej poczty elektronicznej. W latach 2012-2017 rząd Indii coraz częściej zamykał usługi internetowe, twierdząc, że były one konieczne, aby zapobiec przemocy w reakcji na plotki rozpowszechniane w mediach społecznościowych lub aplikacjach do przesyłania wiadomości mobilnych. Pakistański Urząd ds. Telekomunikacji rutynowo filtruje treści internetowe uważane za niereligijne , antymilitarnych lub secesjonistycznych. Cały ruch międzynarodowy do iz kraju jest kierowany przez trzy witryny należące do Pakistan Internet Exchange, z lokalizacjami w (1) Islamabadzie, (2) Lahore i (3) Karaczi. Pakistan zablokował dostęp do stron internetowych, które publikowały duńskie karykatury wyśmiewające Proroka Mahometa, a wiele innych stron internetowych zostało w tym kraju zablokowanych za "bluźniercze" treści. Pakistan zablokował również strony nacjonalistyczne i poświęcone prawom człowieka w Baluchi. Pakistańscy blogerzy odpowiedzieli kampanią "Nie blokuj bloga", która między innymi ujawniła liczne naruszenia praw obywatelskich przez wojsko. Rosja, Ukraina, Białoruś i Azja Środkowa Rosja i sąsiednie państwa ograniczają dostęp do Internetu i próbują zarządzać jego zawartością. Szereg ustaw podpisanych przez prezydenta Rosji Władimira Putina od 2012 roku stworzyło nowe ograniczenia w Internecie, w tym zezwolenie rządowi na usuwanie stron internetowych bez nakazu sądowego i zakaz korzystania z witryn internetowych proxy, które umożliwiają dostęp do stron internetowych zakazanych w Rosji. Administracja Putina kupiła także niegdyś niezależne strony internetowe, promowała strony prorządowe i stworzyła sieć przyjaznych rządowi blogerów. Rosyjski system działań operacyjno-śledczych umożliwia służbom bezpieczeństwa państwa nieskrępowany fizyczny dostęp do dostawców usług internetowych i wymaga od nich raportowania statystyk dotyczących użytkowników, a system ten był w mniejszym lub większym stopniu naśladowany przez inne kraje w regionie. Ukraiński parlament w 2003 roku uchwalił ustawę o ochronie moralności publicznej, która reguluje państwowe regulacje dotyczące informacji uznanych za szkodliwe dla moralności publicznej. W 2017 roku rząd zablokował dwa popularne rosyjskie serwisy społecznościowe, argumentując, że jest to konieczne ze względu na bezpieczeństwo narodowe. Na Białorusi ustawa z 2012 r. sformalizowała ograniczenia w Internecie wprowadzone przez prezydenta Aleksandra Łukaszenkę, zobowiązując dostawców usług internetowych do zgłaszania władzom użytkowników Internetu, jeśli odwiedzają opozycyjne strony internetowe umieszczone na czarnej liście rządu. Wszyscy białoruscy dostawcy usług internetowych muszą łączyć się za pośrednictwem Belpak, spółki zależnej kontrolowanego przez państwo dostawcy usług internetowych Beltelecom. Podczas wyborów prezydenckich w 2006 r. cyberataki na strony rządowej opozycji często powodowały ich awarie. W Azerbejdżanie Internet jest stosunkowo wolny od rządowych filtrów, mimo że jego dostarczanie jest wysoce scentralizowane za pośrednictwem dwóch państwowych dostawców usług internetowych. Mimo to dwóch azerskich blogerów zostało aresztowanych w 2009 roku po opublikowaniu filmu wyśmiewającego rządowy zakup drogich osłów, chociaż władze twierdziły, że aresztowanie miało związek z niepowiązanym incydentem. Azja Środkowa wykazuje wyraźną tendencję do silnej cenzury Internetu. W Kirgistanie opozycyjne strony internetowe były blokowane w okresie poprzedzającym wybory parlamentarne w 2005 roku. W Uzbekistanie rząd często zamyka strony internetowe największych partii opozycyjnych, aw 2007 roku skazał na 2 lata więzienia dziennikarza Kazisa Toguzbajewa za obrazę prezydenta Nursułtana Nazarbajewa w internetowych artykułach krytykujących rząd. Dyktator Turkmenistanu, Saparmurat Nijazow, dążył do hermetycznego odcięcia tego kraju od świata zewnętrznego za pośrednictwem narodowego intranetu. Jego następca, Gurbanguly Berdymukhammedov, umożliwił dostęp do globalnego Internetu ale przy ścisłej kontroli żołnierzy rządowych można było spotkać przy drzwiach kawiarenek internetowych, kiedy zostały otwarte w 2007 r., a wiele stron internetowych jest zablokowanych. Kawiarenki internetowe, w których klienci próbują uzyskać dostęp do zakazanych stron internetowych, są rutynowo zamykane.

Afryka Północna i Bliski Wschód

W świecie arabskim, który obejmuje dużą część Afryki Północnej i Bliskiego Wschodu, większość rządów cenzuruje strony internetowe uważane za naruszające zasady islamu oraz strony zawierające informacje polityczne, które mogą stanowić wyzwanie dla istniejących reżimów. Cenzura może również generować zyski dla rządu, w tym ograniczać potencjalny dostęp klientów do rywali państwowych firm telekomunikacyjnych. Niemniej jednak, pomimo tych ograniczeń, Internet otworzył niezliczone przestrzenie arabskiej debaty politycznej, która wykracza poza granice państwowe. Cenzura w świecie arabskim jest najbardziej dotkliwa w Arabii Saudyjskiej, która nie zezwalała na publiczny dostęp do Internetu aż do 1999 roku. Cała internetowa sieć szkieletowa jest własnością państwa, a państwo wzniosło rozległe zapory kontrolujące przepływ informacji cyfrowych. Kafejki internetowe są zobowiązane do rejestrowania nazwisk klientów oraz godzin ich przybycia i wyjścia, a informacje te muszą być przekazywane na żądanie organom bezpieczeństwa państwa; osoby młodsze niż 18 lat są zabronione, chyba że towarzyszy im osoba dorosła. Miasto Nauki i Technologii im. Króla Abdulaziza, będące własnością rządu centrum badawcze, jest jedynym portalem, za pośrednictwem którego dostawcy usług internetowych mogą nawiązywać połączenia międzynarodowe. Strony internetowe są filtrowane, a próby dostępu do zabronionych stron są rejestrowane przez państwo, co zachęca do powszechnej autocenzury. Wiele krajów arabskich stosuje podobne praktyki. W 2006 roku Bahrajn zablokował dostęp do Google Earth, powołując się na względy bezpieczeństwa narodowego. W Syrii rząd zablokował dostęp do zagranicznych serwisów informacyjnych w języku kurdyjskim oraz do stron kończących się na izraelskiej domenie najwyższego poziomu ".il". W Tunezji Internet był ściśle kontrolowany przed rewolucją tunezyjską w 2011 roku; od tego czasu ograniczenia znacznie się złagodziły, chociaż wkrótce po rewolucji rząd ocenzurował kilka krytycznych wobec wojska stron na Facebooku. Zjednoczone Emiraty Arabskie mają relatywnie wysoki wskaźnik penetracji Internetu i rząd chętny do dywersyfikacji gospodarki, ale nakładają też surowe ograniczenia na Internet. Treści internetowe w kawiarenkach internetowych są filtrowane w celu zablokowania witryn znajdujących się na czarnej liście państwowej, chociaż dzierżawione łącza w firmach i domach są zwolnione. Rząd Jemenu nakazał wszystkim kawiarenkom internetowym usunięcie barier między komputerami, aby zapewnić użytkownikom brak prywatności w Internecie, co doprowadziło do spadku liczby takich placówek. Niemal wszystkie działania Jemenu, realizowane poprzez produkt o nazwie Websense, są skierowane przeciwko pornografii, chociaż blokowane są również niektóre strony antyislamskie. Niektóre kraje arabskie, w tym Jordania i Liban, są stosunkowo łagodne w kwestii regulacji Internetu. Maroko jest często zaliczane do tej kategorii, chociaż blokuje dostęp do stron promujących niepodległość Sahary Zachodniej. Egipt słynął kiedyś ze względnego braku jawnej cenzury, ale podczas rewolucji styczniowej 2011 r., przed obaleniem prezydenta Hosniego Ubaraka, Mubarak odciął prawie cały dostęp do Internetu. Niedawno naukowcy z Uniwersytetu Harvarda odkryli, że rząd Abdela Fattaha al-Sisiego, urzędującego prezydenta Egiptu, znacznie zwiększył cenzurę internetowych treści politycznych w okresie od grudnia 2015 r. do września 2017 r. Cenzura Internetu w regionie wykracza poza kraje arabskojęzyczne. Iran sprawuje ścisłą kontrolę nad cyberprzestrzenią poprzez państwowego monopolistę telekomunikacyjnego, Telecommunication Company of Iran, zarządzanego przez Ministerstwo Technologii Informacyjnych i Komunikacyjnych, do którego podłączeni są wszyscy irańscy dostawcy usług internetowych. Restrykcje rządu irańskiego w Internecie rosły, gdy cyberprzestrzeń stała się bardziej widoczną domeną politycznego sprzeciwu. W 2008 roku rząd powiedział, że zablokował dostęp do 5 milionów stron internetowych. Istnieje około 20 oficjalnych kategorii zabronionych stron internetowych, w tym te, które obrażają islam i te, które promują niezgodę narodową, pornografię lub niemoralne zachowanie. W 2006 roku wszystkie strony internetowe i blogi musiały uzyskać licencje Ministerstwa Kultury i Przewodnictwa Islamskiego lub groziło im uznanie ich za nielegalne. Rząd irański wykorzystał europejską i krajową technologię szpiegowską do inwigilacji dysydentów za pomocą technik, w tym głębokiej inspekcji pakietów, która pozwala władzom blokować pocztę elektroniczną i telefonię internetową oraz identyfikować nazwiska użytkowników. Dziesiątki blogerów zostało uwięzionych w 2009 r., kiedy sporne wyniki wyborów doprowadziły do masowych protestów antyrządowych, ale rząd nie był w stanie powstrzymać rozpowszechniania w internecie amatorskich filmów przedstawiających ataki na demonstrantów. W 2016 r. rząd zakończył pierwszą fazę tego, co obiecuje, że będzie tanim i szybkim Internetem krajowym; krytycy twierdzą, że projekt ma na celu dalszą kontrolę tego, co obywatele widzą w Internecie. Trwający konflikt Izraela z Palestyńczykami przybrał również formę cenzury Internetu. Przed porozumieniem z Oslo z 1995 r. izraelski rozkaz wojskowy nr 1279 zabraniał Palestyńczykom wykorzystywania transmisji elektronicznych do celów politycznych. W odpowiedzi Palestyńczycy na Zachodnim Brzegu użyli nadajników mikrofalowych do stworzenia sieci bezprzewodowej o nazwie PalNet, która była sporadycznie zakłócana przez armię izraelską. W 2000 roku izraelski rząd próbował zamknąć kilka stron internetowych Hezbollahu, co skłoniło hakerów Pale stinian do zemsty na stronie izraelskiego Ministerstwa Spraw Zagranicznych, zalewając ją spamem. Turcja na krótko zablokowała dostęp do YouTube w 2007 roku z powodu filmów obrażających założyciela nowoczesnego państwa tureckiego, Mustafę Kemala Atatürka. W tym samym roku, po tym, jak turecki parlament uchwalił ustawę regulującą dostęp do Internetu w mniej niż 1 godzinę debaty, liczba zablokowanych stron internetowych w kraju natychmiast wzrosła z 0 do 2600. Od 2016 roku w Turcji zablokowano podobno ponad 100 000 stron internetowych.

Afryki Subsaharyjskiej

Wiele krajów w Afryce Subsaharyjskiej ma niski poziom penetracji Internetu, a rządy zachowały państwowe monopole na usługi informacyjne. Poziomy cenzury różnią się znacznie w regionie, przy czym rząd w Sudanie sprawuje ścisłą kontrolę nad Internetem, podczas gdy RPA ma znikomą ingerencję rządu w cyberprzestrzeń. Większość państw afrykańskich mieści się pomiędzy tymi dwoma skrajnościami. W Kenii rząd wykorzystał kilka strategii cenzury, takie jak ograniczanie przepustowości oferowanej dostawcom usług internetowych za pośrednictwem państwowej sieci szkieletowej Internetu i wymaganie od dostawców usług internetowych udostępniania ich list abonentów. Rząd Zimbabwe wydał liczne ustawy ograniczające wolność wypowiedzi w mediach, w tym Ustawę o usługach nadawczych, Ustawę o komercjalizacji Zimbabwe Broadcasting Corporation oraz Ustawę o porządku publicznym i bezpieczeństwie. Jego centrum monitorowania i przechwytywania komunikacji może zmusić dostawców usług internetowych do zainstalowania oprogramowania do przechwytywania informacji, jeśli stan uzna to za konieczne. Rząd blokuje również niektóre strony internetowe za pomocą przepisów, takich jak ustawa o porządku publicznym i bezpieczeństwie.

Ameryka Łacińska

Rządy w Ameryce Łacińskiej zazwyczaj nie ograniczają dostępu do Internetu w takim stopniu, jak w niektórych częściach świata. Nawet kraje z historią łamania praw człowieka, takie jak Argentyna i Brazylia, mają ogólnie otwarte podejście do Internetu, chociaż brazylijskie sądy nakazały dostawcom usług internetowych blokowanie dostępu do blogów i filmów uznanych za "zniesławiające" państwo. Peru stworzyło sieć publicznych terminali internetowych w społecznościach wiejskich o niskich dochodach, aw 2002 r. rząd peruwiański przyjął ustawę o przejrzystości oraz dostęp do informacji publicznej. Najbardziej restrykcyjna polityka w regionie ma miejsce na Kubie, gdzie rząd kontroluje jedyną bramę internetową i czterech krajowych dostawców usług internetowych. Osoby fizyczne muszą uzyskać sponsoring od agencji rządowych, zanim będą mogły korzystać z usług komercyjnych dostawców usług internetowych. Do 2006 r. wszystkie konta internetowe musiały być rejestrowane przez Krajowe Centrum Automatycznej Wymiany Danych. Złagodzenie tego ograniczenia i wprowadzenie publicznych hotspotów Wi-Fi w 2015 roku pomogło większej liczbie Kubańczyków w uzyskaniu dostępu do Internetu, ale koszt nadal jest dla większości poza zasięgiem.

Europa

Kraje europejskie są na ogół stosunkowo otwarte pod względem dostępu do Internetu, a tam, gdzie istnieje cenzura, zwykle dotyczy ona takich kwestii, jak pornografia lub własność intelektualna, a nie jawnych prób stłumienia sprzeciwu politycznego. Obrońcy prywatności i niektórzy dostawcy usług internetowych często stanowczo sprzeciwiają się działaniom mającym na celu ograniczenie dostępu. Poza dużymi, zmobilizowanymi elektoratami opowiadającymi się za swobodami w Internecie, integracja gospodarcza ograniczyła pole manewru państw europejskich w tej kwestii: na przykład w 2008 roku Parlament Europejski zatwierdził propozycję, zgodnie z którą cenzura internetowa jest traktowana jako bariera dla wolnego handlu. Środek był wymierzony w stosunki handlowe Unii Europejskiej z krajami takimi jak Chiny, ale ogranicza też wewnętrzną cenzurę. Pomimo tych przeszkód niektóre kraje europejskie stosują w różnym stopniu cenzurę Internetu. Europa Północna jest szczególnie łagodna pod względem stopnia cenzury, z zasadniczo zerową ingerencją w Skandynawię. Jednak fiński sąd ocenzurował stronę internetową, która skrytykowała niedociągnięcia w wysiłkach rządu zmierzających do ograniczenia dostępu do pornografii dziecięcej, twierdząc, że cenzura była uzasadniona, ponieważ witryna zawierała nazwy domen zablokowanych stron z pornografią dziecięcą. W Wielkiej Brytanii Internet Watch Foundation tworzy czarną listę stron internetowych z potencjalnie nielegalnymi "nieprzyzwoitymi" obrazami dzieci; Dostawcy usług internetowych, wyszukiwarki i firmy filtrujące używają tej listy do blokowania stron internetowych. Począwszy od połowy lat 90. rząd niemiecki próbował zamknąć zagraniczne strony promujące nienawiść rasową; nowsze wysiłki koncentrowały się na pornografii dziecięcej. Badanie przeprowadzone w 2002 r. wykazało, że wyniki wyszukiwania Google we Francji i Niemczech pomijały witryny, które mogą być sprzeczne z francuskim i niemieckim prawem, w tym witryny neonazistowskie. W porównaniu z Europą Północną, rządy Europy Wschodniej i Południowej starały się sprawować większą kontrolę nad Internetem. Włoski rząd wymusił usunięcie stron internetowych krytykujących atolizm i próbował powstrzymać dostawców usług internetowych przed zezwoleniem na strony internetowe, które bronią lub podżegają do przestępstw lub przedstawiają mafię w pozytywnym świetle. W Bułgarii Bułgarskie Towarzystwo Internetowe powstrzymało rządowe próby wprowadzenia wymogu posiadania licencji przez dostawców usług internetowych.

Stany Zjednoczone

Chociaż cenzura Internetu w Stanach Zjednoczonych jest minimalna, również tam państwo czasami interweniowało w próbach kształtowania dostępu do Internetu. Najbardziej krytykowana próba cenzury w Stanach Zjednoczonych dotyczyła Ustawy o przyzwoitości w komunikacji, uchwalonej przez Kongres w 1996 r. w celu ograniczenia dostępu dzieci do "obscenicznych lub nieprzyzwoitych" materiałów internetowych. W swojej decyzji z 1997 r. w przełomowej sprawie Reno przeciwko ACLU Sąd Najwyższy Stanów Zjednoczonych uchylił dwa przepisy prawa dotyczące nieprzyzwoitości. W 2000 roku Kongres uchwalił ustawę o ochronie dzieci w Internecie, zgodnie z którą w celu otrzymania określonych funduszy federalnych szkoły publiczne i biblioteki musiały zainstalować oprogramowanie filtrujące, aby uniemożliwić dzieciom dostęp do materiałów obscenicznych, pornografii dziecięcej i materiałów uznanych za szkodliwe dla nieletnich. Kongres zainicjował również zachęty dla dostawców usług internetowych, aby blokowali dostęp do stron internetowych, które naruszają prawa własności intelektualnej. Zgodnie z amerykańską ustawą PATRIOT, Federalne Biuro Śledcze prowadzi program "dobrego obywatela korporacyjnego", który zachęca dostawców usług internetowych do cenzurowania stron internetowych, które nie są zgodne z interesem publicznym, oraz do przekazywania informacji o użytkownikach, których e-maile ujawniają podejrzane zamiar. Stany Zjednoczone zostały określone jako "wśród najbardziej agresywnych państw na świecie pod względem monitorowania rozmów online"



Powrót



[ 154 ]