TCP/IP




Protokół kontroli transmisji (TCP) i protokół internetowy (IP) lub razem protokół TCP/IP tworzą złożony, ale niezbędny język, który umożliwia komunikację między hostami w Internecie. TCP/IP to branżowy standard łączenia hostów, który został tak powszechnie przyjęty, że zasadniczo jest domyślnym protokołem Internetu. Zapewnia wspólny interfejs dla różnych typów aplikacji, który jest niezależny od sieci fizycznej. Stanowi podstawę wielu aplikacji wyższych warstw, takich jak World Wide Web, poczta e-mail, HTTP, File Transfer Protocol, Telnet, Simple Mail Transfer Protocol i media strumieniowe. Z tych powodów jest czasami postrzegany jako "silnik stojący za Internetem". We wpisie przeanalizowano techniczne wymiary protokołu TCP/IP oraz jego rozwój na przestrzeni czasu.

Wymiary techniczne

Standardy techniczne dla protokołu TCP/IP są określane przez Internet Engineering Task Force i ewoluowały dzięki częstym prośbom o komentarze. TCP/IP wykorzystuje kilka protokołów, z których najważniejsze są TCP i IP: TCP to wyższy protokół, który zarządza rozkładem plików na pakiety; IP, dolna warstwa, zapewnia, że pakiety docierają do miejsca docelowego jeden po drugim. Zasadniczo protokół TCP monitoruje ruch pakietów, podczas gdy protokół IP obsługuje faktyczne dostarczanie. Protokół TCP/IP jest przeznaczony dla sieci rozległych i opiera się na modelu klient-serwer, w którym komunikacja odbywa się w trybie punkt-punkt lub punkt-koniec (tj. raczej niż urządzenie nadrzędne-podrzędne). Został zaprojektowany do łączenia różnych typów sieci i kładzie nacisk na niezawodność dostarczania, a nie na terminowość (tj. Zapewniając, że kolejność odbieranych bajtów jest identyczna z kolejnością wysyłanych bajtów). Jest ogólnie uważany za "bezstanowy" w tym sensie, że każde żądanie z serwera klienta jest niezależne od poprzednich żądań, co uwalnia ścieżki sieciowe. TCP/IP jest zorganizowany w cztery warstwy (znane jako model Agencji Zaawansowanych Projektów Badawczych Obrony [DARPA]), które pozwalają wyższym warstwom uniknąć zajmowania się chaotycznymi szczegółami obsługiwanymi przez niższe, tworząc podział pracy, który maksymalizuje elastyczność i umożliwia testowanie kodu. Warstwy te, jak pokazano na rysunku 1, obejmują (od najniższej lub najbliższej fizycznej transmisji danych, do najwyższej lub najbliższej użytkownikowi):

1. Warstwa łącza (lub interfejsu sieciowego), która umieszcza i odbiera pakiety danych do i z Internetu;
2. Warstwa internetowa, która zajmuje się adresowaniem, pakowaniem i trasowaniem pakietów w wielu sieciach;
3. Warstwa transportowa, która umożliwia komunikację danych typu host-to-host lub end-to-end, w tym TCP i User Datagram Protocol (UDP); i
4. Warstwa aplikacji, która zapewnia wymianę danych w ramach pojedynczego segmentu sieci, czyli łącza. To tutaj aplikacje tworzą dane użytkownika.

Wielowarstwowa architektura umożliwia TCP/IP budowanie stosów protokołów (grup protokołów działających jednocześnie) z wielu kombinacji interfejsów, protokołów i urządzeń, co zapewnia dużą elastyczność. Jednak takie podejście wymaga znacznego czasu i zasobów programistycznych, ponieważ na granicy każdej warstwy mogą zachodzić transformacje danych, a zarządzanie pamięcią jest dość złożone. Ta struktura sprawiła, że protokół TCP/IP stał się prostszy i bardziej elastyczny niż konkurencyjne modele, takie jak bardziej sztywne siedmiowarstwowe otwarte podejście do wzajemnych połączeń systemowych, chociaż istnieje między nimi ścisła zgodność. Oba modele mają różne założenia i cele. Kiedy TCP odbiera strumienie danych, dzieli je na segmenty i dodaje do każdego nagłówek, oddzielony od sekcji danych. Zapewnia, że pakiety nie przekraczają maksymalnego rozmiaru, określonego w bajtach, co prowadziłoby do fragmentacji. Nagłówek identyfikuje port pochodzenia, miejsce docelowe i różne inne aspekty techniczne. Monitoruje również kontrolę przepływu, wykrywa błędy i ponownie wysyła utracone pakiety. TCP/IP ma swoje luki. Może zostać wyłączona poprzez ataki typu "odmowa usługi", być narażona na podsłuchiwanie i przejmowanie połączeń lub umożliwiać hakerom umieszczanie złośliwych ładunków w wiadomościach. Jego opóźnienie w obie strony jest często słabe. Ponadto jego złożoność sprawia, że jest mniej preferowany dla serwerów obsługujących wiele prostych żądań (np. serwery systemu nazw domen).

Historia

Protokół TCP/IP był zasadniczo tworem DARPA podczas wczesnego tworzenia Internetu pod koniec lat 60. XX wieku i dlatego został również nazwany modelem Departamentu Obrony. Został pierwotnie opracowany przez Roberta Kahna z DARPA i Vintona Cerfa z Uniwersytetu Stanforda, którzy w artykule zatytułowanym "Protokół komunikacji w sieci pakietowej" wyobrazili sobie model otwartej architektury dla Advanced Research Projects Agency Network (ARPANET). Protokół TCP został po raz pierwszy opublikowany w 1974 roku jako sposób na przezwyciężenie różnic między różnymi protokołami sieciowymi. Inni współpracownicy sugerowali, aby jego różne funkcje podzielić na warstwy; unikanie monolitycznego projektu pozwoliło ominąć problemy związane z niekompatybilnością i skalowalnością. W rezultacie protokół IP został oddzielony od protokołu TCP. DARPA zawarła umowę z Uniwersytetem Stanforda, University College London (UCL) i BBN Technologies w celu opracowania wersji operacyjnej, która mogłaby być używana na różnych platformach, z których ostatnia jest nadal w użyciu. W 1975 roku protokół został przetestowany w połączeniu między Stanford i UCL, aw 1977 roku został rozszerzony w teście trójstronnym, który obejmował Royal Radar Establishment w Norwegii. W 1982 roku Departament Obrony ogłosił, że jest to techniczny standard komputerów wojskowych. Wczesny ARPANET korzystał z programu kontroli sieci, ale 1 stycznia 1983 r. ARPANET przeszedł na protokół TCP/IP, a DARPA zażądała, aby wszystkie komputery podłączone do ARPANET korzystały z protokołu TCP/IP. Dzięki finansowaniu z DARPA Uniwersytet Kalifornijski w Berkeley wypuścił Berkeley Software Distribution w 1983 roku, co doprowadziło do jego powszechnego przyjęcia przez uniwersytety. Protokół TCP/IP był entuzjastycznie promowany przez Radę Architektury Internetowej i odbywały się coroczne konferencje dotyczące interoperacyjności. Przyjęło go kilku gigantów technologicznych, takich jak DEC, IBM i AT&T, a mniejsze firmy oferowały stosy TCP/IP dla systemów DOS i Windows. W 1989 roku AT&T udostępniła wersję TCP/IP dla systemu Unix w domenie publicznej. Późniejsze lata przyniosły kolejne zmiany. Kiedy pierwsze komputery osobiste pojawiły się w latach 80., pojawiły się (ostatecznie bezpodstawne) obawy, że protokół TCP/IP jest dla nich zbyt skomplikowany. Narodziny i rozwój sieci World Wide Web ogromnie zwiększyły jej znaczenie. Protokół TCP/IP został zaprojektowany dla sieci przewodowych, ale wkrótce został dostosowany do sieci bezprzewodowych. Został również przystosowany do obsługi aplikacji multimedialnych, takich jak telefonia Voice over Internet Protocol oraz telewizja internetowa. Protokół TCP/IP zasadniczo umożliwił Internetowi przybranie nowoczesnej formy poprzez łączenie różnych typów sieci. Bez niego komunikacja między ogromną liczbą komputerów byłaby uciążliwa, jeśli nie niemożliwa. Jest popularny wśród programistów i użytkowników ze względu na swoją elastyczność i niezawodność, na przykład umożliwiającą dodawanie nowych sieci bez przerywania istniejących usług oraz zdolność do obsługi błędów i odzyskiwania po awariach (w oryginalnym ARPANET było to krytyczne). Może łatwo dostosować się do środowisk Windows, Apple i Unix i jest niezrównany pod względem szybkości i prostoty.



Powrót

Telecentra




Telecentra (lub telekioski) to małe biura lub centra zapewniające dostęp do Internetu. Ośrodki te zlokalizowane są zazwyczaj na terenach wiejskich. W ten sposób są częścią wysiłków na rzecz zwalczania przepaści cyfrowej, szczególnie w krajach rozwijających się, gdzie komputery osobiste mogą być niedostępne, a kawiarnie internetowe znajdują się w odległych miastach. Dla setek milionów ludzi na całym świecie telecentra stanowią pierwsze przejście do cyberprzestrzeni. Telecentra różnią się od kafejek internetowych, które są zawsze własnością prywatną, są skoncentrowane w miastach i oferują usługi niezwiązane z informacjami (zob. rys. 1). Telecentra są dostępne w różnych rozmiarach i stopniach zaawansowania i działają w oparciu o różne modele biznesowe: niektóre są własnością publiczną i są obsługiwane; inne to podmioty czysto prywatne; jeszcze inne są prowadzone przez partnerstwa publiczno-prywatne; a organizacje pozarządowe (NGO) działają jeszcze więcej. Ten wpis otwiera podsumowanie wpływu telecentrów. Następnie wpis dotyczy Indii, niekwestionowanego światowego lidera w dziedzinie telecentrów. Po trzecie, wpis krótko omawia telecentra w innych krajach. Czwarta część wpisu skupia się na przeszkodach napotykanych przez telecentra i dalej bada, dlaczego nie są one panaceum na wiejskie przepaści cyfrowe.

Wpływ telecentrów

Telecentra mają ważne konsekwencje, szczególnie na obszarach wiejskich o niskich dochodach, dlatego często stanowią część strategii walki z ubóstwem na obszarach wiejskich. Telecentra często oferują znacznie więcej niż tylko dostęp do Internetu. Pozwalają rolnikom i mieszkańcom wsi na podejmowanie różnych funkcji, takich jak płacenie rachunków za prąd, wodę i telefon przez Internet; wykonywać połączenia telefoniczne i wysyłać wiadomości e-mail; uzyskać dostęp do formularzy i map rządowych; uzyskać informacje o warunkach pogodowych, cenach plonów i najlepszych praktykach rolniczych; zarezerwować i opłacić bilety autobusowe lub kolejowe; uzyskać akty urodzenia i zgonu; uiścić opłaty i grzywny; dowiedzieć się o opiece zdrowotnej; zapytać o kredyty bankowe; złożyć skargę; płacić podatki od nieruchomości i pojazdów; otrzymywać wypłaty emerytur i innych świadczeń; szukać pracy; uzyskiwać dostęp do rejestrów gruntów i uzyskiwać akty; i ubiegać się o paszporty. Niektóre telecentra oferują szkolenia w zakresie technologii informatycznych i obsługi komputera. Są zatem kluczowe dla wprowadzania inicjatyw e-administracji, e-zdrowia i e-edukacji na obszary peryferyjne. Mają one często zastąpić tradycyjne formy interakcji rząd-obywatel, eliminując potrzebę czasochłonnych podróży do urzędów. Mogą wzmocnić pozycję mieszkańców wsi, dostarczając im informacji (np. o cenach zbóż lub o opiece zdrowotnej), umożliwiając im zapytanie o kredyty bankowe, składanie skarg i dostęp do ksiąg wieczystych. Dla zubożałych rodzin, których członkowie mieszkają za granicą, mogą stanowić jedyny sposób na pozostanie w kontakcie z dalekimi krewnymi. Często mówi się, że telecentra poprawiają wydajność, eliminując pośredników za pośrednictwem dezintermediacji z obsługą Internetu. Zwiększając rozliczalność, zwalczają korupcję, zwłaszcza poprzez ograniczanie okazji do przyjmowania łapówek. Mogą zezwalać obywatelom na składanie skarg na urzędników bez ich ujawniania oraz przeglądać listy urzędników oskarżonych o korupcję. Telecentra mogą również służyć jako silny symbol tego, że rząd poważnie traktuje ubóstwo na obszarach wiejskich, a co za tym idzie, mogą pomóc w zdobyciu przychylności wiejskiego elektoratu. Jak zauważają Renee Kuriyan i Isha Ray: "Państwo w efekcie wykorzystuje telecentra prowadzone przez przedsiębiorców do renegocjacji swojego dziedzictwa nieefektywności" (2009, s. 1669). Nieuchronnie procesowi wprowadzania zaawansowanych technologii cyfrowych do półfeudalnych społeczeństw będą towarzyszyć błędy, podejrzliwość i opór.

Indyjskie telecentra

Indie, z drugą co do wielkości populacją internautów na świecie (462 mln w 2017 r.) i największą populacją ludzi żyjących w ubóstwie, są niekwestionowanym liderem w dziedzinie telecentrów na świecie. Rzeczywiście, wiejskie telecentra są centralnym elementem indyjskiej polityki informatyzacji. Według niektórych szacunków w całym kraju istnieje około 150 wiejskich projektów telekiosk z około 100 000 tak zwanych Centrów Usług Wspólnych. Partnerstwa publiczno-prywatne są popularnym modelem biznesowym i wydają się niezbędne do zapewnienia stabilności finansowej. Większość jego telecentrów jest prowadzona przez rządy stanowe, a nie przez administrację krajową. Na przykład Gujarat prowadzi sieć ponad 200 kompleksowych telecentrów, które świadczą usługi e-zdrowia i e-administracji. Jedną z najbardziej znanych indyjskich inicjatyw był projekt Gyandoot ("dostawca wiedzy" w języku hindi), niskobudżetowa inicjatywa rząd-obywatel, uruchomiona w 2000 r. w zubożałym stanie Madhya Pradesh. Z biegiem czasu utworzono 40 zasilanych energią słoneczną kiosków podłączonych do intranetu (soochanalayas) w budynkach władz lokalnych w wioskach, które funkcjonowały jako cotygodniowe targowiska w ich głębi lądu. Każdy kiosk miał obsługiwać od 20 do 30 wiosek, czyli około 30 000 osób; niektóre były prowadzone przez wieś, inne przez prywatnych operatorów (soochaków). Prowadzony przez wykształconą lokalną młodzież, która zarabia na opłatach swoich usług umożliwili dostęp online w języku hindi do 12 usług publicznych: (1) e-mail; (2) aplikacje rządowe; (3) składanie reklamacji; (4) drukowanie ewidencji gruntów; (5) wnioski o wydanie prawa jazdy; (6) usługi matrymonialne; (7) informacje o cenach produktów rolnych; (8) serwis aukcyjny do sprzedaży i zakupu gruntów, sprzętu i zwierząt; (9) ogłoszenia matrymonialne; (10) usługi horoskopowe; (11) internetowe fora dyskusyjne; oraz (12) publiczna linia skarg do zgłaszania zepsutych pomp irygacyjnych, nieuczciwych cen, nieobecnych nauczycieli i innych problemów. W pierwszym roku złożono ponad 6000 skarg. Unikając pośredników, w tym lokalnych urzędników, ograniczyła łapówkarstwo i korupcję. Kioski znajdują się w klimatyzowanych biurach i cieszą się dużym zainteresowaniem. itizens otrzymało odpowiedzi w ciągu maksymalnie 7 dni. Upoważnieni biedacy zaczęli terminowo otrzymywać stypendia, a rolnicy otrzymywali wyższe ceny za swoje plony. Projekt zapoczątkował wykorzystanie wiejskich telecentrów w Indiach i posłużył jako katalizator poprawy świadomości komputerowej. Gyandoot zdobył nagrodę Stockholm Challenge IT Award w 2000 roku i został uznany za najlepszą praktykę przez Międzynarodowy Fundusz Walutowy, Bank Światowy i Azjatycki Bank Rozwoju. Jednak ostatecznie projekt telecentrów Gyandoot ucierpiał śmiertelnie z powodu zawodnej energii elektrycznej. Andhra Pradesh opracował dwa programy telecentrów, Rural e-Seva i Rajiv Internet Village Centers (Rajivs). Projekt e-Seva ("usługa elektroniczna") został pierwotnie nazwany Projektem usług sieciowych miast bliźniaczych na cześć miast Hyderabad i Secunderabad. Zaczęło się w 1999 roku, a następnie zostało przemianowane i rozszerzone. e-Seva składa się z serii 275 punktów kompleksowej obsługi społeczności rozsianych po Hyderabad, Secunderabad i dzielnicy Ranga Reddy, z których każdy obsługuje około 30 000 osób korzystających z oprogramowania LINUX i telefonicznych połączeń dial-up. Dzięki e-Seva czas potrzebny na uzyskanie paszportu został skrócony z 45 do 3 dni. e-Seva przeprowadza ponad 50 milionów transakcji rocznie. Program centrów Rajiv Internet Village obejmuje dwóch partnerów korporacyjnych, którzy płacą państwu za dostęp do informacji e-administracji, chociaż dystrykty zapewniają dotacje. Za pośrednictwem 8000 kiosków obywatele mogą uzyskać dostęp do 135 usług online. Pozwala mieszkańcom załatwiać swoje sprawy bez odwiedzania licznych urzędów i konfrontowania się z nieuniknioną korupcją. System został zorganizowany w ramach partnerstwa publiczno-prywatnego z operatorem telekomunikacyjnym Bharat Sanchar Nigam, w ramach którego prywatne firmy dostarczały sprzęt i oprogramowanie w zamian za opłaty transakcyjne. Andhra Pradesh stworzył również Samaikya ("zgromadziliśmy się w dobrej sprawie" w języku telugu) Agritech, cyfrowy program pomocy z 18 telecentrami do obsługi rolników wiejskich, które dostarczają informacji o pogodzie, cenach i najlepszych praktykach. Podobnie projekt Health Information Systems Project w Andhra Pradesh, który rozpoczął się w 2000 roku od programu pilotażowego w dystrykcie o nazwie Kuppam, odniósł umiarkowany sukces w wykorzystywaniu Internetu do rozpowszechniania informacji na temat zdrowia publicznego i tworzenia internetowej bazy danych. Miasto Visakhapatnam w stanie Andhra Pradesh założyło Saukaryam ("obiekt" w języku telugu) w 2001 r., pierwszy projekt w kraju oparty na partnerstwie publiczno-prywatnym w zakresie e-administracji. Obywatele mogą korzystać z kiosków z łączem szerokopasmowym, aby sprawdzać i opłacać swoje podatki, ubiegać się o zatwierdzenie planu budynku i śledzić jego status oraz zgłaszać skargi. zdecentralizować i zdemokratyzować planowanie regionalne za pomocą technologii informacyjnej. To jeden z najambitniejszych programów e-administracji w kraju. Informacja Misja Kerala umieściła liczne kioski (janasevanakendrams) w szpitalach i urzędach publicznych w całym stanie, które umożliwiają rejestrację narodzin i zgonów, wydawanie licencji i pozwoleń, wypłatę emerytur i pobór podatków. Czas wydawania zezwoleń skrócił się z 5 dni do 5 godzin. Prawdopodobnie najbardziej znanym przykładem indyjskich telecentrów jest Projekt Bhoomi ("ziemia") Karnataki. Bhoomi, które rozpoczęło się w 2001 roku i zostało uruchomione w 177 talukach (podokręgach), umożliwia dostarczanie Internetu do 6,7 miliona rolników wiejskich. System działa na zasadzie partnerstwa publiczno-prywatnego, w którym firmy uruchamiają front-end przez kioski w zamian za opłaty za usługi, a dział rejestracji wystawia zaświadczenia o ewidencji praw, dzierżawy i upraw (RTC). Bhoomi umożliwiło rolnikom dostęp do odpowiednich danych za pośrednictwem 800 połączonych z Internetem kiosków ("centra Bhoomi") za opłatą 15 rupii (23 centy amerykańskie) i samodzielne drukowanie zapisów. Kioski są obsługiwane przez operatorów, którzy muszą użyć odcisku palca i skanu biometrycznego, aby uzyskać dostęp, pozostawiając w ten sposób ścieżkę audytu, co poprawia rozliczalność. Rolnicy mogą drukować RTC za 15 rupii. Do 2006 roku z systemu korzystało ponad 12 milionów ludzi, a 700 000 nadal robi to miesięcznie. Powszechnie uważa się, że Bhoomi znacznie ograniczył korupcję. Przed Bhoomi wszystkie "prośby o mutację" w celu zmiany tytułów RTC były pisane na papierze i obsługiwane przez księgowych w 9 000 wiosek, co mogło zająć do 2 lat. W trakcie tego procesu znacznie zmniejszyło to możliwości przekupstwa (średnia łapówka wahała się od 100 do 2000 rupii). Użytkownicy zgłaszają, że chodzą do mniejszej liczby urzędów i prowadzą swoją działalność szybciej niż wcześniej. Szacuje się, że Bhoomi zaoszczędził 1,32 miliona dni oczekiwania i 806 milionów rupii na łapówkach, a także wygenerował dochody dla rządu stanowego. W odległych i zubożałych północno-wschodnich Indiach, a także w Sikkimie, rząd federalny założył w 2002 roku 487 lokalnych centrów informacyjnych, które zapewniają podstawową pocztę elektroniczną; akty urodzenia, zgonu i małżeństwa; wnioski o emerytury i karty pracy; ceny produktów rolnych; informacje o możliwościach zatrudnienia; oraz usługi skoncentrowane na obywatelach, takie jak e-Suvidha, która umożliwia obywatelom składanie wniosków o usługi; służą również do ogłaszania wyników wyborów i egzaminów.

Telecentra w innych krajach

Kilka krajów naśladowało przykład Indii. alaysia zapewnia ponad 50 telekiosków w prowincjach Sabah i Sarawak na Borneo. Na Filipinach program Pan Asian Networking utworzył cztery wielofunkcyjne telecentra na Mindanao. Nepal ma sieć ponad 400. W Chinach, dzięki funduszom z Programu Narodów Zjednoczonych ds. Rozwoju, Ministerstwo Nauki i Technologii sfinansowało szereg wiejskich telecentrów w wiejskim Wu′an. Na Sri Lance, po niszczycielskim tsunami w 2004 r., rząd zainstalował kioski w obozach dla przesiedleńców. Oprócz projektów rządowych, inicjatywa nastawiona na zysk o nazwie EasySeva ("łatwa usługa") ma na celu zapewnienie bezprzewodowego dostępu szerokopasmowego na obszarach wiejskich, głównie poprzez tworzenie kiosków na zasadzie franczyzy; jego głównym zastosowaniem jest usługa Voice over Internet Protocol, szczególnie dla dużej społeczności emigrantów. W Kirgistanie, korzystając ze środków Agencji ds. Rozwoju Międzynarodowego, rząd stworzył niewielką sieć 150 subsydiowanych, ogólnodostępnych telecentrów, w tym komercyjnych kafejek internetowych; jednak większość z nich nie jest samowystarczalna finansowo. Podobnie Agencja Stanów Zjednoczonych ds. Rozwoju Międzynarodowego sponsorowała tam serię 30 telecentrów nastawionych na zysk. W Ameryce Łacińskiej Somos@telecentros, sieć telecentrów, oferuje dostęp do Internetu ubogiej ludności wiejskiej, odgrywając tym samym rolę katalizatora w rozwoju społeczności na wielu obszarach. W Afryce Ghana i Tanzania również mają sieci telecentrów.

Przeszkody dla telecentrów

Programy Telecentrum często napotykają poważne problemy i trudności, a czasami kończą się niepowodzeniem. Najczęstszym z tych problemów jest niewystarczające przeszkolenie kiosku operatorów, brak rozwoju treści i niewystarczająca liczba e-usług, niewystarczająca ilość energii elektrycznej i okresowe przerwy w dostawie prądu, niewystarczająca łączność z Internetem, wysokie ceny pobierane przez operatorów, niedostateczna aktualizacja cen plonów, niskie przychody operatorów kiosków oraz niski udział kobiet. W krajach o znacznych różnicach cyfrowych ze względu na płeć status kobiet drugiej kategorii jest poważnym problemem dla telecentrów. Micahel L. Best i Sylvia G. Maier zbadali rolę płci w dostępie do ICT (technologii informacyjnych i komunikacyjnych) w pięciu wiejskich wioskach indyjskich i doszli do wniosku, że ich potrzeby i zastosowania różnią się od potrzeb mężczyzn: Więcej kobiet niż mężczyzn nie znało Internet; w przypadku kobiet, które korzystały z kiosków, korzystanie z nich koncentrowało się na obowiązkach domowych i opiece nad dziećmi. Inne badania donoszą o ogromnych przeszkodach w korzystaniu z telecentrów przez indyjskie kobiety: mężczyźni mają pierwszeństwo w korzystaniu ze wszystkiego; utrzymują je obowiązki domowe kobiet zbyt zajęty; kobiety mają niższe dochody i niższe wskaźniki umiejętności czytania i pisania oraz często czują się mniej komfortowo lub pewnie, korzystając z komputerów; kursy informatyczne skierowane są do mężczyzn; w kawiarenkach internetowych dominują mężczyźni; a technologia w ogóle jest postrzegana jako domena mężczyzn wrogo nastawiona do kobiet. Dla wielu kobiet zwykłe radzenie sobie z przemocą domową lub przetrwanie to wszystko, co mogą zrobić, a e-administracja to odległy i nieistotny luksus. Kobiety, które odwiedzają kioski, zdecydowanie wolą kioski obsługiwane przez kobiety i często odmawiają odwiedzania ich, jeśli są obsługiwane przez mężczyzn. Pewną rolę odgrywają technofobia i brak doświadczenia z technologiami cyfrowymi. Rolnicy często są podejrzliwi wobec komputerów. Na przykład badanie przeprowadzone w 2015 r. przez Viswanatha Venkatesha i współpracowników wykazało, że wiele osób na obszarach wiejskich "boi się komputera", ponieważ nie miały wcześniej kontaktu z komputerem. Z tego powodu, zwłaszcza na obszarach wiejskich użytkownikami telecentrów są przede wszystkim ludzie młodzi. Ponadto telecentra często wymagają praktycznej znajomości języka angielskiego, którego wielu mieszkańców wsi nie mówi ani nie czyta; w wielu krajach treści w lokalnych językach są zwykle dość ograniczone. Telecentra często zawodzą z powodu braku wyszkolonego personelu, sprzeciwu ze strony samorządowców, którzy postrzegają telecentra jako zagrożenie dla własnej władzy oraz korupcji. Co więcej, lokalny opór biurokratyczny może być intensywny, na przykład wtedy, gdy lokalni urzędnicy niechętnie przekazują fundusze. Finansowanie wielu projektów telecentrów jest niewystarczające, a sprzęt może szybko stać się przestarzały. Większość telecentrów walczy o przetrwanie. Często zawodzą z powodu złego modelu biznesowego lub braku popytu. W niektórych krajach telecentra są finansowane przez organizacje pozarządowe, ale wiele telecentrów finansowanych przez darczyńców nie jest opłacalnych finansowo po wygaśnięciu finansowania. Takie obserwacje podają w wątpliwość różowe oczekiwania, że IT (technologia informacyjna) może wywołać katalityczne zmiany na obszarach wiejskich. Rzeczywiście, kompromisy między stabilnością finansową a świadczeniem usług dla ubogich w takich kontekstach mogą być nieuniknione.

Dalsze rozważania

Telecentra stały się ważnym źródłem dostępu do Internetu dla ubogiej ludności wiejskiej w wielu częściach świata. Ich skutki, często wyolbrzymiane przez zwolenników, obejmują zmniejszenie niepewności, ograniczenie korupcji i wzmocnienie pozycji mieszkańców obszarów wiejskich. Wieśniacy, którzy kiedyś cierpieli w milczeniu, mogą teraz narzekać na nadużycia urzędników. Skrócenie czasu oczekiwania na licencje; terminowe płacenie podatków i opłat; uzyskiwanie aktów urodzenia, zgonu i małżeństwa; a umożliwienie mieszkańcom wsi poszukiwania pracy to inne korzyści. Indie są wyraźnie światowym liderem pod tym względem, co jest odzwierciedleniem zdeterminowanego przywództwa narodowego i postępowych rządów w niektórych indyjskich stanach. Nie wszystkie indyjskie projekty telecentrów zakończyły się sukcesem; Gyandoot jest godnym uwagi przykładem porażki. Niemniej jednak życie milionów wiejskich Indian poprawiło się dzięki dostępowi do informacji dostarczanych przez telecentra. Wiele innych krajów poszło w ich ślady. Telecentra często napotykają przeszkody nie do pokonania, takie jak ograniczony popyt, nierównomierne dostawy energii elektrycznej, wysokie opłaty dla użytkowników i strach przed komputerami. Częstym problemem jest niewystarczające finansowanie ze strony rządów lub organizacji pozarządowych. Brak znajomości języka angielskiego stanowi barierę w krajach, w których dostępnych jest niewiele materiałów w języku narodowym. Co najważniejsze, bariery związane z płcią uniemożliwiają wielu kobietom korzystanie z takich kiosków, zwłaszcza gdy są one obsadzone przez mężczyzn w głęboko patriarchalnych społeczeństwach. Ponieważ różne rządy inicjują je z różnymi programami i stopniami finansowania, charakter i konsekwencje telecentrów znacznie się różnią. Niektóre robią niewiele więcej niż oferowanie usług e-mail lub pozwalają ludziom pobierać dokumenty rządowe. Inne zapewniają różnorodne usługi, w tym umiejętność obsługi komputera, której brakuje na zubożałych obszarach wiejskich. Umożliwienie rolnikom sprawdzania cen plonów i eliminowania skorumpowanych pośredników znacznie poprawiło życie biedoty wiejskiej; telecentra odgrywają zatem zasadniczą rolę w rozwoju rolnictwa w wielu krajach.



Powrót

Telemedycyna




Telemedycyna jest zdefiniowana przez Światową Organizację Zdrowia (WHO) jako świadczenie usług opieki zdrowotnej, w których odległość jest czynnikiem krytycznym, przez wszystkich pracowników służby zdrowia z wykorzystaniem technologii informacyjnych i komunikacyjnych do wymiany ważnych informacji w celu diagnozowania, leczenia i zapobiegania chorobom i urazów, badania i oceny oraz ustawiczne kształcenie pracowników służby zdrowia, a wszystko to w interesie poprawy zdrowia jednostek i ich społeczności. Termin telemedycyna pochodzi od łacińskiego medicus i greckiego tele, co oznacza "leczenie na odległość". Koncepcja ta może potencjalnie wypełnić lukę bliskości między pacjentami a usługodawcami, otwierając dostęp dla osób na obszarach wiejskich lub dla tych, którzy mogą mieć ograniczenia w poruszaniu się. Jednak telemedycyna rozszerza swój zasięg poza pacjenta. Modalność ta może być wykorzystana do dalszej edukacji bez odrywania lekarza od jego gabinetu i pacjentów na kilka dni. Opiekę można rozszerzyć również poprzez telekonferencję, która zapewnia komfort kontaktu twarzą w twarz bez bariery bliskości. Wykazano, że telemedycyna poprawia wyniki leczenia pacjentów którzy są otwarci na sposób opieki. W tym wpisie omówiono rodzaje telemedycyny i krytykę tej praktyki. .

Rodzaje telemedycyny

Telemedycyna ma kilka aspektów. Niektórzy rozróżniają administracyjne aspekty opieki na telezdrowie, ale WHO nie rozróżnia tych dwóch. WHO klasyfikuje inne kategorie telemedycyny: teleradiologia, teledermatologia, telepatologia, i telepsychologii. Inne terminy pod parasolem telemedycyny to telemonitoring, telerehabilitacja, telekonsultacje, e-zdrowie i m-zdrowie.

Teleradiologia

Teleradiologia istnieje już od jakiegoś czasu. Usługa ta polega na przekazywaniu zdjęć radiologicznych od jednego świadczeniodawcy do drugiego w celu konsultacji, szkolenia medycznego nowych lekarzy, diagnozy między lekarzem podstawowej opieki zdrowotnej a specjalistą lub obserwacji pacjenta. Praktyka teleradiologii może obejmować bezpośrednie przesyłanie obrazów lub ich centralne przechowywanie i wyszukiwanie. Ten sposób opieki został umożliwiony dzięki rozwojowi szybkiego Internetu i infrastruktury sieciowej. Wspólne adnotacje obrazów umożliwiają szerokie rozpowszechnienie tej innowacji.

Teledermatologia

Większość jest zaznajomiona z praktyką dermatologiczną, ale teledermatologia przenosi tę praktykę na komunikację elektroniczną, aby oceniać i diagnozować schorzenia dermatologiczne w celu leczenia na odległość. Teledermatologia to skuteczna i powszechnie akceptowana metoda zapewniania opieki dermatologicznej, szczególnie w rejonach krajów lub świata o niedostatecznym leczeniu. Ten sposób opieki łączy lekarza podstawowej opieki zdrowotnej i specjalistę w dyskusjach klinicznych z korzyścią dla wszystkich zaangażowanych w transakcję opieki. Świadczenie usług dermatologicznych za pomocą telemedycyny zapewnia szerokie korzyści i umożliwia globalną współpracę specjalistyczną.

Telepatologia

Postęp technologiczny znacznie umożliwił rozpowszechnienie telepatologii. W latach pięćdziesiątych XX wieku mikroskopia telewizyjna utorowała drogę telepatologii. Do mikroskopu zamontowano wysokiej jakości kamerę, która przyniosła ogromny sukces Laboratorium RCA David Sarnoff i została zaadaptowana do badań biomedycznych. Różnica między telemikroskopią z lat pięćdziesiątych i sześćdziesiątych a dzisiejszą telepatologią polega na kontroli; patolog diagnozujący ogląda preparaty z pewnej odległości, ale zachowuje kontrolę nad polami powiększenia oglądanych preparatów. Telepatologia jest z powodzeniem stosowana w Wielkiej Brytanii od 1989 roku, a w Stanach Zjednoczonych od 1996 roku.

Telepsychologia

Według Amerykańskiego Stowarzyszenia Telemedycyny telepsychologia odnosi się do świadczenia usług psychologicznych za pomocą technologii telekomunikacyjnych. Rozpowszechnienie tej technologii nie było szybkie. Kiedy jest używany, jest obsługiwany przez komputer, telefon, telefon komórkowy, telekonferencje wideo, pocztę e-mail i usługi czatu. Wiele badań wykazało powszechną akceptację tej metody opieki i jak dotąd żadne badanie nie zidentyfikowało grupy pacjentów lub usługodawców, którzy zostali poszkodowani przez telepsychologię.

Telemonitorowanie

Monitorowanie pacjentów na odległość może odbywać się za pomocą różnych trybów telekomunikacyjnych poprzez przesyłanie danych pacjenta z miejsca zamieszkania do usługodawcy. Niektóre interwencje obejmują ustrukturyzowaną rozmowę telefoniczną w zaplanowanym terminie, aby zwiększyć samoświadomość pacjenta; umożliwiają wczesne wykrycie np. pogarszającego się stanu niewydolności serca; oraz ograniczyć liczbę ponownych przyjęć do szpitali. Chociaż osoby starsze mogą być odporne na rozprzestrzenianie się zaawansowanych technologii, telemonitoring jest powszechnie akceptowany przez osoby starsze. Monitorowanie ciśnienia w domu to kolejne zastosowanie telemonitoringu, które podąża za współczesnymi wytycznymi dotyczącymi nadciśnienia. Ta interwencja została zebrana i podsumowana w elektronicznej dokumentacji medycznej, a pacjent może przeglądać trendy swojego portalu do elektronicznej dokumentacji medycznej. Takie połączenie umożliwia również szybszą mediację ze strony świadczeniodawcy lub personelu medycznego.

Telerehabilitacja

Ideą telerehabilitacji jest praktyka prowadzenia rehabilitacji za pośrednictwem środków komunikacji. Może to pociągać za sobą reżim telekonferencji wideo, który pasuje do programu opartego na placówce. Wyniki i satysfakcja pacjentów z telerehabilitacji nie są istotne statystycznie, co oznacza, że rehabilitację można rozciągać na duże odległości, gdzie wcześniej bliskość uniemożliwiała opiekę. Stosowano go również po operacjach. Telerehabilitację stosowano pooperacyjnie, po wypisie ze szpitala oraz w szczególnych przypadkach pacjentów ortopedycznych, kardiologicznych i udarowych. Przeprowadzono dodatkowe badania dotyczące samokontroli; chociaż badano to w kategorii telerehabilitacji, wiele z tego, co napisano, brzmiało jak telemonitoring.

Telekonsultacje

Wątki telekonsultacji można dostrzec w każdej z wcześniej wymienionych kategorii, z powodzeniem stosuje się je również w okulistyce i chirurgii czaszkowo-szczękowo-twarzowej. Możliwość umożliwienia współpracy między opieką podstawową i specjalistyczną oferuje ogromny potencjał wydajności. Może również zapewnić spokój pacjentom czekającym na potencjalnie złe wieści.

m-Zdrowie i e-Zdrowie

Aplikacje zapewniające pomoc medyczną za pośrednictwem urządzenia mobilnego (m-zdrowie) lub komputera (e-zdrowie) dostarczają pacjentowi regularnej informacji zwrotnej, a dla większości platforma mobilna stała się całkiem znana i łatwa w nawigacji. W tym miejscu należy podkreślić, że przepaść cyfrowa istniejąca między pokoleniami, zwłaszcza między młodymi a osobami starszymi, nie dotyczy wszystkich form technologii. Podczas gdy osoby starsze unikały niektórych technologii, technologia mobilna została przyjęta jako sposób na utrzymywanie kontaktu z wnukami przez osoby starsze i coraz częściej jest wykorzystywana do wspierania samokontroli stanu zdrowia. W przypadku osób starszych przypomnienia tekstowe są pomocne w przypadku leków (np. przyjmowania lub podawania leków i uzupełnienie). Inne udane zastosowania m-zdrowia obejmują przypomnienia tekstowe dotyczące zaprzestania palenia i opieki prenatalnej. Dwa dobre przykłady e-zdrowia to portal diabetologiczny i strona edukacyjna dotycząca przewlekłej obturacyjnej choroby płuc, które pomagają w leczeniu chorób. Pacjenci mogą zdecydować się na oglądanie przez personel medyczny swojego lekarza w celu dodatkowego nadzoru i komunikacji. Telemedycyna dostarczana za pośrednictwem m-zdrowia lub e-zdrowia jest bardzo obiecująca dla osób starszych.

Zastrzeżenia do telemedycyny

Istnieje wiele obiekcji i barier w adopcji telemedycyny. W Stanach Zjednoczonych istnieje tylko kilka mechanizmów zwrotu kosztów zapewniających usługodawcy za świadczoną opiekę, a większość z nich nie istniała przed 2009 r. Niektóre organizacje opieki zdrowotnej uważają, że ich personel nie ma odpowiedniego przeszkolenia technicznego, aby nadążyć za wymagania telemedycyny. Inni uważają, że zagrożenie dla prywatności a poufność danych jest zbyt wysoka. Największą siłą telemedycyny jest jej zdolność do łączenia bliskości poprzez dostarczanie leków za pośrednictwem technologii telekomunikacyjnych, takich jak społeczności wiejskie i kraje słabiej rozwinięte, ale społeczności te zwykle nie mają szybkiego Internetu, co wykluczałoby wiele synchronicznych modalności. Ponadto, podczas gdy telemedycyna może obejmować duże odległości, inne kluczowe ograniczenia to licencja na wykonywanie zawodu, która jest ograniczona do państwa wydającego; język używany przez każdą ze stron; I socjokulturowe różnice między pacjentem a świadczeniodawcą. Pokonanie tych barier będzie wymagało współpracy wielu różnych interesariuszy i pewnego rodzaju programu edukacyjnego, aby upewnić się, że pacjenci rozumieją technologię, terminologię i kontekst kliniczny związany z tą metodą opieki.



Powrót

Telewizja i Internet




Telewizja i Internet są ze sobą ściśle powiązane. Zmienia się sposób, w jaki ludzie oglądają telewizję. Ponieważ oglądalność tradycyjnej telewizji spada w każdej większej grupie demograficznej poniżej 50 roku życia nastąpił ogromny wzrost oglądalności wideo w Internecie. Za tymi zmianami wzorców oglądania kierują Generacja Y, czyli Millenialsi, urodzeni w latach 1977-1990, oraz młodsi konsumenci, określani jako Generacja Z lub cyfrowi tubylcy. Nawyki korzystania z mediów przez te młodsze pokolenia stają się nową normą. Twórcy i menedżerowie mediów muszą zrozumieć te zmiany i dostosować się do nich. Ta "nowa normalność" to świat, w którym młodzi ludzie są stale połączeni za pośrednictwem urządzeń mobilnych i sieci społecznościowych, a ich oczekiwania w zakresie wyboru, kontroli i personalizacji są czymś oczywistym. Ten wpis dotyczy prekursorów telewizji internetowej, wczesnych wersji telewizji internetowej, wpływu użytkowników na telewizję internetową, powstania "telewizji społecznościowej" i przyszłości telewizji.

Telewizja przedinternetowa

Próbując uporać się z dynamiczną relacją między Internetem a telewizją, warto poznać historię, która doprowadziła nas do tego punktu. Telewizja weszła do krajobrazu medialnego prawie pół wieku przed Internetem. Wczesne telewizory były małe (zwykle 14-17 cali), były bardzo drogie i wyświetlały całą zawartość w czerni i bieli. Większość ludzi doświadczyła ich najpierw w miejscu publicznym, takim jak bar lub dom towarowy. Było tylko kilka kanałów, a większość programów była nadawana na żywo. Oglądanie grupowe było powszechne, ponieważ w gospodarstwie domowym był tylko jeden telewizor. Szereg postępów technologicznych doprowadził do zmian w oglądaniu, a co za tym idzie, w treści. Postępy te obejmowały bezprzewodowe piloty zdalnego sterowania w latach pięćdziesiątych XX wieku, które ułatwiły zmianę kanałów i dały widzom większą kontrolę nad tym, co oglądają; telewizory kolorowe w latach 60. XX wieku, które poprawiły wrażenia podczas oglądania; z czasem telewizory z niższymi kosztami, co skłoniło gospodarstwa domowe do zakupu drugiego i trzeciego zestawu, zachęcając do oddzielnego oglądania w różnych pokojach, a co za tym idzie, do bardziej wyspecjalizowanych treści dostosowanych do różnych zainteresowań; telewizja kablowa w latach 70. i 80. XX wieku, która znacznie zwiększyła liczbę kanałów w Stanach Zjednoczonych (w Europie telewizja satelitarna odegrała większą rolę w zwiększaniu liczby dostępnych kanałów), prowadząc do jeszcze bardziej wyspecjalizowanych kanałów; magnetowidy, które pozwalają ludziom nagrywać programy i oglądać je w późniejszym czasie, uwalniając wielu od ramówki; małe anteny satelitarne w latach 90., które rozszerzyły zasięg telewizji na prawie wszystkich; i cyfrowe magnetowidy pod koniec lat 90., co jeszcze bardziej ułatwiło ominięcie ramówki telewizyjnej i nagrywanie dużych bloków programowych, zachęcając niektórych do oglądania całych serii programów w weekend lub inny okres z wolnym czasem. Te zmiany technologiczne wpłynęły na czas, w którym ludzie mogli oglądać telewizję (według harmonogramu lub poza nim), przepustowość usługi (oraz oczekiwanie coraz większej ilości treści w miarę upływu czasu), miejsce oglądania (wiele pokoi w domu) oraz poczucie większej kontroli nad treścią. Oczekiwania te pomogły przygotować grunt pod reakcje ludzi na Internet i telewizję internetową.

Wczesna telewizja internetowa

Od początku do połowy lat 90. w Internecie nie było żadnych filmów. Pod koniec lat 90. można było przesyłać wideo przez Internet, ale jakość była ogólnie niska, zwłaszcza w porównaniu z tym, czego widzowie oczekiwali od telewizji. Niemal wszystkie gospodarstwa domowe miały dostęp do Internetu za pośrednictwem linii telefonicznej, a linie telefoniczne po prostu nie miały możliwości przesyłania strumieniowego wideo wysokiej jakości. Obrazy często zacinały się, miały rozmiar znaczka pocztowego na ekranie i najczęściej nie synchronizowały strumieni audio i wideo. Uruchomiono wiele start-upów, aby świadczyć usługi przesyłania strumieniowego wideo, ale prawie wszystkie upadły. Niektóre telefony komórkowe w tamtym czasie mogły uzyskiwać dostęp do strumieniowego wideo i wyświetlać je, ale wrażenia nie były lepsze. Główne firmy medialne uznały, że telewizja internetowa nie jest gotowa na prime time i czekały na lepsze warunki technologiczne do uruchomienia usług. Jednym ze sposobów obejścia problemu z przepustowością było wysłanie wideo jako pliku w czasie innym niż rzeczywisty i obejrzenie go później (często nazywane udostępnianiem plików wideo). Napster jako jeden z pierwszych uruchomił usługę udostępniania plików wideo. Jednak wiele treści zostało pirackich przez osoby, które chciały udostępnić je rówieśnikom (peer to peer lub P2P w żargonie branżowym), co doprowadziło do wielu sporów prawnych. Co więcej, nie miały realnego modelu biznesowego i zostały zamknięte na początku XXI wieku. Uruchomiono wiele innych usług P2P, ale większość z nich również zakończyła się niepowodzeniem. BitTorrent uruchomił usługę P2P w latach 2002-2003 i miał większą moc przetrwania. W połowie pierwszej dekady XXI wieku wszystko się zmieniło. Najważniejszą zmianą było to, że łącza szerokopasmowe zostały szeroko rozpowszechnione, a większość gospodarstw domowych dysponowała przepustowością umożliwiającą strumieniowe przesyłanie wideo. Co więcej, mniej więcej w tym czasie pojawiły się smartfony, dając ludziom możliwość nie tylko oglądania strumieniowego wideo poza domem, ale także nagrywania wideo za pomocą urządzenia, które zawsze było z nimi. Ponadto YouTube uruchomił usługę, w której mogli przesyłać te filmy. Kiedy telewizja internetowa zaczęła się rozwijać, niektórzy zagorzali internauci (ci, którzy wierzą w Internet z niemal religijnym zapałem) przewidzieli, że będzie to śmierć zwykłej telewizji. Daleka od sygnalizowania śmierci telewizji, telewizja internetowa rozwinęła symbiotyczny związek ze zwykłą telewizją, ponieważ każda z nich łączyła się i uzupełniała drugą. Duże firmy medialne weszły na scenę, tworząc usługi przesyłania strumieniowego dla swoich poszczególnych kanałów telewizyjnych i rozwijając witryny zbiorcze, takie jak Hulu, które zawierały treści z wielu źródeł.

Internet i telewizja w epoce nowożytnej: podstawowa charakterystyka

Istnieje kilka podstawowych cech telewizji internetowej. Pierwszym z nich jest powszechne zastosowanie łączy szerokopasmowych o dużej przepustowości w domach prywatnych i innych budynkach oraz wykorzystanie Wi-Fi do wysyłania sygnałów w tych budynkach. Ponadto publiczne stacje Wi-Fi są powszechne w wielu obszarach metropolitalnych, rozszerzając zasięg do miejsc publicznych. Sieci danych o większej przepustowości rozprowadzają telewizję internetową do smartfonów i innych odbiorników danych, takich jak niektóre tablety, które znajdują się w zasięgu wieży telefonii komórkowej. Drugą cechą charakterystyczną jest rozprzestrzenianie się urządzeń, które mogą odbierać i wyświetlać strumieniowe wideo. Obejmuje to zarówno liczbę osób posiadających takie urządzenia, jak i ich rodzaje (np. komputery stacjonarne i laptopy), komputery, tablety, smartfony i wiele urządzeń własnych). Uzupełnieniem są urządzenia, które mogą odbierać wideo z Internetu i przesyłać je do telewizorów. Są one często nazywane OTT (od over-the-top), takie jak konsole do gier wideo lub IPTV (telewizja z protokołem internetowym), które zapewniają internetowe usługi typu "ogród za murem", takie jak Apple TV, Roku i wiele inni. Ponadto nowa generacja inteligentnych telewizorów może uzyskiwać dostęp do telewizji internetowej i wyświetlać ją bez urządzenia OTT. Inne godne uwagi cechy to ogromne zróżnicowanie rozmiarów ekranu do oglądania wideo w Internecie, od kilku cali do 70 lub więcej cali; długość filmów, wahająca się od kilku sekund do godzin (w odróżnieniu od tradycyjnej telewizji, która zwykle trwa 30 lub 60 minut); i planowanie - niektóre są na żywo, inne są nagrywane, ale dostępne zgodnie z harmonogramem, a większość jest na żądanie. Telewizję internetową można również przeszukiwać i udostępniać za pośrednictwem linków z innych witryn lub postów w mediach społecznościowych, a także może być interaktywna. Internet w epoce nowożytnej przyniósł zakłócenia w tradycyjnych kanałach dystrybucji telewizyjnej. W telewizji migracja widzów, zwłaszcza młodszych widzów, z telewizji do internetu skłoniło sieci do bezpłatnego udostępniania swoich treści konsumentom internetowym. Początkowa dystrybucja odbywała się na witrynach sieciowych, takich jak nbc.com i abc.com. Dystrybucja przeniesiona do witryny niebędące markami sieciowymi, takie jak Hulu, które agregują treści sieciowe online. Wraz z rosnącą dostępnością i szybkością dostępu online, konsumenci oczekują teraz dostępu do preferowanych treści wideo/telewizyjnych online, zawsze i wszędzie, co prowadzi wielu młodszych konsumentów do "odcięcia kabla" lub "ignorowania kabla" i szukania treści online.

Nowe sieci zakłócają tradycyjne modele telewizji

Niezależnie od dotychczasowych modeli, gracze online/wyłącznie cyfrowi, tacy jak Netflix i Amazon Prime, dostarczają treści bezpośrednio do konsumenta, omijając tradycyjne modele dystrybucji i tworząc nowe możliwości dostępu do treści OTT. W czerwcu 2012 r. Netflix osiągnął kamień milowy, stając się "najczęściej oglądaną siecią" w Stanach Zjednoczonych, przewyższając czas oglądalności telewizji kablowej i telewizyjnej. W listopadzie 2016 r. Netflix i YouTube odpowiadały za połowę całego ruchu internetowego. Ten przyspieszony wzrost oglądalności wideo można również przypisać szybkiemu wzrostowi oglądalności na urządzeniach mobilnych, około 40% wzrostu rok do roku, co odegrało dużą rolę w rozwoju przeglądania wideo w Internecie za pośrednictwem telefonów komórkowych i tabletów. Nowe internetowe sieci telewizyjne zachowują modele biznesowe zbliżone do tradycyjnych sieci telewizyjnych. Obejmuje to reklamy (np. w Hulu, YouTube, AOL.on), subskrypcje (Netflix, Amazon Prime, Hulu Plus) i payper-view (Apple TV). Wraz z przejściem widzów na platformy internetowe, tradycyjni gracze, tacy jak HBO, ESPN i CBS, zaczęli oferować również modele OTT, umożliwiając konsumentom dostęp do ich treści bezpośrednio przez Internet z pominięciem tradycyjnych odtwarzaczy kablowych lub satelitarnych. Zmieniają się również firmy telekomunikacyjne oferujące usługi IPTV, które były modelem ogrodu otoczonego murem. W 2016 r. AT&T uruchomiła usługę bezpośredniej transmisji strumieniowej telewizji internetowej DirectTV Now.

Powstanie zagregowanych platform treści tworzonych przez użytkowników

YouTube obniżył bariery wejścia dla twórców treści wideo. Nowe "gwiazdy internetu", takie jak Felix Kjellberg, znany również jako PewDiePie, osiągnęły za pośrednictwem platformy aż 50 milionów obserwujących. Ponadto nowe agregatory treści online znane jako sieci wielokanałowe, takie jak Maker Studio i AwesomenessTV, działają jako pośrednicy, pomagając promować treści generowane przez użytkowników w YouTube. W 2015 roku Disney kupił Makers Studio, a DreamWorks AwesomenessTV. "Nowe sieci" docierają do coraz większej liczby widzów, zapewniając wartość konsorcjalną dla tradycyjnych dostawców treści poprzez dystrybucję online. Platformy, które pobierają opłatę subskrypcyjną, takie jak Netflix, Apple TV i Amazon, generują znaczące przychody dla właścicieli treści. Na przykład programy NBC można znaleźć nie tylko w sieci nadawczej, naziemnej, kablowej i satelitarnej, ale także poprzez subskrypcje Netflix, Amazon lub Apple TV. Zapewnia to dodatkowy dochód i dostęp do nowych widzów online. NBC zbudowała również markowy kanał na YouTube, który opiera się na reklamach.

Powstanie profesjonalnie wyprodukowanych oryginalnych treści online

Wzrost oglądalności wideo online wymusił tworzenie oryginalnych, profesjonalnych treści tworzonych dla sieci przez nowe sieci. Obejmuje to wysokiej jakości taryfy, takie jak Netflix′s House of Cards, który odniósł krytyczny i komercyjny sukces od czasu emisji w lutym 2013 r. Ponadto Netflix wprowadził nowy sposób oglądania telewizji, udostępniając jednocześnie wszystkie 13 odcinków pierwszego sezonu , umożliwiając widzom pełną kontrolę nad tym, jak, gdzie i kiedy oglądają treści. Wielu widzów oglądało jednocześnie kilka odcinków lub cały sezon serialu. Zjawisko to określane jest jako binge lub maraton oglądania. Co ważniejsze, stworzył wyjątkową ofertę dla abonentów Netflix, trudną do odtworzenia przez tradycyjną platformę telewizyjną, która przestrzega tradycyjnego modelu planowania. Dostawcy telewizji internetowej zmieniają telewizję w znacznie bardziej spersonalizowane doświadczenie. Na przykład Netflix używa algorytmu do śledzenia preferencji oglądania i dzielenia się rekomendacjami znajomych, co jest funkcją trudną do powielenia wśród tradycyjnych dystrybutorów treści telewizyjnych. Od 2013 roku oryginalne treści telewizji internetowej, takie jak Transparent Amazona Prime i Netflix Orange Is the New Black, konkurują z tradycyjnymi produkcjami telewizyjnymi i zdobywają najwyższe branżowe nagrody.

Powstanie telewizji społecznej

Zarówno tradycyjni, jak i internetowi dostawcy telewizji przyjęli media społecznościowe zarówno do dystrybucji, jak i sprzedaży swoich treści poprzez udostępnianie i dyskusję na temat treści telewizyjnych na platformach takich jak między innymi Facebook i Twitter. Media społecznościowe są również wykorzystywane do tworzenia "transmedialnych" (tj. wieloplatformowych historii) i wzmacniania zaangażowania w programy emitowane w telewizji. Dzięki sieciom społecznościowym rozmowy dotyczące treści telewizyjnych zostały znacznie wzmocnione. Na przykład w lutym 2013 r. transmisja National Football League Super Bowl zgromadziła rekordową liczbę 162,9 mln widzów i 24,9 mln tweetów związanych z meczami. Zwiększyło to zasięg programu i stworzyło wieloplatformowe wydarzenie cyfrowe. Zasięg sieci społecznościowych dla treści wideo rośnie. W 2016 roku Facebook był drugą najpopularniejszą platformą do konsumpcji wideo po YouTube, a jego zasięg znacznie przewyższał zasięg czterech głównych sieci nadawczych. Snapchat, efemeryczna sieć społecznościowa, stała się znaczącą platformą przeglądania. W 2016 r. Snapchat generował codziennie 10 miliardów filmów dzięki funkcji "Moje historie". Snapchat podpisał między innymi umowy dotyczące oryginalnych krótkich programów i filmów dokumentalnych z Turnerem, dokumentami POV (punkt widzenia) i kanałami informacyjnymi, w wyniku czego coraz bardziej przypomina platformę telewizyjną. Tak zwana Snapchat TV może dać wgląd w to, jak telewizja internetowa będzie wyglądać w przyszłości.

Przyszłość telewizji internetowej

Patrząc na przyszłość telewizji internetowej, można rozważyć następujące kwestie:

- Infrastruktura: Rozwój telewizji internetowej jest uzależniony od jakości i przepustowości sieci dystrybucyjnych. Wraz z rozprzestrzenianiem się treści wideo i rosnącym wykorzystaniem Internetu do dystrybucji treści telewizyjnych/wideo niezbędna jest możliwość zarządzania dużym natężeniem ruchu w niezawodny i ekonomiczny sposób. Niektóre rządy, takie jak Korea Południowa, zainwestowały w rozwój sieci dystrybucyjnych o bardzo dużej przepustowości. Inne rządy polegały na sektorze prywatnym w finansowaniu sieci dystrybucji. Czy rządy powinny inwestować w infrastrukturę internetową w ramach swojej polityki gospodarczej?
- Regulacje: W przeciwieństwie do tradycyjnej dystrybucji telewizyjnej, która jest zgodna z surowymi wytycznymi regulacyjnymi, telewizja internetowa jest obecnie w większości nieuregulowany. Obejmuje to wytyczne dotyczące reklam i wymagania dotyczące treści. Wraz ze wzrostem korzystania z telewizji internetowej jest to kwestia, którą należy wziąć pod uwagę. Orzeczenie w sprawie neutralności sieci dotychczas uniemożliwiło dostawcom Internetu faworyzowanie określonych dostawców treści, zapewniając im w ten sposób szybsze połączenia dla ich klientów. Czy wraz z rozwojem dystrybucji cyfrowej równy dostęp do telewizji internetowej powinien być zapewniony poprzez regulację?
- Treści: Internet/telewizja cyfrowa rozszerzyła możliwości tworzenia treści za pośrednictwem platform, takich jak YouTube, oraz nowych sieci, takich jak Netflix. Obejmuje to zarówno potencjalne tworzenie nowych formatów telewizyjnych/wideo, jak i możliwość dotarcia do szerokiej gamy odbiorców masowych i niszowych. Jednak usługi dystrybucji oparte na algorytmach, takie jak Netflix i Amazon Prime, które obiecują spersonalizowane wrażenia podczas oglądania, mogą uniemożliwić dostęp do szerszego spektrum treści, które niekoniecznie są zgodne z wcześniejszymi wzorcami oglądania przez klientów. Czy należy wymagać różnorodności treści?
- Modele biznesowe: Należy również zbadać finansowe aspekty produkcji i dystrybucji nowego biznesu telewizyjnego przez Internet. W przeszłości Internet był kwestionowany przez pogląd, że treści w Internecie powinny być bezpłatne (lub niedrogie). Jakie modele biznesowe i modele przychodów powinien zawierać Internet i śledzić telewizję, aby się utrzymać? Internet i rewolucja cyfrowa stwarzają ogromne możliwości dla branży telewizyjnej i jej konsumentów. Istnieje więcej platform do produkcji i dystrybucji treści oraz potencjalnie większy wybór dla widzów. Ponieważ postęp w tej dziedzinie jest szybki, ważne jest, aby stale śledzić ewolucję telewizji internetowej.



Powrót

Telepraca




Telepracę lub telepracę można ogólnie zdefiniować jako pracę wykonywaną niezależnie od czasu i miejsca, przy pomocy technologii informacyjno-komunikacyjnych (ICT). Pomimo wysokich oczekiwań, głównie ze względu na szybki postęp w ICT, tylko niewielka część pracowników z Ameryki Północnej i Europy regularnie pracuje zdalnie. Telepracownicy zazwyczaj od czasu do czasu pracują w swoich domach, kontynuując obowiązki już wykonane w siedzibie pracodawcy. Formalna telepraca na podstawie umowy o pracę pozostaje rzadkością, podczas gdy telepraca nieformalna i okazjonalna wydaje się być normą. Chociaż aktywni telepracownicy stanowią mniejszość populacji pracującej, telepraca ma wiele zalet, oferując możliwą sytuację, w której wszyscy zyskują zarówno pracownicy, jak i pracodawcy. Potencjalne zalety telepracy obejmują bardziej elastyczne godziny pracy i autonomię, lepszą produktywność i rentowność, większą satysfakcję z pracy, motywację i pozytywną tożsamość zawodową. Sugerowano również, że telepraca może pomóc w stworzeniu pozytywnego wizerunku firmy, zmniejszeniu wskaźników spóźnień i absencji oraz oszczędności kosztów infrastruktury i przestrzeni biurowej. Ponadto telepraca może mieć pozytywny wpływ na środowisko poprzez ograniczenie dojazdów do pracy , problemy z ruchem drogowym i zatory w miastach. Chociaż telepraca w dużym stopniu zależy od technologii, jest przede wszystkim innowacją społeczną i kulturową, która wciąż jest w powijakach. W tym ciągłym procesie zmian kulturowych i społecznych rolą technologii jest działanie jako siła umożliwiająca, a nie napędzająca. Postępy w ICT zwiększyły elastyczność i mobilność pracy, ale mimo to większość pracowników nadal przywiązuje większą wagę do społeczności w miejscu pracy niż do elastyczności zapewnianej przez telepracę. Z drugiej strony wielu menedżerów niechętnie przechodzi na cele oparte na wynikach, zamiast mierzyć czas pracy i frekwencję. Telepraca była szeroko badana przez ostatnie cztery dekady, z mieszanymi wynikami. Badania, które wykazały pozytywne skutki telepracy, zostały skontrastowane z innymi badaniami wskazującymi na negatywne skutki. Wydaje się niemożliwe ustalenie, czy telepraca jest ostatecznie "dobra", czy "zła". Aby telepraca stała się realną alternatywą dla bardziej tradycyjnych organizacji pracy, należy ją rozumieć w kontekście historycznym i społecznym, a jej potencjalne korzyści i wady należy oceniać w odniesieniu do indywidualnych potrzeb i różnych uwarunkowań organizacyjnych. Ten wpis analizuje historię telepracy, jej konstrukcję społeczną, sposób jej definiowania i mierzenia oraz jej zalety i wady.

Krótka historia telepracy

Idea telepracy zaczęła zyskiwać na popularności w latach 70., kiedy kryzys energetyczny wstrząsnął uprzemysłowionym światem i wiele zamożnych gospodarek zostało zmuszonych do ograniczenia zużycia energii. W 1976 roku amerykański fizyk i inżynier Jack Nilles wraz ze współpracownikami z University of Southern California opublikowali przełomową książkę The Telecommunications-Transportation Tradeoff: Options for Tomorrow, w której przedstawili obliczenia dotyczące oszczędności dla gospodarki narodowej, jakie powinny wynikać z zmniejszone dojazdy. W tamtym czasie uważano, że rosnące problemy związane z rosnącymi cenami ropy naftowej i korkami w rozwijających się obszarach miejskich można złagodzić, ustanawiając centra telepracy (lub teledomki) i zachęcając ludzi do pracy z domu. Jak sam mówi, Nilles przekonał się, że praca zdalna ma przyszłość, siedząc w samochodzie utkniętym w korku. Zespół badawczy Nilles oparł swój optymizm na dwóch kluczowych przesłankach, które nadal podtrzymują zainteresowanie telepracą. Zaobserwowali, że równolegle z pojawieniem się i rozwojem ICT, coraz większa część zatrudnionej populacji jest zaangażowana w tworzenie, przesyłanie, przetwarzanie i/lub przechowywanie informacji - pracę, która niekoniecznie wymaga fizycznej obecności pracownika. Biorąc pod uwagę możliwości, jakie dają nowe technologie telekomunikacyjne, wydawało się prawdopodobne, że wielu pracowników branży informatycznej może pracować zdalnie. Uzasadnienie tego argumentu było solidne. Zanim Nilles i jego współpracownicy opublikowali swoje badania, było już dobrze znanym faktem, że zawody informacyjne stanowią coraz ważniejszą część amerykańskiej siły roboczej. Chociaż Nilles był pierwszym autorytetem naukowym, który spopularyzował ideę telepracy lub telepracy, nie był sam w dążeniu do zbadania tego zjawiska. Nilles przypisał później Richardowi Harknessowi, który opublikował rozprawę doktorską zatytułowaną Technology Assessment of Telecommunications/Transport Interactions na Uniwersytecie Stanforda w 1977 roku, jako jedno z jego wczesnych źródeł inspiracji. Nie jest jednak jasne, kiedy pojawiła się wizja telepracy. Według Ursuli Huws, jednej z najbardziej znanych autorytetów w dziedzinie telepracy, pojęcie elektronicznego pracownika domowego istnieje w literaturze dotyczącej automatyzacji co najmniej od 1957 roku. W sektorze publicznym pierwsze próby sformułowania federalnej polityki i programów telepracy podjął rząd USA na przełomie lat pięćdziesiątych i sześćdziesiątych XX wieku, chociaż istniały przykłady pojedynczych agencji, które miały jeszcze dłuższą historię formalnej telepracy, jak również nieformalnej pracy w domu.

Społeczna konstrukcja technologii

Choć trudno jest prześledzić intelektualne i historyczne korzenie telepracy, faktem pozostaje, że idea pracy wolnej od barier przestrzennych i czasowych stała się popularna w latach 70. i mainstreamowych mediów. Stały postęp w dziedzinie technologii informacyjno-komunikacyjnych, Internetu, aw szczególności różnych rozwiązań do pracy grupowej, nie tylko podtrzymał zainteresowanie tematem, ale także sprawił, że praca i współpraca na odległość są łatwiejsze niż kiedykolwiek wcześniej. Wiele wczesnych dyskusji na temat telepracy koncentrowało się wokół pojęcia determinizmu technologicznego, czyli roli technologii informacyjnej jako kluczowego czynnika napędzającego rozwój społeczny. Nie jest przypadkiem, że koncepcja telepracy zaczęła zyskiwać na popularności w latach 70., kiedy rewolucja mikroelektroniczna zagościła w świadomości społecznej. Telepraca ma wyraźny związek z szybkim rozwojem ICT, chociaż oczywiście ludzie wymieniali informacje na odległość od czasów starożytnych. Nowością w tej dyskusji było jednak powszechne rozważanie możliwości, że technologie informacyjno-komunikacyjne mogą stanowić realny substytut interakcji fizycznej. W przeciwieństwie do wczesnego entuzjazmu dla telepracy, bardziej krytyczne i realistyczne oceny pojawiły się pod koniec tysiąclecia. Badania zorientowane socjologicznie podkreślały, że technologia jest zawsze kształtowana społecznie i kulturowo. Tak jak każda wcześniejsza technologia, komputery nabierają znaczenia dopiero w rękach rzeczywistych użytkowników. Innymi słowy, przyjęcie telepracy nie zależy wyłącznie od dostępności technologii informacyjnej; równie ważne są czynniki kontekstowe, takie jak kultura organizacyjna, praktyki zarządzania i indywidualne preferencje. To samo dotyczy na przykład kształcenia na odległość i telemedycyny, które również dojrzewały w latach 70., a później zostały przyjęte przez główny nurt.

Jak zdefiniować i zmierzyć telepracę

Trudno o jednoznaczną i zwięzłą definicję telepracy. Dokładne znaczenie tego pojęcia różni się w zależności od badania. Możliwość pracy niezależnej od czasu i miejsca z pomocą ICT może obejmować pracę z domu, w podróży, w biurach satelitarnych lub kawiarenkach internetowych w niepełnym lub pełnym wymiarze godzin. Oprócz telepracy przestrzenne i czasowe rozproszenie pracy zostało określone jako praca rozproszona, praca hybrydowa, praca mobilna/wielolokacyjna, praca wirtualna i e-praca. W ostatnich latach definicja została nawet rozszerzona, aby objąć stanowiska przeniesione do zdalnych biur, centrów przetwarzania danych i centrów obsługi telefonicznej. W niektórych badaniach dokonano rozróżnienia między telepracą a telepracą. To pierwsze kojarzone jest z każdym rodzajem pracy wykonywanej poza tradycyjną przestrzenią biurową, która jest wspomagana przez ICT, podczas gdy drugie odnosi się do ograniczonego dojazdów do pracy. Ponadto, zgodnie z ustawodawstwem krajowym, do pracy na odległość stosuje się wiele różnych form zawierania umów. Chociaż większość badań dotyczących telepracy ogranicza się do osób najemnych, istnieją projekty badawcze, w których uwzględniono populację samozatrudnionych. Jednak jak dotąd większość badań koncentrowała się na płatnej telepracy w domu. Mając na uwadze powyższe rozważania, pomiar telepracy jest zadaniem żmudnym, co utrudnia oszacowanie rzeczywistej powszechności tego zjawiska. W praktyce nie ma wspólnej, jednoznacznej definicji telepracy, ponieważ obejmuje ona wiele różnych sytuacji pod względem wykorzystywanej technologii, lokalizacji, czasu pracy i ustaleń umownych. Statystyki dotyczące telepracy najlepiej zatem interpretować z przymrużeniem oka, ponieważ wyniki mogą się znacznie różnić w zależności od zastosowanego narzędzia badawczego. Na przykład amerykańska firma Gallup monitoruje rozwój telepracy od 1995 roku w ramach swojej corocznej ankiety Praca i edukacja. W latach 1995-2015 odsetek pracujących Amerykanów w wieku 18 lat i starszych, którzy twierdzą, że pracowali zdalnie, wzrósł z 9% do 37%. W ankiecie wykorzystano następującą pozycję ankiety: "Czy kiedykolwiek pracowałeś zdalnie, czyli pracowałeś z domu, używając komputera do komunikowania się w pracy?" Choć rosnąca liczba telepracujących Amerykanów na pierwszy rzut oka może wydawać się imponująca, warto zagłębić się nieco w wyniki Gallupa. Zgodnie z komunikatem prasowym Gallupa praca zdalna pozostaje raczej wyjątkiem niż regułą, pomimo faktu, że obecnie większy odsetek pracowników w USA twierdzi, że pracował zdalnie niż w przeszłości: przeciętny pracownik pracuje zdalnie tylko 2 dni w miesiącu, a prawie połowa (45%) respondentów pracujących zdalnie robi to poza normalnymi godzinami pracy lub w weekendy, oprócz chodzenia do biura. Odkrycia Gallupa są poparte wieloma badaniami naukowymi. Telepraca z domu zwykle uzupełnia tradycyjne formy pracy. Literatura naukowa wskazuje również, że telepraca z domu ma często charakter nieformalny. Uzupełnia i kontynuuje zadania wykonywane w obiektach pracodawcy. Telepraca rzadko zastępuje formalne godziny pracy w ciągu dnia - w rzeczywistości może wydłużyć czas pracy kosztem czasu wolnego, co dla niektórych osób oznacza niekorzystne konsekwencje. Ten rodzaj wzorca zaobserwowano w Stanach Zjednoczonych. W analizie opartej na Current Population Survey (CPS) z 2001 roku stwierdzono, że tylko 3,4% pracowników w USA pracowało z domu za wynagrodzeniem, podczas gdy 12,5% pracowników pracujących w domu nie miało formalnej umowy z pracodawcą. W innym reprezentatywnym badaniu amerykańskim, obejmującym lata 1997-2004, stwierdzono, że telepracownicy mieli dłuższe tygodnie pracy niż osoby niebędące telepracownikami. Te dodatkowe godziny zasadniczo występowały jako praca w godzinach nadliczbowych. Zastrzeżeniem badania było to, że zdolność pracowników do pracy w domu może pozwolić pracodawcom na zwiększenie oczekiwań co do dostępności pracy wieczorami i w weekendy oraz sprzyjać dłuższym dniom roboczym i tygodniom pracy, stwarzając ryzyko dla równowagi między życiem zawodowym a prywatnym. W ciągu ostatnich kilku dekad rzeczywiście istniała silna międzynarodowa tendencja, zapoczątkowana przez Stany Zjednoczone, zmierzająca do intensyfikacji godzin pracy, po której może następować bardziej nieformalna praca w domu. Podobny schemat zaobserwowano w kontekście europejskim. W tym zakresie European Working . Kluczowym źródłem informacji jest badanie warunków klimatycznych (EWCS), przeprowadzane w odstępach 5-letnich. EWCS z 2005 r. ujawnia, że mniej niż 2% europejskich pracowników prawie cały czas było zaangażowanych w telepracę, a definicja brzmiała: "Czy Twoja główna płatna praca polega na pracy zdalnej z domu przy komputerze?" Siedem procent respondentów zgłosiło telepracę przez co najmniej jedną czwartą czasu. Najnowsze dostępne dane wskazują jedynie na marginalny wzrost telepracy w domu. Według EWCS z 2015 roku 3% respondentów deklarowało pracę zdalną głównie z domu. W EWCS nie dokonano rozróżnienia między telepracą formalną i nieformalną. Inne badania europejskie wskazują jednak, że nieformalne domowe, dominuje telepraca. Te ustalenia są zgodne z dowodami ze Stanów Zjednoczonych. Nieformalne nadgodziny w domu wydają się być normą zamiast telepracy zgodnie z umową o pracę. Ekonomiczne uzasadnienie tego rozwoju jest proste: wdrożenie prawnie uzgodnionej telepracy wiąże się z wyższymi kosztami transakcyjnymi niż nieformalne formy telepracy. W przypadku telepracy w pełnym wymiarze czasowym fizyczne obiekty i sprzęt powinny być również dostosowane do indywidualnych potrzeb. Z drugiej strony nieformalna i niepełnoetatowa telepraca umożliwia firmom i pracownikom skuteczne obejście tych kosztów. Chociaż praca zdalna jest głównie formą nieformalną i tylko marginalna część pracowników pracuje z domu w pełnym wymiarze czasu pracy, powszechność pracy w miejscach innych niż siedziba pracodawcy wydaje się rosnąć. W EWCS z 2010 r. jedna czwarta europejskich pracowników została uznana za elektronicznych nomadów, którzy od czasu do czasu pracują poza lokalem swojego pracodawcy lub własnej firmy i zwykle używają komputerów, Internetu lub poczty elektronicznej do celów zawodowych. Rozpowszechnienie "e-nomadów" różni się znacznie w zależności od kraju, od nieco ponad 5% w Albanii, Bułgarii, Rumunii i Turcji do ponad 40% w najbardziej zaawansowanych technologicznie i połączonych siecią krajach, takich jak Finlandia, Holandia , Szwecji i Danii. Na podstawie dostępnych danych można stwierdzić, że telepraca w domu wykonywana w sposób ciągły iw pełnym wymiarze czasu pracy dotyczy stosunkowo niewielkiej części pracowników. W przeciwieństwie do tego, nieformalne godziny nadliczbowe w domu, jak również praca nomadyczna wydają się być bardziej rozpowszechnione i rosną.

Potencjalne korzyści telepracy

Pomimo faktu, że absorpcja telepracy w domu była wolniejsza niż oczekiwano, a niektórzy krytycy uznali ją nawet za niekończącą się obietnicę, wiele dowodów wskazuje, że korzyści z telepracy mogą przewyższać możliwe koszty indywidualne i organizacyjne. Warto rozważyć zalety telepracy nie tylko ze względu na obietnicę umożliwienia bardziej elastycznych i produktywnych sposobów pracy, ale także ze względów ekologicznych. Korzyści z telepracy zidentyfikowane w literaturze naukowej można ująć w czterech głównych tematach. Po pierwsze, telepraca jest dobra dla środowiska. Zastąpienie fizycznej podróży telepracą mogłoby złagodzić zatłoczenie i problemy środowiskowe, a jednocześnie zmniejszyć wydatki na nieruchomości. Chociaż naiwnością jest sądzić, że telepraca mogłaby rozwiązać wszystkie problemy spowodowane dojazdami do pracy, bardziej elastyczne i dające się przenosić formy pracy mogłyby z pewnością zmniejszyć część zatorów komunikacyjnych, pomóc zmniejszyć poziom zanieczyszczenia środowiska i być może poprawić bezpieczeństwo ruchu drogowego. Systematyczne inwestowanie w bezpieczeństwo osób dojeżdżających do pracy, nie mówiąc już o ograniczeniu niepotrzebnego ruchu i ruchu, zwróciłoby się w postaci obniżenia kosztów ubezpieczenia i zmniejszenia ryzyka wypadków drogowych. Dodatkową korzyścią byłoby bardziej efektywne wykorzystanie powierzchni biurowej, gdyby udało się zmniejszyć liczbę stanowisk pracy. Po drugie, telepraca zwiększa autonomię pracowników, co może mieć pozytywny wpływ na produktywność. Postrzegana kontrola nad procesem pracy przyczynia się do dobrego samopoczucia pracowników i łagodzi stres, a to z kolei może zwiększać efektywność jednostek i organizacji. Nie jest jednak jasne, czy to sama telepraca wpływa na produktywność, czy też działa jakiś inny mechanizm. Ponieważ większość telepracowników zgłasza się na ochotnika lub prosi o pracę w domu, mogą być skłonni twierdzić, że odnieśli sukces. W każdym razie doświadczenia z telepracy, która jest częściowo wykonywana w domu, są zachęcające, mimo że panuje zgoda co do tego, że takie rozwiązanie najlepiej odpowiada ekspertom wykonującym niezależną pracę. Mobilna telepraca ma swoje zalety, choć nierealistyczne jest myślenie, że ICT wystarczą, aby zastąpić tradycyjne środowisko biurowe. Po trzecie, telepraca jest ważna dla dynamicznego i nowoczesnego wizerunku organizacji. Organizacje, które zachęcają pracowników do telepracy, mogą słusznie twierdzić, że poważnie traktują swoją społeczną odpowiedzialność biznesu, promując zrównoważony rozwój. Telepraca może również pomóc w stworzeniu pozytywnego wizerunku firmy w bardziej pośredni sposób. Możliwość telepracy mogłaby zapewnić firmie przewagę konkurencyjną, zarówno w rekrutacji nowych pracowników, jak iw motywowaniu i zatrzymywaniu obecnych pracowników. W sektorze publicznym telepraca mogłaby pomóc poprawić sztywną i biurokratyczną reputację sektora administracji lokalnej i centralnej. W przeciwieństwie do tego, co się powszechnie uważa, organizacje biurokratyczne bardzo dobrze nadają się do telepracy. Po czwarte, współpraca i tworzenie sieci ponad granicami państwowymi stało się ważnym źródłem konkurencyjności biznesu. Dobrym przykładem tego, jak wirtualne miejsca pracy pozwalają ludziom pracować nad tym samym projektem nie tylko w tym samym czasie w różnych miejscach, ale także kolejno i komplementarnie w różnych strefach czasowych, jest tworzenie oprogramowania. Kiedy fińscy specjaliści ds. bezpieczeństwa danych, firma F-Secure, otworzyli laboratorium wirusów w połączeniu z biurem sprzedaży w Dolinie Krzemowej, firma była w stanie zmniejszyć swoją zależność od badań prowadzonych wyłącznie w Helsinkach. Chociaż praca badaczy wirusów online jest w zasadzie niezależna od czasu i miejsca, ich obecność w dwóch różnych strefach czasowych może pomóc skrócić opóźnienie między wykryciem nowego wirusa a dystrybucją aktualizacji zabezpieczeń. Ponadto geograficzne rozmieszczenie badań nad wirusami zmniejsza ryzyko związane z lukami w sieciach regionalnych.

Potencjalne wady telepracy

Istnieje kilka możliwych powodów, dla których przejście na telepracę okazało się trudne. Chociaż dokładnych odpowiedzi należy szukać w odniesieniu do różnych uwarunkowań organizacyjnych, można stwierdzić, że integracja rozproszonych działań wymaga nowych form współpracy, koordynacji i kontroli. Zarządzanie procesem pracy jest łatwiejsze dla kierownictwa, gdy ludzie są fizycznie blisko siebie. Prawdopodobnie z tego powodu kierownictwo może niechętnie zaryzykować eksperymenty z telepracą. W szczególności telepraca w pełnym wymiarze godzin z domu i praca mobilna wymagają, aby kierownictwo skupiło się nie tyle na kontrolowaniu tego, jak i jak długo pracownicy pracują i co robią, ale na ich wydajności i wynikach. Systemy wynagradzania oparte na wynikach rzeczywiście zyskują obecnie na popularności w nowoczesnych organizacjach pracy, ale nadal obcy jest pomysł, aby kontrole zarządcze można było ograniczyć. Z punktu widzenia dystrybucji władzy w społecznościach zakładowych, zastosowanie telepracy na szeroką skalę może być może wybić dno starego i znanego hierarchicznego systemu zarządzania. W szczególności wiele stanowisk kierowniczych średniego szczebla może w konsekwencji zostać całkowicie zbędnych. Jednocześnie kierownictwo zostałoby wezwane do okazania większego zaufania pracownikom. Kolejną kwestią wartą omówienia w tym miejscu jest rozwój pracy zespołowej, co z założenia kłóci się z ideą telepracy. Podział zespołów jest tym bardziej problematyczny, im bardziej ciągłe i intensywne są kontakty wymagane przez pracę zespołową. Z punktu widzenia indywidualnego pracownika łatwiej jest wymieniać się pomysłami i prosić o pomoc w przypadku złożonych problemów, jeśli pracuje się w tej samej przestrzeni fizycznej z innymi. Co więcej, fizyczna bliska interakcja rodzi zaangażowanie w pracę i tworzy poczucie wspólnoty, które wykracza poza rzeczywistą organizację zespołu. W dużej mierze z tego powodu organizacje czysto wirtualne są bardzo rzadkie. Innym często pomijanym punktem jest to, że telepraca nie pasuje do wszystkich sytuacji życiowych. Niektóre rodziny mają małe dzieci, które są w domu przez cały dzień, podczas gdy dla niektórych praca jest jak dom. Inni czują się zobowiązani do pojawiania się w pracy każdego dnia. W niektórych przypadkach telepraca może być rozwiązaniem przyjaznym rodzinie, chociaż nie jest odpowiedzią na problemy godzenia pracy z rodziną, przynajmniej w tym sensie, że zastąpiłaby opiekę dzienną. Pierwszym warunkiem pomyślnej organizacji telepracy jest efektywne zarządzanie czasem oraz atmosfera wzajemnego zaufania i szacunku między pracownikiem a pracodawcą. Są to kluczowe problemy, które zostały poruszone w literaturze naukowej i które nadal pozostają nierozwiązane. Jest jednak jeden problem, który przewyższa wszystkie inne: relacje społeczne w miejscu pracy, w tym kontakty z klientami, są uważane za ważniejsze niż elastyczność zapewniana przez telepracę. To jest powód, dla którego niektóre duże firmy technologiczne, takie jak Yahoo, ograniczyły ostatnio swoim pracownikom możliwość pracy zdalnej. Osoby fizycznie odseparowane od środowiska pracy narażone są na wykluczenie z relacji społecznych, o ile nie podejmuje się świadomych starań o organizowanie regularnych spotkań i spotkań nieformalnych. Oddzielenie i wyobcowanie ze społeczności miejsca pracy można również uznać za zagrożenie dla awansu zawodowego. Z powodów przedstawionych powyżej ważne jest zwrócenie szczególnej uwagi na stworzenie systematycznego systemu informacji zwrotnej dla telepracowników. Kluczem jest dopasowanie warunków telepracy do indywidualnych potrzeb. Telepraca zawsze musi być własnym wyborem jednostki i zawsze musi istnieć możliwość powrotu. Jeśli jedynym motywem telepracy jest cięcie kosztów lub jeśli pracownik i kierownictwo nie uzgodnili wcześniej warunków umowy, to z pewnością będzie to krótkotrwały eksperyment. Technologia stwarza własne problemy. Wykorzystanie interfejsów elektronicznych jako środka interakcji społecznych stwarza ograniczoną przestrzeń dla owocnej i konstruktywnej komunikacji. Na przykład większość znaków niewerbalnych, a zwłaszcza gestów, zostanie utracona, gdy informacje zostaną skodyfikowane w krótkich wiadomościach e-mail lub rozmowach telefonicznych. Jest to bardzo problematyczne w sytuacjach konfliktów międzyludzkich mają skłonność do powstawania. Kiedy medium nie pozwala jednostkom wyrazić i zareagować na odpowiednie wskazówki społeczne, wzrasta ryzyko nieporozumień. Wideokonferencje lub seminaria internetowe (seminaria internetowe) są oferowane jako rozwiązanie tych problemów, ale wymagają starannego planowania i wiedzy technicznej. Jest również bardzo mało prawdopodobne, aby ukryte formy wiedzy ewoluowały i były przekazywane w najlepszy możliwy sposób między jednostkami, gdy interfejs elektroniczny określa granice interakcji międzyludzkich. Problemy współpracy wirtualnej zostały omówione w wielu studiach przypadków. Na przykład Matti Vartiainen i jego zespół z Uniwersytetu Technologicznego w Helsinkach badali wczesne początki fińskiego biznesu ICT zapoczątkowanego w 2000 roku. Rozwój młodej, rozwijającej się firmy został przyćmiony naiwną wiarą w adekwatność wirtualnej obecności ich pracowników, którzy opierały się na dwóch kontynentach. Największy i najważniejszy projekt firmy rozpoczął się konferencją telefoniczną, którą opisano jako raczej nudne i zagmatwane wydarzenie. Z perspektywy czasu uznano, że wszystkie osoby zaangażowane w projekt powinny siedzieć przy tym samym stole, aby każdy miał całkowitą jasność co do podziału pracy. Innym źródłem nieporozumień były różnice kulturowe. Fińska kultura szybkiego podejmowania decyzji nie pozostawiała wystarczającego miejsca na demokratyczny styl zarządzania, do którego przywykli szwedzcy robotnicy, ani na większe kierowanie i nadzór oczekiwane przez Amerykanów. Ponadto osoby pracujące poza siedzibą firmy w Helsinkach czuły się odizolowane i obawiały się, że zostaną pozostawione w ciemności. Niemniej jednak ich skrzynki e-mailowe były zalane wiadomościami, które uważali za niepotrzebne i które, jak się obawiali, zasypałyby ważne wiadomości. Wielu odnosiło się nawet do "terroryzmu e-mailowego". Chociaż projekt ostatecznie zakończył się sukcesem, wiele osób miało wrażenie, że jest dokładnie na odwrót. Do czasu zakończenia projektu wiele osób podjęło już nowe prace i dlatego nigdy nie doprowadzili projektu do końca. Niewystarczające były również informacje zwrotne na temat wyników personelu i ogólnego sukcesu, co potęgowało poczucie frustracji. Ważną lekcją, jaką można wyciągnąć z opisanego wcześniej studium przypadku, jest to, że komunikacja ponad granicami kulturowymi często powoduje nieprzewidywalne trudności. Im bardziej rozproszona organizacja, tym trudniej jest skoordynować jej pracę. Wirtualnego projektu nie da się zainicjować od zera: zawsze dobrze jest rozpocząć projekt od spotkania twarzą w twarz, wcześniej uzgodnić zasady komunikacji i stworzyć system informacji zwrotnej, który szanuje i przynosi korzyści wszystkim stronom w równym stopniu środki. Chociaż istnieją zachęcające przykłady pomyślnie rozproszonych organizacji, jest mało prawdopodobne, aby praca rozproszona kiedykolwiek całkowicie zastąpiła tradycyjne formy pracy.

Dalsze rozważania

Jednym z największych paradoksów telepracy i innych form pracy rozproszonej jest to, że niektórzy komentatorzy opowiadają się za tymi organizacjami pracy, które są niezależne od czasu i miejsca, jako uniwersalne zastosowanie do wszystkich rodzajów pracy, bez zastanawiania się nad różnicami organizacyjnymi i indywidualnych potrzeb. Jednak nie wszystkie miejsca pracy na całym świecie nadają się do telepracy. Chociaż telepraca nie każdemu odpowiada, może być realną opcją, którą warto rozważyć. Wiąże się to z wieloma pozytywnymi skutkami, w tym zwiększoną produktywnością organizacji i wynikami indywidualnymi. Nie jest jednak jasne, czy istnieje związek przyczynowy między telepracą a jej pozytywnymi skutkami. Możliwe, że telepracownicy po prostu pracują dłużej niż ich niepracujący rówieśnicy w biurze. Jeśli zabieranie pracy do domu lub praca w dni wolne za bardzo zwiększa całkowite obciążenie pracą, stwarza to ryzyko dla równowagi między życiem zawodowym a prywatnym, zdrowia i dobrego samopoczucia. Przy wszechobecnej technologii, laptopach i smartfonach z bezprzewodowym dostępem do Internetu łatwo wpaść w pułapkę pracoholizmu, jeśli nie dba się o kontrolowanie godzin pracy. Potrzeba bliskiej fizycznej współpracy z rówieśnikami jest jednym z najważniejszych powodów, dla których telepraca nie spełniła swoich początkowych obietnic. Inne przyczyny utrudniające reformy organizacyjne to przestarzałe normy i postawy kierownicze. Jeśli telepraca ma zostać przyjęta na dużą skalę, kierownictwo musi przenieść punkt ciężkości z tradycyjnych sposobów kontrolowania procesów pracy i zachowania pracowników na ocenę wydajności i wyników końcowych. Niezależnie od tych i innych możliwych problemów, telepraca oferuje wiele potencjalnych korzyści dla jednostek, organizacji i społeczeństwa (patrz podsumowanie w Tabeli 1). Jednak w przypadku większości organizacji zalecana może być tylko częściowa telepraca. W ten sposób można by osiągnąć kompromis między tradycyjnymi i wciąż eksperymentalnymi, rozproszonymi formami pracy - i być może udałoby się połączyć to, co najlepsze z obu światów. Ogólnie rzecz biorąc, warto wypróbować telepracę jako rozwiązanie mające na celu maksymalizację efektywności godzin pracy. Szczególnie w zawodach, które wymagają umiejętności kreatywnego rozwiązywania problemów, ważna jest możliwość pracy tak elastycznie, jak to możliwe, zgodnie z potrzebami i inspiracją. Na przykład telepraca z domu pozwala, przynajmniej w zasadzie, na ustalenie rytmu pracy najlepiej odpowiadającego własnym preferencjom. Z kolei w telepracy mobilnej presję czasu można opanować, dobrze wykorzystując czas oczekiwania i inne wolne chwile. Telepraca najlepiej nadaje się do pracy wymagającej spokoju i koncentracji, najlepiej zorganizowanej zgodnie z indywidualnym rytmem dnia, z dala od tłumów w biurze i zbędnych zakłóceń. Warto też pamiętać, że telepraca nie zawsze wymaga łączy telekomunikacyjnych. W rzeczywistości często dobrym pomysłem może być odłączenie laptopa od zasilania: ciągły napływ wiadomości e-mail i innych komunikatów może poważnie rozpraszać uwagę w pracy twórczej.



Powrót

Tencent




Tencent Holdings Limited (Tencent) jest jedną z największych spółek internetowych i holdingowych w Chinach, która zapewnia szeroką gamę produktów do mediów społecznościowych, stron internetowych i gier. Tencent inwestuje w ponad 70 firm, w tym w chińską witrynę internetową dla konsumentów JD.com; chińska firma zajmująca się udostępnianiem przejazdów i przywoływaniem samochodów, Didi Chuxing; oraz internetową firmę spożywczą Ele.me. Tencent jest znany ze swoich produktów społecznościowych QQ i WeChat. Jest także twórcą Tencent Games, największej platformy gier online w Chinach. Ponadto Tencent ma własną bramkę płatności online Tenpay i usługę mobilnego portfela cyfrowego WeChat Pay. Tencent dokonał pierwszej oferty publicznej na giełdzie w Hongkongu 14 czerwca 2004 r. I zebrał 1,55 miliarda dolarów hongkońskich (200 mln USD). Na koniec 2016 roku kapitalizacja rynkowa Tencent osiągnęła 1,96 biliona dolarów hongkońskich (250 miliardów dolarów), co czyni go drugą co do wielkości firmą internetową w Azji, po Alibabie. Tencent zatrudniał 38 775 pracowników w 2016 r. Siedziba firmy znajduje się w Shenzhen, a centra badawczo-rozwojowe i biura znajdują się w Szanghaju, Chengdu i Tianjin. Ten wpis dotyczy historii, produktów i kontrowersji Tencenta.

Historia

Tencent został założony w Shenzhen w listopadzie 1998 roku przez Huateng Ma, Zhidong Zhang, Chenye Xu, Yidan Chen i Liqing Zeng. Uruchomili swój pierwszy komunikator internetowy, OICQ, w lutym 1999 r., a później zmienili jego nazwę na QQ. Tencent otrzymał pierwszy napływ kapitału podwyższonego ryzyka w wysokości 2,2 mln USD od IDG i PCCW Ltd. w 1999 r. W 2001 r. MIH, spółka zależna południowoafrykańskiego giganta medialnego Naspers, kupiła 46,5% udziałów Tencent, co stanowi inwestycję 32 mln USD, stając się największym akcjonariuszem Tencent. Od 2016 r. MIH nadal posiadał 33,5% udziałów w Tencent i zachowywał się jak największy akcjonariusz Tencent. W 2002 roku Tencent zaczął sprzedawać wirtualne towary i członkostwa premium użytkownikom QQ, co było wówczas jedynym źródłem przychodów firmy. W 2003 roku Tencent wypuścił platformę gier online, QQ Game, która stała się kolejnym ważnym źródłem dochodów. Pozwoliło to użytkownikom QQ bawić się ze sobą. Od czerwca 2004 r. firma Tencent jest notowana na giełdzie Hang Seng w Hongkongu. Wkrótce po debiucie stał się aktywnym inwestorem w branży internetowej. W 2005 roku Tencent udostępnił użytkownikom QQ swoją usługę sieci społecznościowej QZone, która umożliwia użytkownikom QQ publikowanie i udostępnianie blogów, pamiętników, muzyki i zdjęć. Ze względu na wielkość użytkowników QQ, QZone szybko stał się jednym z największych portali społecznościowych w Chinach. W 2011 roku, aby dostosować się do szybkiego rozwoju smartfonów w Chinach, Tencent wypuścił aplikację mobilną WeChat, która integruje zarówno funkcje komunikatora, jak i sieci społecznościowych. W 2012 roku Tencent wprowadził WeChat na rynek międzynarodowy, a wkrótce potem uruchomił wersję wielojęzyczną. W 2016 roku liczba użytkowników WeChat osiągnęła 846 milionów. Tencent dodał funkcję płatności mobilnych do WeChat w 2014 roku. Tencent odgrywa również ważną rolę we wzroście rynku gier online w Chinach. W 2011 roku Tencent zainwestował 230 milionów dolarów w amerykańskiego producenta gier, firmę Riot Games, która opracowała popularną grę League of Legends i nabył ją w całości w 2015 roku. W 2012 roku Tencent dokonał strategicznej inwestycji w wysokości 330 milionów USD w innego amerykańskiego producenta gier, firmę Epic Games. W 2016 roku Tencent kupił fińską firmę produkującą gry Supercell za 8,6 mld USD. Obecnie Tencent jest największym wydawcą gier w Chinach, zarówno pod względem udziału w rynku, jak i przychodów.

Produkty

QQ


QQ to flagowe oprogramowanie do obsługi wiadomości błyskawicznych (IM) wprowadzone przez Tencent w 1999 roku. Jest to najczęściej używane oprogramowanie do obsługi komunikatorów internetowych w Chinach. W czerwcu 2016 roku odnotował 899 milionów aktywnych użytkowników miesięcznie, co uczyniło QQ trzecią co do wielkości grupą użytkowników komunikatorów internetowych na świecie po Facebook Messenger i WhatsApp. W lutym 1999 r. Tencent uruchomił oprogramowanie IM pierwszej generacji Open-ICQ lub OICQ, zapewniające swoim użytkownikom podstawowe usługi czatu online, czatu grupowego i przesyłania plików. Po skardze prawnej dotyczącej naruszenia znaku towarowego złożonej przez AOL, który był właścicielem oprogramowania ICQ do komunikatorów internetowych, Tencent zmienił nazwę OICQ na QQ w kwietniu 2000 r. Rozwój QQ jest równoległy do szybkiej ekspansji komputerów osobistych w Chinach w 2000 roku. 10 lutego 2001 r. QQ zarejestrowało 1 milion jednoczesnych użytkowników online. Liczba ta osiągnęła 10 milionów 16 lutego 2005 r. i 100 milionów 5 marca 2010 r. QQ jest rekordzistą Guinnessa pod względem największej liczby jednoczesnych użytkowników online w programie IM, z 210 212 085 użytkownikami online 3 lipca 2014 r. liczba wzrosła do 246,9 miliona użytkowników w 2016 roku. QQ obsługuje czat tekstowy, audio i wideo między kontaktami, a także między członkami grupy. Każdy użytkownik QQ otrzymuje numer konta, numer QQ. Podobnie jak numer telefonu, numer QQ może być używany do wyszukiwania i dodawania nowego kontaktu do istniejącego konta QQ. Konto QQ jest również połączone z innymi usługami internetowymi dostarczanymi przez Tencent, takimi jak poczta e-mail QQ, Tencent Weibo (mikroblog) i platforma gier online QQ. QQ umożliwia również czaty grupowe. Każdy zarejestrowany użytkownik QQ może utworzyć grupę QQ i wysyłać wiadomości tekstowe, głosowe i wideo w interfejsie czatu grupowego. Obsługuje również udostępnianie plików i łączy. QQ zapewnia użytkownikom kilka dodatkowych usług, które pomagają w tworzeniu ich tożsamości online. Użytkownicy mogą subskrybować członkostwo premium, aby uzyskać dostęp do ekskluzywnych usług, takich jak osobiste awatary i naklejki czatu, wyróżnianie nazwisk, dekoracje blogów i większa liczba kontaktów. Użytkownicy kupują również te usługi ? la carte za pomocą QQ Coins, wirtualnego systemu pieniężnego używanego w QQ, który można kupić online lub offline za gotówkę lub kartę.

WeChat

WeChat to mobilna sieć społecznościowa i aplikacja medialna wprowadzona przez Tencent w 2011 roku. Wykorzystuje urządzenie mobilne jako platformę do komunikacji błyskawicznej i sieci społecznościowych. Według raportu WeAreSocial (2017), WeChat odnotował 864 miliony aktywnych użytkowników w czerwcu 2016 roku, co czyni go piątą co do wielkości siecią społecznościową na świecie. Od 2016 roku WeChat był dostępny na wszystkich głównych platformach oprogramowania mobilnego oraz w 52 językach dla użytkowników na całym świecie. WeChat umożliwia przesyłanie wiadomości tekstowych, głosowych i wideo z kontaktami. Kontakty można dodawać za pomocą zarejestrowanych numerów telefonów, identyfikatora z kodem QR, nazwy użytkownika WeChat oraz radaru znajomych, który jest usługą lokalizacyjną wykrywającą użytkowników WeChat w pobliżu użytkownika. Przed 2016 rokiem Tencent umożliwiał również użytkownikom WeChat dodawanie kontaktów z ich list kontaktów QQ i wyszukiwanie nowych kontaktów za pomocą liczby QQ . W tym przypadku sukces QQ częściowo przyczynił się do wzrostu popularności WeChat, ponieważ istniejąca sieć QQ wspierała wzrost liczby użytkowników WeChat. WeChat obsługuje portfel cyfrowy i płatności mobilne. Tencent łączy również tę funkcję z niektórymi przedsiębiorstwami usług publicznych, umożliwiając korzystanie z aplikacji WeChat do opłacania rachunków za media i przejazdów tranzytowych. Użytkownicy WeChat mogą również używać tej aplikacji do wysyłania pieniędzy innym użytkownikom, ale są one ograniczone do maksymalnej kwoty przez przepisy rządowe. Ponadto WeChat posiada funkcję wysyłania czerwonych pakietów (pieniądze na prezenty) między przyjaciółmi. Tencent wprowadził tę usługę wirtualnej czerwonej koperty podczas Festiwalu Wiosny w 2014 roku. Kiedy po raz pierwszy została wprowadzona, w przeddzień Chińskiego Nowego Roku 2014 wysłano około 16 milionów wirtualnych czerwonych kopert. Wysyłanie czerwonych pakietów WeChat wkrótce stało się popularnym i modnym zwyczajem dla Chińczyków podczas Święta Wiosny. W 2017 roku w przeddzień chińskiego Nowego Roku wysłano ponad 14 miliardów wirtualnych czerwonych kopert. WeChat integruje również funkcję sieci społecznościowej Moments, która umożliwia użytkownikom udostępnianie linków, mikroblogi, zdjęcia i filmy tylko swoim kontaktom bezpośrednio z urządzeń mobilnych. Ponadto certyfikowani użytkownicy WeChat mogą ubiegać się o konto publiczne, które umożliwia im publikowanie artykułów promocyjnych. Jest to obecnie popularna forma niezależnych mediów lub samodzielnego publikowania w Chinach i jest dostępna dla wszystkich użytkowników mobilnych posiadających konta WeChat. WeChat jest wyposażony w dwa systemy cenzury dla użytkowników, jeden dla użytkowników z Chin, a drugi dla użytkowników zagranicznych. Użytkownicy zarejestrowani z chińskim numerem telefonu komórkowego zostaną ocenzurowani przez system filtrowania słów kluczowych zgodnie z wymaganiami chińskiego rządu. W takim przypadku wiadomości ze słowami kluczowymi umieszczonymi na czarnej liście są blokowane automatycznie. W przypadku użytkowników zagranicznych system cenzury blokuje tylko wiadomości i linki związane z hazardem i pornografią. W przypadku posiadaczy kont publicznych, które są dostępne wyłącznie dla chińskich użytkowników, każdy artykuł zostanie ocenzurowany zgodnie ze standardami rządowymi. Tencent współpracuje z niektórymi firmami zewnętrznymi w celu dodania nowych funkcji do WeChat i stara się rozwijać nie tylko mobilną komunikację i platformę społecznościową, ale także portal życia codziennego, w tym rezerwację taksówek (we współpracy z Didi Chuxing) i dostawę żywności (we współpracy z Ele.me) usługi.

QQ.com

QQ.com to portal usług internetowych uruchomiony przez Tencent w 1998 roku. Pierwotnie była to oficjalna strona internetowa do pobierania QQ i powiązanego oprogramowania. Od 2003 roku QQ.com został przekształcony w chiński portal internetowy oferujący usługi informacyjne, finansowe, gry i zakupy. W styczniu 2017 r. QQ.com była trzecią najczęściej odwiedzaną witryną internetową w Chinach i dziewiątą na świecie według danych analitycznych Alexa. Ponadto QQ.com to portal dla internetowych wersji usług Tencent, takich jak między innymi WebQQ, WeChat Web Version i QQ Browser Games.

Strefa Q

QZone to stacjonarny klient sieci społecznościowych i blogów wprowadzony przez Tencent w 2005 roku. Do skonfigurowania QZone wymagane jest konto QQ. Oprócz podstawowej funkcji blogowania polegającej na publikowaniu artykułów, filmów i muzyki, QZone pozwala użytkownikom kupować wirtualne produkty za QQ Coins, wirtualne pieniądze Tencenta, dekorować tło strony, ustawiać ustawienia stylu i czcionek oraz wybierać muzykę w tle. W 2016 roku QZone odnotowała 632 miliony aktywnych użytkowników miesięcznie, co czyni ją największym serwisem społecznościowym i blogowym w Chinach.

Kontrowersje

Naruszenie praw autorskich i plagiat



Tencent był krytykowany przez chińskich internautów za naruszenie praw autorskich i plagiat, ponieważ kilka produktów Tencent ma interfejsy i funkcje podobne do tych oferowanych przez jego konkurentów. Na przykład QQ Game (uruchomiona w 2003 r.) jest podejrzewana o plagiat z Lianzhong Ourgame (uruchomiona w 1998 r.); QQ Music (uruchomiony w 2005 r.), internetowy odtwarzacz muzyki, jest uważany za imitację Kugou Music (uruchomiony w 2004 r.); a QQSpeed, internetowa gra wyścigowa wydana w 2008 roku, jest uważana za reprodukcję Crazyracing Kartrider, podobnej gry online wydanej przez koreańską firmę w 2004 roku, która weszła do Chin w 2006 roku.

Niesprawiedliwa Rywalizacja

W 2010 roku Tencent był zaangażowany w spór o nieuczciwą konkurencję z inną chińską firmą internetową. We wrześniu 360 Safeguard, antywirusowy program zabezpieczający opracowany przez Qihoo 360 Technology Co. Ltd. (Qihoo 360), wykrył, że QQ przeprowadzało podejrzane skanowanie w tle prywatnych plików i danych użytkowników, gdy QQ było używane. Qihoo 360 skrytykował zachowanie naruszające prywatność Tencent. Następnie Tencent ogłosił, że Qihoo 360 jest przedmiotem dochodzenia w związku z jego zaangażowaniem w witrynę z reklamami pornograficznymi. W październiku Qihoo 360 opracowało specjalny program do nadzorowania działania QQ na desktopie. Tencent twierdził, że był to dodatek do złośliwego oprogramowania przechwytującego QQ. W listopadzie Tencent zawiesił wszystkich użytkowników QQ, którzy zainstalowali produkty Qihoo 360. Następnie Qihoo 360 uruchomiło 360 WebQQ, aby stawić czoła zawieszeniu przez Tencent 360 użytkowników. 21 listopada Ministerstwo Przemysłu i Technologii Informacyjnych Chin oraz Ministerstwo Bezpieczeństwa Publicznego interweniowały w tym sporze i nakazały obu firmom przeprosić swoich użytkowników. W tym przypadku obie firmy zmusiły użytkowników do podejmowania mimowolnych decyzji konsumenckich i wezwały chiński przemysł internetowy do ponownego rozważenia kwestii konkurencji, monopolu i praw konsumentów.

Lokalizacja

Tencent ma siedzibę główną w budynku Tencent w głównym obszarze Shenzhen High-tech Development Zone, który jest największym ośrodkiem technologicznym w południowych Chinach. Budynek Tencent to 193-metrowy nowoczesny wieżowiec i punkt orientacyjny w panoramie Shenzhen. Tencent posiada również oddziały w Pekinie, Szanghaju, Kantonie i Chengdu. Tencent ma dwa zagraniczne oddziały: jeden w Palo Alto w Stanach Zjednoczonych, a drugi w Seulu w Korei Południowej.



Powrót

Tor




Tor to szeroko stosowany, darmowy program, który umożliwia użytkownikom anonimową komunikację w Internecie poprzez wysyłanie wiadomości za pośrednictwem ogromnej światowej serii przekaźników ("trasowanie cebulowe"). Na każdym etapie wiadomości są szyfrowane, co sukcesywnie utrudnia śledzenie ich pochodzenia. Nazwa pochodzi od akronimu oryginalnego programu, The Onion Router. Użytkownicy Tora mogą wysyłać wiadomości e-mail, publikować posty na forach dyskusyjnych lub w pokojach rozmów oraz odwiedzać strony internetowe bez obawy, że zostaną odkryci, na dobre lub na złe. Jej anonimowość skłoniła zwolenników wolności słowa do celebrowania jej jako sposobu na zachowanie prywatności i przeciwstawienie się cenzurze, ale ta sama anonimowość może być wykorzystana do ukrycia nielegalnych działań. Ten wpis analizuje zastosowania, historię i wpływ Tora na komunikację internetową.

Zastosowania Tora

Tor był używany zarówno do celów pożytecznych, jak i złowrogich. Wdrożyli go oszuści i przestępcy internetowi, umotywowane politycznie grupy haktywistów oraz organy ścigania. Tor był używany do pozyskiwania materiałów ocenzurowanych przez rządy, demaskatorów do ujawniania wiadomości oraz ofiar molestowania seksualnego i cyberstalkingu. Jednocześnie jego wykorzystanie przez cyberprzestępców zapewniło Torowi reputację części ciemnej sieci, w której można znaleźć nielegalne lub quasi-legalne działania. Na przykład był szeroko stosowany na osławionej stronie internetowej Silk Road, która zajmowała się handlem narkotykami. Tor był używany w wielu przypadkach oszustw związanych z kartami kredytowymi, kradzieży tożsamości, dystrybucji pornografii i fałszerstw cyfrowych. Rosyjski haker Tora wykorzystał go do uzyskania e-maili od Hillary Clinton w 2016 roku. Ten zestaw aplikacji o wyglądzie Janusa okrył Tora niejasnościami prawnymi i moralnymi.

Historia Tora

Historia Tora sięga lat 90., kiedy trzech informatyków z Laboratorium Badawczego Marynarki Wojennej Stanów Zjednoczonych, Paul Syverson, Michael Reed i David Goldschlag, opracowało zasady trasowania cebuli. Druga generacja, nazwana The Onion Routing Project, rozpoczęła się w 2002 roku. W 2004 roku została udostępniona publicznie, a dalsze prace były finansowane przez Electronic Frontier Foundation. W 2006 roku kilku informatyków, w tym ci, którzy byli pierwotnie zaangażowani, założyło projekt Tor w Massachusetts. Projekt Tor próbuje bronić Tora przed krytyką wynikającą z jego przestępczego użycia. Działa również w celu identyfikacji i przezwyciężenia słabości Tora i wydała przeglądarkę, pakiet Tor Browser (zmodyfikowana wersja Mozilla Firefox). Wyprodukował także Tor Messenger i Tor Chat. Finansowanie zostało zapewnione przez Google, Reddit, Human Rights Watch, Cambridge University, rząd szwedzki i rząd USA (Departament Stanu, Agencja Zaawansowanych Projektów Badawczych w Obronie, Naval Research Lab i National Science Foundation), które były zainteresowane w swoich aplikacjach dla agencji wywiadowczych i zapewniła 80% jej finansowania (do 2012 r.). Agencja Bezpieczeństwa Narodowego nazwała Tora zarówno "królem wysoce bezpiecznej anonimowości internetowej o niskich opóźnieniach" (Ball, Schneier i Greenwald, 2013), jak i głównym zagrożeniem dla jej misji.

Wpływ Tora

Powszechne zastosowania Tora i potencjalne zagrożenia dla bezpieczeństwa narodowego przyciągnęły ogromną uwagę międzynarodową. Było szeroko dyskutowane w środkach masowego przekazu i literaturze naukowej; nadopiekuńczy przez organizacje zajmujące się wolnością słowa, intelektualistów publicznych i wiele rządów; obchodzone przez grupy zajmujące się prywatnością w Internecie i wolnym oprogramowaniem (np. Library Freedom Project); zamieszany w skandal związany z Edwardem Snowdenem WikiLeaks; omówione przez Komisję Praw Człowieka ONZ; i zbadane przez Departament Bezpieczeństwa Wewnętrznego, firmy telekomunikacyjne i dostawców usług internetowych. Tor ma kilka słabości, które doprowadziły do wielokrotnych prób zarówno jego osłabienia, jak i wzmocnienia. Zaniepokojona implikacjami dla bezpieczeństwa narodowego, w pewnym momencie NSA odkryła lukę w zabezpieczeniach Tora, nazwaną "EgotisticalGiraffe" na przestarzałej przeglądarce internetowej, która umożliwiała deanonimizację wiadomości. Badania przeprowadzone przez uniwersytety i konsultantów ds. bezpieczeństwa ujawniły luki w zabezpieczeniach, takie jak możliwość podsłuchiwania łączy ruchu Tora, wnioskowania, które węzły są używane do przekazywania wiadomości, blokowania dostępu do niektórych stron internetowych (np. Wikipedii) i ujawniania adresów IP niektórych peerów BitTorrent -to-peer użytkownikom programów do udostępniania plików. Te błędy prowadzą krytyków do twierdzenia, że Tor nie jest tak bezpieczny, jak się początkowo wydaje. Projekt Tor odpowiedział kilkoma łatami i zauważa, że złapanie użytkowników Tora jest prawie zawsze spowodowane błędem ludzkim.



Powrót

Turystyka i Internet




Podróżowanie stało się bardziej przystępne pod względem kosztów i czasu, a branża turystyczna szybko się rozwija. Według raportu Światowej Organizacji Turystyki Organizacji Narodów Zjednoczonych, liczba przyjazdów turystów międzynarodowych wzrosła w 2015 roku o 4,6% do 1184 milionów, a prognozowano, że do 2030 roku liczba ta sięgnie 1,8 miliarda. Ten rozwijający się biznes stał się ważną siłą gospodarczą wokół świecie, przy wolumenie handlu przewyższającym ropę naftową i produkty żywnościowe. Szybki rozwój technologii informacyjnych i komunikacyjnych (ICT), takich jak wyszukiwarki, szybki Internet i sieci, inteligentne urządzenia i media społecznościowe, w dużej mierze zmienił branżę turystyczną. Aranżacja podróży stała się jednym z najpopularniejszych zakupów i wyszukiwań realizowanych online. Technologie informacyjno-komunikacyjne stały się nieodzownym elementem codziennego życia konsumentów. ICT zrewolucjonizowały również procesy biznesowe i komunikację, a następnie wpłynęły na branżę turystyczną. Przyjęcie ICT w procesie świadczenia usług nie jest już opcją, ale stało się koniecznością, aby firmy turystyczne mogły odnieść sukces. Terminem najczęściej używanym przez badaczy i praktyków do opisania tego zjawiska jest turystyka elektroniczna (e-turystyka). Biorąc pod uwagę jej rosnącą popularność i znaczenie, zrozumienie e-turystyki i jej ewolucji w ciągu ostatnich kilku dekad jest korzystne. Ten wpis najpierw przedstawia przegląd e-turystyki, a następnie omawia jej czynniki napędzające. Dokonano przeglądu różnych technologii informacyjno-komunikacyjnych przyjętych przez graczy z branży turystycznej. Uwagi końcowe identyfikują kwestie związane z e-turystyką i nakreślają kilka przyszłych problemów w tej dziedzinie.

Przegląd e-turystyki

Przed pojawieniem się Internetu firma stacjonarna była jedynym punktem kontaktu między firmą turystyczną a jej klientami. W tamtym czasie marketing i reklama odbywały się za pośrednictwem tradycyjnych mediów, takich jak gazety i czasopisma, a transakcje były możliwe tylko poprzez bezpośrednie interakcje. Współpraca między firmami odbywała się głównie za pośrednictwem telefonu i faksu, które były mało wydajne i pracochłonne. Gwałtowny rozwój Internetu wpłynął na cały łańcuch dostaw branży turystycznej. Firmy turystyczne rozszerzyły swoją obecność na platformę handlu elektronicznego, aby dotrzeć do swoich klientów. Ciągły rozwój technologii informacyjno-komunikacyjnych doprowadził do powstania e-turystyki, która szeroko odnosi się do procesu analizowania, projektowania i przyjmowania technologii informacyjno-komunikacyjnych w branżach związanych z turystyką, co umożliwia poszczególnym firmom maksymalizację wydajności i efektywności. e-turystyka wymaga od firm zrewolucjonizowania funkcji biznesowych, łańcucha wartości i relacji z klientami i interesariuszami. Ze strategicznego punktu widzenia e-turystyka wymaga przejścia od perspektywy zorientowanej na proces do zorientowanej na klienta oraz od masowej produkcji do masowego dostosowywania. Ponadto e-turystyka obejmuje wykorzystanie ICT do sprzedaży, promocji i dostarczania klientom produktów związanych z turystyką. Firmy turystyczne potrzebują czasu, aby zdać sobie sprawę z korzyści płynących z przyjęcia takich praktyk w swojej działalności, co jest również powodem, dla którego niektórzy operatorzy odmówili ich przyjęcia. Jednak rozwiązania ICT pomagają firmom turystycznym zachować konkurencyjność na rynku, ponieważ wzmacniają niektóre krytyczne czynniki sukcesu, takie jak dywersyfikacja kanałów dystrybucji oraz poprawa zadowolenia i doświadczeń klientów, a tym samym poprawa relacji z klientami. Warto zauważyć, że e-turystyka nie pojawiła się z dnia na dzień; jest w dużej mierze napędzany przez dwie siły, które zostaną wyjaśnione poniżej.

Siły napędowe e-turystyki

Oczekiwania e-turysty


Przed Internetem dostęp do informacji i planowanie podróży były trudne i niewygodne. Ludzie w dużym stopniu polegali na radach biur podróży i przewodników. Musieli wcześniej zarezerwować wszystko, w tym bilety lotnicze, zakwaterowanie, a nawet lokalny transport z lotniska za pośrednictwem rozmów międzymiastowych, faksu lub biur podróży. Przy ograniczonych, a czasem wprowadzających w błąd informacjach z materiałów drukowanych, podróżni z trudem mogli spodziewać się lub wyobrazić sobie swoje doświadczenia w miejscu docelowym. Niedogodności związane z planowaniem podróży i niedostępność informacji nie tylko ograniczyły rodzaj destynacji, do których podróżowali ludzie, ale także zmniejszyły ich motywację i skłonność do podróżowania. Co więcej, podróżni zwykle trzymali się tego, co zaplanowali, ponieważ wszelkie zmiany w trakcie podróży wiązały się z kosztami i kłopotami. Obecnie zamiast bezpośredniej rozmowy przez telefon internauci wolą wysyłać wiadomości błyskawiczne. Wysyłają zdjęcia lub filmy, aby podzielić się ciekawymi scenami, na które się natknęli, lub nagrać wiadomość głosową. Ludzie częściej czytają wiadomości z Facebooka czy Twittera niż z gazet. Wykładniczy wzrost i szerokie zastosowanie ICT zmieniły całą ideę komunikacji, która ma poważny wpływ na planowanie podróży, konsumpcję i doświadczenie. Podróżni mają dostęp do ogromnej ilości informacji i sprawnie dokonują rezerwacji w dowolnym miejscu i czasie. Są gotowi poświęcić dodatkowy czas i wysiłek na poszukiwanie i porównywanie uzyskanych informacji, aby zmniejszyć ryzyko i niepewność związane z zakupem produktów turystycznych. Ludzie chętniej podróżują, ponieważ proces planowania jest wygodniejszy i tańszy oraz dostępnych jest więcej alternatyw. Ponadto Internet umożliwia podróżnym planowanie podróży na bieżąco. Turyści żyjący w cyfrowym świecie stają się bardziej doświadczeni i wyrafinowani. Są przygotowani i chętni do adopcji otaczających ich nowych technologii. W związku z tym mają wyższe oczekiwania wobec firm turystycznych, które zmuszają firmy turystyczne do przyjmowania technologii informacyjno-komunikacyjnych w swoich modelach biznesowych.

ICT jako efektywne kosztowo rozwiązania

e-turystyka polega na zastąpieniu lub uzupełnieniu istniejących praktyk procesami wspomaganymi przez ICT, które stanowią bardziej efektywne rozwiązania problemów zarządzania. Na przykład większość turystyki, firmy wykorzystywały marketing online (lub e-marketing) jako główne strategie marketingowe i komunikacyjne, a takie strategie obejmują banery reklamowe w Internecie, reklamy płatne za kliknięcie, e-mailowe wiadomości promocyjne, optymalizacja wyszukiwarek i niedawno pojawiający się marketing SoLoMo (społecznościowy, lokalny i mobilny). W porównaniu z tradycyjnymi strategiami reklamowymi marketing online jest bardziej opłacalny, ponieważ przy tradycyjnych budżetach reklamowych można dotrzeć do znacznie większej liczby odbiorców. Marketing online jest bardziej elastyczny, ponieważ konsumenci mogą kupować pożądane produkty i usługi w dowolnym momencie, a firmy mają najlepszą kontrolę. Z tych powodów marketing online wyprzedził tradycyjną reklamę i oczekuje się, że trend ten utrzyma się w przyszłości. Ponadto technologie informacyjno-komunikacyjne pomagają branży turystycznej zwiększyć efektywność operacyjną. Wprowadzając ekspresowe kasy w lobby, hotele były w stanie zredukować personel recepcji i skrócić czas oczekiwania gości na obsłużenie. Jednak przyjmując system zarządzania obiektem, taki jak OPERA, hotele mogą centralnie przechowywać informacje o gościach i przekazywać je między różnymi jednostkami operacyjnymi (recepcja, rezerwacje i zarządzanie przychodami). Dzięki wydajniejszym codziennym operacjom i zarządzaniu zapasami firmy turystyczne mogą poświęcić więcej wysiłku i czasu na ulepszenie oferty usług dla swoich klientów i zwiększenie ich konkurencyjności. ICT odnosi się do systemu sprzętu, oprogramowania, oprogramowania do pracy grupowej, oprogramowania sieciowego i oprogramowania typu humanware (własność intelektualna), którego firma używa do rozwijania i utrzymywania dostępnych zasobów. Efektywne wykorzystanie takiego systemu sprawia, że informacje są szeroko dostępne z różnych miejsc i urządzeń. e-Turystyka obejmuje konwergencję całej gamy narzędzi elektronicznych do zarządzania informacjami, funkcjami i procesami firm turystycznych, które pomagają im komunikować się i wchodzić w interakcje z interesariuszami. Istnieją różne rodzaje technologii informacyjno-komunikacyjnych, które są przeznaczone do celów turystycznych lub mają wpływ na branżę turystyczną. Poniżej znajduje się omówienie niektórych z najważniejszych.

Systemy Rezerwacji

Pierwsze zastosowanie technologii informacyjno-komunikacyjnych w turystyce datuje się na lata 70. XX wieku, kiedy to linie lotnicze po raz pierwszy zastosowały komputerowy lub centralny system rezerwacji. Komputerowy System Rezerwacji to baza danych, za pomocą której linie lotnicze zarządzają swoim zapasem (biletami lotniczymi) oraz dostarczają informacji związanych z cenami i dostępnością biletów lotniczych. Wkrótce ewoluował do globalnych systemów dystrybucji (GDS) lub automatycznego systemu rezerwacji w latach 80., kiedy był szeroko stosowany przez inne firmy turystyczne, takie jak hotele i wypożyczalnie samochodów, w celu zwiększenia wydajności operacyjnej. Ogólnie rzecz biorąc, GDS odnosi się do ogólnoświatowej sieci skomputeryzowanych systemów rezerwacji, które umożliwiają zautomatyzowane transakcje między dostawcami usług turystycznych (głównie liniami lotniczymi, hotelami i wypożyczalniami samochodów) a biurami podróży. Korzystając z GDS, biura podróży mogą porównywać i uzyskiwać dostęp do informacji różnych dostawców usług turystycznych. Na przykład, gdy biuro podróży prosi o rezerwację usługi określonej linii lotniczej, system GDS kieruje zapytanie do komputerowego systemu rezerwacji tej linii lotniczej. Będąc podłączonym do GDS, biuro podróży może wybierać i rezerwować różne usługi wszystkich dostawców działających na tej samej trasie w ramach sieci GDS.

Witryny podróżnicze

Wraz z rozwojem Internetu w latach 90. radykalnie zmieniły się praktyki operacyjne i strategiczne w branży turystycznej. Dostawcy usług mogą czerpać korzyści z Internetu i prowadzić "sprzedaż bezpośrednią" swoim klientom. Inwestują we własny system rezerwacji i bezpośrednie kanały dystrybucji - np. strony internetowe; w ten sposób są mniej zależne od pośredników i lepiej reagują na potrzeby rynku. Na przykład niektóre linie lotnicze (np. Lufthansa i Emirates) zaczęły nakładać dodatkową opłatę, gdy klienci dokonują rezerwacji za pośrednictwem GDS, aby zachęcić do rezerwacji za pośrednictwem ich własnych sieci rezerwacyjnych. Jednak niektóre firmy turystyczne, takie jak hotele i wypożyczalnie samochodów, nadal korzystają z GDS, ponieważ mogą oferować oferty last minute za pośrednictwem GDS, co przynosi dodatkowe zyski. W zależności od pierwszego wrażenia, które strona internetowa wywołuje, odwiedzający decydują, czy kontynuować przeglądanie witryny, czy też natychmiast ją opuścić. Firmy turystyczne budują swój wizerunek także poprzez własne strony internetowe. Ponadto projekt strony internetowej, taki jak nawigacja, interaktywność i układ, jest ważnym wyznacznikiem, który poprawia ogólne wirtualne wrażenia odwiedzających, co w ten sposób wpływa na ich zamiar zakupu produktu i powrotu na stronę internetową.

Modele e-biznesu

Rozwój Internetu w dziedzinie turystyki zrodził również bardziej innowacyjne modele biznesowe, takie jak internetowe biura podróży (OTA). OTA to strona internetowa oferująca kompleksowe rozwiązania w zakresie planowania podróży i rezerwacji dla klientów. Przykłady OTA obejmują Expedia z siedzibą w Stanach Zjednoczonych; Agoda z siedzibą w Singapurze; i Ctrip z siedzibą w Chinach. W przeciwieństwie do tradycyjnych biur podróży ich jedynym kontaktem z klientami jest Internet. Po prostu wprowadzając miejsce docelowe na stronie, OTA sortuje dostępne opcje hoteli i pozwala odwiedzającemu uszeregować je według własnych preferencji, takich jak cena, liczba gwiazdek lub komentarze użytkowników. Biorąc pod uwagę wygodę i różnorodność oferowanych opcji, OTA zyskuje coraz większą popularność wśród klientów, zajmując tym samym znaczny udział w rynku. Wprowadza to bezprecedensową konkurencję w branży i zachęca istniejące firmy do przeglądu i przeprojektowania swoich usług w celu zachowania konkurencyjności. Na przykład hotele reagują, oferując "gwarancje ceny" klientom, którzy dokonują rezerwacji za pośrednictwem ich stron internetowych zamiast pośredników. Jeśli klientowi udało się znaleźć niższą cenę za pokój tej samej kategorii w innym miejscu, hotel zwróci koszty lub udzieli dodatkowych rabatów. Airbnb to kolejny udany przykład modeli e-biznesu. Opierając się na koncepcji udostępniania peer-to-peer, Airbnb oferuje gospodarzom platformę internetową do wynajęcia niezajętego pokoju w swoim mieszkaniu lub nawet całego mieszkania innym użytkownikom za opłatą. Użytkownicy lubią tę koncepcję biznesową, ponieważ mają większy wybór. Podróżni cenią sobie możliwość interakcji z lokalną społecznością i cieszenia się bardziej autentycznymi wrażeniami z podróży. Ten innowacyjny model biznesowy nie byłby możliwy, gdyby nie Internet i technologia.

Media społecznościowe

Jedną z najbardziej wpływowych innowacji obsługiwanych przez Internet są media społecznościowe lub Web 2.0, w których użytkownicy mogą tworzyć, czytać i udostępniać innym treści w czasie rzeczywistym. Przykłady mediów społecznościowych obejmują serwisy społecznościowe (Facebook), serwisy blogowe (Twitter) i serwisy społecznościowe (Pinterest). Pomimo różnych celów, którym służą, wszystkie opierają się na treściach generowanych przez użytkowników (UGC) i wywarły ogromny wpływ na codzienne interakcje ludzi. W kontekście turystycznym TripAdvisor jest pionierskim serwisem społecznościowym, który od 2000 r. udostępnia duże ilości treści UGC. Pierwotnym pomysłem było udostępnianie użytkownikom przewodników i wskazówek dotyczących podróży, ale odwiedzający zaczęli dodawać własne recenzje, które wkrótce przekroczyły wszelkie profesjonalne porady . Ponadto użytkownicy zaczęli zostawiać recenzje, gdziekolwiek się znajdują. Obecnie TripAdvisor tworzy największą społeczność podróżniczą na świecie, z 390 milionami przeciętnych odwiedzających miesięcznie, udostępniając ponad 400 milionów recenzji obejmujących 6,8 miliona obiektów noclegowych, restauracji i atrakcji. Pojawienie się tych witryn zmieniło zaufanie podróżnych z pośredników i dostawców na użytkowników mediów społecznościowych lub rówieśników, ponieważ ich komentarze są wolne od celów reklamowych, a zatem są bardziej wiarygodne. Co więcej, pięciopunktowa ocena wraz z prostym komentarzem "super hotel" wystawionym przez użytkowników jest warta znacznie więcej niż tysiąc słów komunikatu promocyjnego hotelu. Jednak negatywna opinia konsumencka może poważnie wpłynąć na wizerunek i zyski hotelu, ponieważ złe wieści rozchodzą się szybko i daleko. Tym samym proces decyzyjny konsumenta w przypadku produktów związanych z podróżami staje się bardziej skomplikowany niż wcześniej. Zamiast polegać wyłącznie na jednym biurze podróży, podróżni szukają informacji z wielu źródeł i porównują ceny, a także komentarze innych osób, zanim podejmą decyzję o rezerwacji. Ponadto podróżni intensywniej niż wcześniej korzystają z mediów społecznościowych, aby rozmawiać o swoich wakacjach, udostępniać zdjęcia i filmy oraz wymieniać się pomysłami i doświadczeniami. Jest to zazębiający się proces, ponieważ takie informacje stają się wkładem dla innych podróżników w planowanie podróży. Ogólnie rzecz biorąc, konsumenci mają większą władzę niż wcześniej ze względu na ich zdolność do prowadzenia natychmiastowych rozmów na temat usługodawców. Rozprzestrzenianie się UGC i interakcji peer-to-peer w mediach społecznościowych zbliżyło firmy turystyczne do klientów. Podobnie jak założenie strony internetowej, sama obecność w mediach społecznościowych nie wystarczy. Firmy turystyczne muszą aktywnie angażować się w "społeczność". Co więcej, poprzez proaktywne angażowanie i monitorowanie takich rozmów, firmy generują bardziej przydatne informacje na temat preferencji i zainteresowań klientów, które pomagają im stale oceniać i ulepszać swoje usługi. Ponadto firmy turystyczne muszą przejść z procesów biznesowych zorientowanych na produkt na zorientowane na klienta, co również zrewolucjonizowało ich strategie zarządzania relacjami z klientami.

Urządzenia mobilne i inteligentne

Wraz z Internetem urządzenia mobilne są kanałami komunikacji, których wykorzystanie rośnie. W porównaniu z przeszłością, kiedy turyści drukowali mapy w obawie, że zgubią drogę do celu, turyści w erze cyfrowej podczas podróży w dużym stopniu polegają na swoich urządzeniach mobilnych. Dopóki Internet lub Wi-Fi są dostępne, mogą korzystać z Google Maps na swoim smartfonie, aby zlokalizować się i uzyskać instrukcje, jak dotrzeć do miejsca pieszo, samochodem lub komunikacją miejską. Jeśli podróżnik znajdzie ciekawe miejsce, do którego chciałby się udać, może je zapisać w Mapach i później do niego wejść. Łącząc się z serwisami społecznościowymi, takimi jak Facebook, podróżni mogą "sprawdzać" swoje lokalizacje i natychmiast dzielić się swoimi doświadczeniami. Korzystają z aplikacji zainstalowanych na ich smartfonach, aby uzyskać informacje o opcjach restauracji i korzyściach ekonomicznych. Rozpowszechnianie się urządzeń mobilnych do różnych celów związanych z podróżowaniem to kolejna okazja do wykorzystania przez firmy z branży hotelarsko-gastronomicznej. Sieci hotelowe, takie jak Hilton, Hyatt i Marriott, oferują gościom możliwość zameldowania się i wymeldowania, wybrania preferowanego pokoju i przekazywania próśb za pośrednictwem smartfonów. Uruchomiona usługa pozwala smartfonom pełnić rolę kluczy do pokoju z wykorzystaniem technologii bezpieczeństwa. Ponadto można wykonać bardziej spersonalizowane komunikaty promocyjne lub zautomatyzowany marketing. Dzięki sygnałom generowanym przez globalny system pozycjonowania urządzeń mobilnych serwis TripAdvisor może dostarczać odwiedzającym komunikaty promocyjne, takie jak nazwy najwyżej ocenianych restauracji w określonej lokalizacji. Oprócz urządzeń mobilnych niektóre hotele przyjęły inteligentne funkcje, aby poprawić wyposażenie pokoi i udogodnienia dla klientów. Na przykład w wielu hotelach zainstalowano inteligentne telewizory w pokoju, które umożliwiają gościom wykonywanie różnych zadań, w tym odbiór prania, i łączą je z urządzeniami mobilnymi w celu dostosowywania treści, na przykład przeglądania własnych zdjęć lub oglądania własnych filmów. Ponadto większość wyposażenia pokoju, w tym oświetlenie, temperaturę i telewizor, można kontrolować za pomocą tabletu lub aplikacji na własnym urządzeniu: dzięki temu goście nie muszą wstawać z łóżka, aby wyłączyć światło. Pojawia się tendencja do stosowania w hotelach koncepcji "wirtualnego concierge" lub "cyfrowego concierge" w pokoju, który pojawia się jako urządzenie mobilne wyposażone w pokoju lub aplikacja, którą klienci instalują na swoim urządzeniu. Ponadto klienci mogą wyszukiwać informacje o okolicy, sprawdź wyposażenie hotelu, poproś o dodatkowe udogodnienia, a nawet zaplanuj trasę. W ten sposób klienci mogą używać urządzenia do ogólnych zapytań lub prostych zadań, zamiast stać w kolejce do usług concierge. To znacznie poprawia produktywność i alokację zasobów hotelu. Kierownicy destynacji i atrakcji również zaczęli wdrażać więcej technologii informacyjno-komunikacyjnych, aby poprawić wrażenia odwiedzających. Na przykład, zamiast czytać broszury lub wypożyczać zwykły audioprzewodnik, odwiedzający Luwr mogą wypożyczyć Audioprzewodnik Louvre-Nintendo 3DSXL, który oferuje trójwymiarowe zdjęcia dzieł sztuki w wysokiej rozdzielczości wraz z komentarzami dźwiękowymi. Przewodnik śledzi położenie użytkowników i udostępnia interaktywną mapę na podwójnym ekranie, co zapobiega zagubieniu się użytkowników w ogromnej galerii.

Problemy i przyszłość e-turystyki

Rozwój Internetu i technologii informacyjno-komunikacyjnych znacząco zmienił cały łańcuch wartości branży turystycznej i na nowo definiuje role różnych graczy. Z perspektywy dostawców usług turystycznych ICT rewolucjonizują ich strategie i praktyki operacyjne. W szczególności technologie informacyjno-komunikacyjne umożliwiają bezpośrednie interakcje z klientami i zwiększają zdolność firm do dokładniejszego przewidywania i ukierunkowywania potrzeb konsumentów, co prowadzi do najlepszych usług i relacji z klientami. Dzięki ulepszonej łączności między jednostkami operacyjnymi przyjęcie technologii informacyjno-komunikacyjnych zmniejsza koszty i oszczędza czas na komunikację, przetwarzanie informacji i dystrybucję. Z perspektywy konsumentów e-turystyka daje im szybki dostęp do wiarygodnych i istotnych informacji oraz możliwość kierowania rozmowy o firmach Cieszą się większą różnorodnością produktów po niższych kosztach, a ICT sprawia, że porównywanie i zakupy są stosunkowo łatwe, wygodne i elastyczne dla konsumentów. e-Turystyka oferuje nieograniczoną liczbę korzyści dostawcom i konsumentom, ale ważne jest również rozpoznanie problemów i trendów związanych z rozwojem e-turystyki. Po pierwsze, tradycyjne biura podróży stoją w obliczu poważnego zagrożenia wyginięciem, ponieważ ich głównymi klientami w XXI wieku są osoby z pokolenia wyżu demograficznego, które lubią wycieczki grupowe i często mają mniejszą wiedzę na temat technologii w porównaniu z młodszymi odpowiednikami. Z biegiem czasu ta grupa podróżników będzie zastępowana przez młodszych, którzy chętnie organizują sobie wycieczki przez Internet, a tym samym usługi oferowane przez te biura podróży odchodzą do lamusa. Ponadto, uświadomiwszy sobie korzyści płynące z bezpośredniej rezerwacji u usługodawców, Internet i technologie informacyjno-komunikacyjne jeszcze bardziej wzmocnią sprzedaż bezpośrednią, co doprowadzi do rzeczywistej dezintermediacji. Dostawcy powinni nadal się rozwijać ich bezpośrednią komunikację z konsumentami końcowymi i ułatwienie natychmiastowej dystrybucji, aby wykorzystać tę okazję. W przyszłości proaktywny, zautomatyzowany marketing za pośrednictwem mediów społecznościowych i urządzeń mobilnych prawdopodobnie zastąpi większość tradycyjnych strategii marketingowych, wpływając na proces podejmowania decyzji przez konsumentów. Projektowanie witryn turystycznych to kolejna kwestia, ponieważ firmy turystyczne prawdopodobnie zainwestują więcej zasobów w tworzenie interaktywnych i responsywnych funkcji na stronach internetowych, takich jak włączanie serwisów społecznościowych lub tworzenie wirtualnych społeczności. Ponadto dobra użyteczność i nawigacja są niezbędne do wspierania trendu rezerwacji bezpośrednich. Ponadto niezbędna jest dobra kompatybilność z różnymi typami urządzeń mobilnych. Postęp technologiczny będzie nadal wpływać na branżę turystyczną i reformować modele biznesowe firm. Wraz z pozyskiwaniem większej ilości danych od klientów, opracowywane będzie silniejsze oprogramowanie analityczne i rozwiązania komputerowe, które będą generować dalsze informacje o klientach, a także zmniejszać ryzyko związane z opracowywaniem produktów. W odpowiedzi na zmieniające się wymagania klientów i rosnącą konkurencję opracowywane będą kolejne innowacyjne rozwiązania technologiczne. Większość badań naukowych pokazuje, w jaki sposób przyjęcie technologii informacyjno-komunikacyjnych przyniosło pozytywny wpływ na branżę turystyczną i jakie korzyści z takiego postępu czerpią klienci. Negatywny wpływ jest jednak nieokreślony. Niektóre firmy turystyczne ślepo adaptują technologie informacyjno-komunikacyjne, aby nadążyć za konkurencją i standardami rynkowymi, bez rozważnego uwzględnienia rzeczywistych potrzeb swoich klientów. Co więcej, technologie informacyjno-komunikacyjne zastępują znaczną część interakcji międzyludzkich w środowisku usługowym i wydaje się, że jest to coraz częstsze. Jest to paradoksalne, ponieważ usługi i gościnność polegają na personalizacji i dostosowywaniu, co może nie być osiągalne, gdy klienci są obsługiwani przez maszyny. Dlatego firmy turystyczne muszą bardzo ostrożnie równoważyć zaawansowaną technologię i wysoki kontakt podczas stosowania technologii informacyjno-komunikacyjnych w swoich operacjach i procesach, pomimo wszystkich korzyści, jakie oferują. Można również przeprowadzić więcej badań, aby zrozumieć opinie klientów na temat takiego postępu w branży turystycznej i dowiedzieć się, w jaki sposób te nowe praktyki pomagają we współtworzeniu doświadczeń i wartości z klientami. Pomimo wielu korzyści, jakie Internet i ICT przynoszą branży turystycznej i hotelarskiej, takich jak zwiększona wydajność i redukcja kosztów, nie jest to uniwersalna strategia dla firm turystycznych. Wybór odpowiedniej strategii i technologii wymaga dokładnej analizy istniejących procesów biznesowych oraz syntezy wysiłków i zaangażowania wszystkich działów. ICT mogą uzupełniać podstawową wartość oferowaną przez firmy, ale wysokiej jakości produkty i usługi dla klientów pozostają kamieniami węgielnymi wspierającymi całą działalność firmy. Korzystając z ICT, firmy turystyczne mogą współtworzyć doświadczenia ze swoimi klientami i rozwijać trwałą przewagę konkurencyjną nad rywalizacją.



Powrót

Traceroute




Traceroute to narzędzie do diagnostyki sieci opracowane w 1988 roku przez Van Jacobsona przy udziale Steve′a Deeringa, którego celem jest weryfikacja ścieżki komunikacyjnej komputera do określonego hosta docelowego. Internet jest połączony za pomocą zestawu urządzeń zwanych bramami, przez które przesyłane są pakiety danych. Gdy użytkownik uzyskuje dostęp do treści w Internecie, informacje te są przechowywane na określonym hoście. Jeśli trasa dostępu do tej zawartości obejmuje bramę, w której występuje problem, komunikacja z tym hostem może zostać naruszona. Trasa identyfikuje następnie, przez które bramy pakiety podróżowały, aby dotrzeć do miejsca docelowego, drukując adres protokołu internetowego (IP) każdego przeskoku i czas odpowiedzi, ujawniając, w których punktach sieci występują problemy. Traceroute to ważne narzędzie obecne w większości systemów operacyjnych. Od momentu powstania podlegał ciągłym ulepszeniom mającym na celu dodanie nowych funkcji, które przyczyniają się do weryfikacji działania sieci, a także służy do mapowania ścieżki, jaką pokonuje wiadomość między dwoma punktami poprzez topologię zbudowaną z adresów IP (Rysunek 1). ). W tym wpisie przedstawiono rozwój, ewolucję i funkcjonalność programu traceroute, wymieniono różnice między poszczególnymi systemami operacyjnymi oraz dodatkowo wyjaśniono, jak używać programu traceroute.

Traceroute i jego kontekst rozwojowy

Stworzenie traceroute jest związane z rozwojem protokołu TCP/IP w latach 80. Jacobson, wówczas profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, odkrył w 1985 roku błędy w obiegu danych w Internecie związane z protokołem TCP. W kolejnych latach pracował nad opracowaniem nowych algorytmów, które zostały dodane do tego protokołu i pozwoliły na większą kontrolę i zapobieganie przeciążeniom sieci. Od swojego zaangażowania w rozwiązywanie impasów w działaniu Internetu, Jacobson opracował narzędzia, które się rozpoczęły przyczynić się do diagnozy nieprawidłowości w działaniu sieci, wśród której znajduje się traceroute.

Zasady pracy

Trasa została skompilowana przy użyciu protokołu User Datagram Protocol (UDP), protokołu Internet Control Message Protocol (ICMP) i pola Time-to-Live (TTL) adresu IP. Znajdujący się w warstwie transportu internetowego protokół UDP jest używany przez komputerową trasę traceroute do wysyłania datagramów IP do określonego hosta, który można określić za pomocą nazwy jego domeny, takiej jak google.com, lub jego adresu IP, 216.58.205.163. Pole TTL jest integralną częścią adresu IP, działającą w oparciu o wyznaczenie liczby pośredników (przeskoków) dozwolonych podczas przesyłania datagramu między hostem źródłowym a docelowym, aby uniknąć nadmiernego przemieszczenia. Jeśli liczba przeskoków przekracza wartość ustawioną przez TTL, do źródła wysyłany jest komunikat ICMP o przekroczeniu czasu. ICMP jest składnikiem IP, odpowiada za rejestrowanie błędów w przetwarzaniu i przesyłaniu danych przez sieć. Traceroute działa na podstawie wartości TTL określonych w celu wywołania komunikatów o błędach ICMP o przekroczeniu czasu z bramek, przez które generowany jest raport i wysyłany do źródła z adresem IP tych pośredników. Wykonywane przez użytkowników na terminalach poleceń komputera, traceroute wysyła do hosta trzy datagramy UDP zwane sondami, z których każdy ma TTL równy 1, tak że kiedy docierają do pierwszej bramki, źródło otrzymuje komunikat o błędzie ICMP o przekroczeniu czasu, informujący o adresie IP tego pierwszego przeskoku i czasu potrzebnego do osiągnięcia go przez każdą sondę. Następnie do hosta wysyłane są kolejne trzy pakiety UDP z TTL równym 2, aby znaleźć informacje o drugim przeskoku. Kiedy ta druga bramka wysyła komunikat ICMP o przekroczeniu czasu, zawierający jej adres IP i czas operacji, traceroute wysyła trzy pakiety UDP z TTL równym 3, aby przejść przez pierwszy i drugi przeskok, aby dotrzeć do trzeciego i w ten sposób uzyskać jego informacje z raportu komunikatów o błędach ICMP. Ta procedura jest powtarzana stopniowo do maksymalnie 30 przeskoków, ujawniając trasę i czas podróży między hostem źródłowym a docelowym dzięki znajomości bram pośrednich, jak pokazano na rysunku 2. Kiedy źródło napotka hosta końcowego, ICMP wysyłany jest komunikat o błędzie port unreachable, ponieważ pakiety UDP są adresowane do portu nieużywanego przez komputery, ponieważ celem nie jest przetwarzanie informacji ze źródła, a jedynie raportowanie stanu działania i warunków dostępności. Jeśli wystąpią problemy z hostem lub bramkami, w raporcie zostaną wydrukowane określone wskazania.

Warianty Traceroute

Tracert: Pochodna Traceroute w systemie Microsoft Windows

Chociaż zasada działania traceroute wywodzi się z protokołu UDP, który nadal jest podstawowym protokołem tego narzędzia w systemach wywodzących się z systemu Unix, takich jak Linux, Mac i Cisco, implementacja w systemach Windows pochodzi z protokołu ICMP, a konkretnie z jego echo tryb żądania/odpowiedzi echa. Parametry pracy Internetu ustalane są poprzez budowę standardów, które czynią urządzenia interoperacyjnymi, pozwalającymi na komunikację w sieci. Standardy te są opracowywane przez szereg podmiotów, w tym grupę zadaniową ds. inżynierii Internetu, która jest odpowiedzialna za publikowanie zapytań o komentarze (RFC). W czasie tworzenia traceroute dokument RFC 792 z 1981 r. nadzorował implementację protokołu ICMP. W specyfikacjach tego dokumentu RFC użycie protokołu ICMP przez bramki zostało określone jako opcjonalne i stwierdzono, że komunikaty ICMP nie powinny być wysyłane w odpowiedzi na komunikaty ICMP. Komunikaty ICMP mają dwa tryby: (1) komunikaty o błędach i (2) komunikaty zapytań. Trasa śledzenia zaprojektowana przez Jacobsona wykorzystuje tylko modalność komunikatów o błędach ICMP. W 1989 r. RFC 1122, Wymagania dla hostów internetowych, zdefiniował obowiązkową implementację żądania echa ICMP i funkcji odpowiedzi na echo ICMP, sklasyfikowanych jako komunikaty zapytań, do celów diagnostycznych. Funkcja żądania echa/odpowiedzi na echo działa w połączeniu, więc dla każdego żądania echa ICMP wysłanego do hosta musi zostać zwrócony komunikat odpowiedzi na echo ICMP. Od czasu ustanowienia tego standardu dla wszystkich hostów w 1993 r. RFC 1393 zaproponował wersję traceroute, którego działanie nie korzystałby już z UDP i zacząłby działać integralnie z parametrem ICMP, który stał się podstawą tego narzędzia w systemie Windows, zwanego w tym systemie tracert. Działający z wiersza poleceń systemu Windows, tracert wysyła komunikaty żądania echa ICMP do hosta docelowego, używając tej samej zasady, co pole TTL stosowane przez traceroute. W ten sposób każda osiągnięta brama zwraca błąd przekroczenia czasu wiadomości ICMP , a TTL jest następnie zwiększany o 1, aż dotrze do miejsca docelowego, gdy wiadomość odpowiedzi echa ICMP zostanie wysłana do źródła po zakończeniu procedury.

Warianty wersji oryginalnej

Chociaż firma Microsoft przyjęła protokół ICMP jako standard dla polecenia tracert, inne systemy operacyjne zachowały protokół UDP jako podstawę do wysyłania wiadomości. W 2000 roku zaimplementowano możliwość wysyłania pakietów echa ICMP na oryginalną trasę traceroute poprzez dodanie polecenia -I. Obecnie możliwe jest również wykonanie traceroute za pomocą protokołu TCP do wysyłania pakietów do bramek, poprzez wstawienie komendy -T, przy zachowaniu pozostałych zasad działania narzędzia. Ten wariant protokołu został dodany, ponieważ wiele bram blokowało komunikaty UDP wysyłane przez traceroute, a nawet komunikaty żądania echa ICMP, ponieważ ataki na systemy zostały opracowane z wykorzystaniem ich jako zasady. Ponieważ parametr działania Internetu oparty jest na protokole TCP/IP, pakiety TCP wysyłane przez traceroute są zazwyczaj akceptowane przez pośredników.

Jak uruchomić polecenie i odczytać wyniki

W systemach operacyjnych Windows narzędzie traceroute uruchamia się w wierszu polecenia, wprowadzając następujące żądanie: nazwa domeny tracert lub adres IP programu tracert - na przykład tracert www.google.com lub tracert 216.58.205.163. W systemie Mac OS traceroute można wykonać za pomocą aplikacji terminalowej lub narzędzia sieciowego. Za pośrednictwem aplikacji terminalowej żądanie jest wprowadzono: nazwa domeny traceroute lub adres IP traceroute. Za pomocą narzędzia sieciowego wystarczy kliknąć opcję traceroute i wprowadzić dane. W systemach wywodzących się z Linuksa operacja odbywa się poprzez terminal poleceń, w którym traceroute jest wykonywany w taki sam sposób jak w terminalu systemu Mac OS.

Przykład w systemie Linux

System działa poprzez określenie adresu IP miejsca docelowego; ilość domyślnych przeskoków równa 30, modyfikowalna poprzez wstawienie polecenia -m; i rozmiar wysyłanych pakietów. Liczby od 1 do 30, w kolejności pionowej, określają wyniki każdego przeskoku. Po każdym wierszu pojawia się nazwa bramy, jeśli istnieje, lub jej adres IP. W nawiasach podany jest jego adres IP, a zaraz potem wydrukowany jest wynik czasu, jaki zajęło każdej z trzech sond dotarcie do bramki. Aby zmienić liczbę wysyłanych sond, używana jest kolejka -q. Sygnał jest rejestrowany, gdy sondy nie otrzymają odpowiedzi od pośredników w ciągu 5 sekund, czyli domyślnego czasu oczekiwania. Ten wzorzec można zmienić za pomocą polecenia -w. Jednak najczęstszym powodem braku odpowiedzi jest stosowanie przez urządzenia sieciowe zapór ogniowych, które ostatecznie blokują sondy traceroute. W takim przypadku wykonanie narzędzia z innymi wariantami protokołów może pomóc w uzyskaniu wyników. Gdy program wykryje problem na trasie, która pośredniczy w dostępie do określonego hosta, obok czasu drukowane są wskazania określające awarię. Najczęstsze błędy to !H dla nieosiągalnego hosta, !N dla nieosiągalnej sieci lub !P dla nieosiągalnego protokołu. Możliwe jest sprawdzenie, czy nie ma problemów z połączeniem z miejscem docelowym. Średni czas potrzebny na dotarcie do bramki przez każdy przeskok jest powiązany z odległością między każdym z tych urządzeń a źródłem, więc gdy użytkownik uzyskuje dostęp do treści hostowanych na innym kontynencie, czas będzie większy niż 100 ms. Adresy IP są zwykle kojarzone z fizycznym adresem urządzeń, więc traceroute zostało również wykorzystane do mapowania rzeczywistej trasy ruchu danych. W takim przypadku narzędzia, które umożliwiają geolokalizację adresu IP, konwertują dane traceroute na trasę naziemną, takie jak program Open Visual Traceroute. Jednak sposób formalnego zarejestrowania powiązania między adresem IP a jego konkretnym adresem nie jest obowiązkowy. Wiele treści internetowych jest rozmieszczonych w sieciowych usługach dostarczania treści, dystrybuowanych na serwerach na całym świecie, przy użyciu tego samego adresu IP do przydzielania treści w różnych lokalizacjach w pobliżu użytkowników. W ten sposób dosłowne odczytanie adresu IP powiązanego z lokalizacją geograficzną może spowodować błąd interpretacyjny. Niektóre usługi online, takie jak traceroute.org, oferują uruchamianie traceroute ze zdalnych serwerów, umożliwiając użytkownikom sprawdzenie trasy do określonego hosta z innych punktów w sieci.



Powrót

Transport i Internet




Rozpowszechnianie technologii informacyjno-komunikacyjnych (TIK) przyniosło szereg skutków gospodarczych i społecznych, zwłaszcza w przypadku działań zależnych od przetwarzania informacji. To z kolei wpłynęło zarówno na usługi, jak i na produkcję. Ten wpis bada, w jaki sposób sieci transportowe przecinają się z ICT, określone miejsca wpływu (w tym relacje osobiste, konsumenckie i biznesowe) oraz wpływ ICT na mobilność.

Połączenie transportowo-informacyjne

Transport to usługa, która wymaga i przetwarza dużą ilość informacji. Na przykład użytkownicy transportu podejmują decyzje o tym, gdzie i kiedy podróżować, jakiego środka transportu użyć, a jeśli prowadzą własny pojazd, którą trasę wybrać. Odwrotnie, dostawcy usług transportowych muszą tak zarządzać swoimi aktywami, aby skutecznie dopasować się do sygnałów (informacji) popytowych wysyłanych przez różne rynki transportowe. Lepsze źródła informacji i zdolność do dystrybucji informacji umożliwiają zatem systemom transportowym funkcjonowanie z wyższym poziomem wydajności dzięki lepszej interakcji między podażą a popytem. Przyglądając się potencjalnemu wpływowi technologii informacyjno-komunikacyjnych na mobilność, należy rozważyć, w jaki sposób technologie informacyjno-komunikacyjne wspierają, modyfikują, rozszerzają lub zastępują mobilność pasażerów i towarów. Należy podkreślić, że technologie informacyjne nie prowadzą do dematerializacji gospodarki, co jest powszechnym błędnym przekonaniem. Zamiast tego wprowadzenie technologii informacyjno-komunikacyjnych wspiera szereg nowych paradygmatów:

- Paradygmat korporacji platformowej: Pojęcie to zwykle odnosi się do korporacji skupiającej się na zestawie kluczowych kompetencji (zadania o wysokim zysku) i outsourcingu działań postrzeganych jako mniej wartościowe. W sektorze produkcyjnym często koncentruje się na projektowaniu produktów i sprzedaży detalicznej oraz polega na sieci dostawców w zakresie dostaw i montażu części. W ten sposób korporacja platformowa organizuje produkcję, dystrybucję i sprzedaż detaliczną towarów, które sprzedaje. Poprzez swoją sieć informatyczną pośrednio i bezpośrednio generuje duże przepływy materiałów dla zarządzanych przez siebie łańcuchów dostaw, ale sama korporacja może nie wytwarzać żadnych dóbr materialnych.
- Paradygmat handlu elektronicznego: detaliści internetowi rzucili wyzwanie konwencjonalnemu paradygmatowi w sektorze handlu detalicznego, działając jako pośrednik między dostawcami a konsumentami. Obsługują sieć centrów e-fulfillment (centrów dystrybucji), przechowujących setki tysięcy artykułów i przetwarzających duże ilości zamówień, które są następnie pakowane i dostarczane za pośrednictwem usług pocztowych lub paczkowych. Cała gama sprzedawców internetowych jest uzależniona od przepływów materiałów, a centrum dystrybucji jest kluczowym elementem tej strategii.
- Paradygmat zarządzania aktywami: Elementy tego, co zostało nazwane "ekonomią współdzielenia", są po prostu bardziej skutecznymi sposobami zarządzania istniejącymi aktywami, takimi jak nieruchomości lub pojazdy, poprzez łączenie dostawców i klientów. Nawet jeśli platforma zarządzająca może być postrzegana jako niematerialna, obejmuje aktywa materialne.

Wspomniane paradygmaty podkreślają, że światowa gospodarka coraz lepiej radzi sobie z produkcją i dystrybucją dóbr oraz zarządzaniem istniejącymi dobrami materialnymi poprzez tworzenie rozszerzonych możliwości rynkowych.

Sfery interakcji między technologiami informacyjnymi i transportowymi

Trzy główne sfery, w których ICT wchodzą w interakcje z transportem, obejmują (1) działania osobiste, (2) klient-firma oraz (3) działalność biznes-biznes. ICT umożliwiają jednostkom interakcję za pośrednictwem dodatkowych mediów (np. e-maili, komunikatorów, wideokonferencji), co może prowadzić nie tylko do większej liczby interakcji, ale także do zmian w sposobie prowadzenia tych interakcji. Rozpowszechnienie przenośnych osobistych urządzeń komputerowych (np. laptopów, smartfonów i tabletów) umożliwiło również jednostkom wzbogacenie ich mobilności poprzez umożliwienie im wykonywania różnych zadań podczas przemieszczania się lub poza konwencjonalnym środowiskiem pracy biurowej. Kilka aplikacji, takich jak globalne systemy pozycjonowania, również umożliwia poszczególnym osobom lepsze zarządzanie mobilnością. Intensywność i planowanie mobilności mogą stać się wysoce interaktywne, ponieważ użytkownicy mogą koordynować swoją mobilność w świetle zmian i zdarzeń w czasie rzeczywistym, takich jak zatory. Technologie informacyjno-komunikacyjne umożliwiają konsumentom skuteczniejszą interakcję z usługami transportowymi, z których korzystają. Formą bezpośrednią są zakupy usług transportowych, które obecnie odbywają się online, w szczególności poprzez systemy rezerwacyjne na transport lotniczy i kolejowy. Formą pośrednią jest e-commerce, który otworzył zupełnie nowe możliwości handlowe jako uzupełnienie lub substytut tradycyjnych zakupów, od artykułów pierwszej potrzeby po towary uznaniowe. Nie musi to oznaczać, że konsumpcja jest większa, ale że coraz większa część transakcji detalicznych odbywa się online, co skutkuje wzrostem dostaw do domu, które są pośrednią formą transportu. Technologie informacyjno-komunikacyjne umożliwiają przedsiębiorstwom skuteczniejsze przeprowadzanie transakcji, co pośrednio przekłada się na zmiany w ich operacjach transportowych. Rosnąca skala i intensywność transakcji biznesowych jest często związana z nowymi strategiami zarządzania łańcuchem dostaw. Na przykład strategie zarządzania zapasami, na które pozwalają technologie informacyjno-komunikacyjne, umożliwiają większą część zapasów w tranzycie ("przechowywanym" w pojazdach i na terminalach), często wraz ze wzrostem częstotliwości dostaw. Zastępowanie transportu poprzez pracę zdalną i telekonsumpcję Jednym z aktualnych założeń jest to, że ICT mogą oferować formy substytucji fizycznej mobilności pasażerów i towarów. Kiedy ta substytucja obejmuje przepływy związane z pracą, jest określana jako telepraca, a gdy obejmuje przepływy związane z konsumpcją, jest określana jako telekonsumpcja. Praca zdalna polega na wykorzystaniu ICT do wykonywania pracy w miejscu oddalonym od tradycyjnej lokalizacji i środowiska biurowego. W ten sposób dojazdy są zastępowane i sugeruje się, że zamiast tego odbywały się zdalnie. Telekonsumpcja to wykorzystanie technologii informacyjno-komunikacyjnych do konsumowania produktów i usług, do których normalnie dostęp wymagałby fizycznego przepływu (np. obecność w punkcie sprzedaży detalicznej). Istnieją oczywiście różne stopnie telepracy, począwszy od częściowego zastępstwa, w ramach którego pracownik może spędzić 1 dzień tygodniowo, wykonując pracę w innym miejscu, do pełnego zastępstwa, w ramach którego praca jest wykonywana gdzie indziej, na przykład w lokalizacji morskiej. Telekonsumpcja jest bardziej niejednoznaczna i jest głównym czynnikiem wpływającym na postrzeganie gospodarki zdematerializowanej. Na przykład wiele form mediów, takich jak książki, gazety, czasopisma, filmy i muzyka, było kiedyś fizycznie dostarczanych i konsumowanych, ale obecnie są dostępne (konsumowane) głównie online. Oprogramowanie, które kiedyś było dystrybuowane za pomocą środków fizycznych, takich jak dyski, można teraz pobrać. Mimo to telepraca i telekonsumpcja wymagają znacznej infrastruktury telekomunikacyjnej i sieci, aby były skuteczne. Praca zdalna często nie spełniała oczekiwań, a jej udział w ruchu do pracy ogółem pozostaje niski i względnie niezmieniony; około 3% do 5% całej siły roboczej w USA pracuje zdalnie co najmniej raz w miesiącu. Istnieje wiele przyczyn tego utrzymującego się niskiego udziału, począwszy od działań, których nie można łatwo zastąpić, po utratę bezpośredniej kontroli ze strony kierownictwa z powodu nieobecności pracowników na miejscu. Jednym z głównych czynników jest to, że jeśli praca może zostać uzupełniona pracą zdalną, celem jest również przeniesienie jej do taniej lokalizacji za pośrednictwem outsourcingu lub offshoringu. Istnieje zatem duża liczba telepracy, która zamiast tego odbywa się jako offshoring. Ponadto wielu pracowników korzysta z form telepracy, aby pracować w godzinach nadliczbowych i wykonywać dodatkową pracę w domu. Praca zdalna pozwala zatem pracodawcom narzucić dłuższy czas pracy, a także zapewnia wyższy poziom dyspozycyjności pracowników do pracy na dyżurze poza normalnymi godzinami pracy.

Wpływ ICT na mobilność

Potencjalny wpływ technologii informacyjno-komunikacyjnych na mobilność obejmuje modyfikację (inny początek, miejsce docelowe, środek transportu lub trasa), zastąpienie (z przepływu fizycznego na przepływ informacji) lub generowanie ruchu. Taki wynik zależy od kontekstu społeczno-ekonomicznego i geograficznego, w którym odbywa się mobilność.

Substytucja transportu

Szybkie rozprzestrzenianie się technologii informacyjno-komunikacyjnych, takich jak telefony komórkowe, intranet i telekonferencje, promuje nowe formy mobilności i możliwość zastąpienia mobilności. Ograniczenie użytkowania pojazdów jest jedną z głównych oczekiwanych korzyści ICT, ponieważ zakłada się, że nastąpi jakaś forma zastąpienia lub że aktywa pojazdów będą wykorzystywane bardziej efektywnie. Jednak substytucja pozostaje stosunkowo marginalna dla fizycznej mobilności ludzi. Technologie informacyjno-komunikacyjne po prostu zezwoliły na dodatkowe formy niefizycznych interakcji. Najważniejszy efekt substytucyjny dotyczy usług pocztowych, gdzie metody komunikacji online i telekonsumpcja wiążą się ze znacznym spadkiem wolumenu przesyłek pocztowych i związanej z nimi działalności transportowej. Pomimo wzrostu gospodarczego i demograficznego całkowity wolumen przesyłek pocztowych w Stanach Zjednoczonych spadł o 27% w latach 2005-2015. Jest to częściowo spowodowane zastąpieniem elektronicznych form komunikacji, a także spadkiem wykorzystania poczty do celów marketingowych (np. reklamy). Inna ważna forma substytucji transportu dotyczy handlu elektronicznego, gdzie w przypadku transakcji online zakupy w sklepach zostały zastąpione dostawami do domu (wykres 1). Wzrost dostaw do domu skłonił sprzedawców internetowych, takich jak Amazon, do wejścia na rynek dostaw paczek, ponieważ są w stanie wygenerować wystarczającą ilość ładunków, aby oferować usługi transportowe na własny rachunek. W konwencjonalnym łańcuchu dostaw detalicznych klienci są odpowiedzialni za zakup swoich towarów w lokalizacji sprzedawcy; przejmują "ostatnią milę" w dystrybucji towarów, podróżując do sklepu iz powrotem. Ponieważ lokalizacja jest ważnym wymiarem handlu detalicznego, detalista ponosi znaczne koszty utrzymania takiej dostępnej lokalizacji (np. czynsz), która określa jego obszar rynkowy (jego bazę klientów). Koszty te znajdują odzwierciedlenie w końcowych kosztach towaru, które ponosi konsument. Detalista utrzymuje poziom zapasów magazynowych (w postaci zatowarowanych półek), które są uzupełniane przez regionalne centra dystrybucyjne, w których składowane są towary pochodzące od szerokiego grona dostawców. Pojawienie się handlu elektronicznego zmieniło relacje między klientami a detalistami (e-detalistami). W niektórych przypadkach pojawili się zupełnie nowi e-detaliści, ale przyjęcie strategii online przez konwencjonalnych detalistów również było bardzo znaczące. W powstającym systemie dystrybucji e-sprzedawca jest jednocześnie detalistą i centrum dystrybucyjnym.

Nawigacja i śledzenie

Chociaż urządzenia nawigacyjne są dostępne od jakiegoś czasu, połączenie globalnych systemów pozycjonowania i technologii komunikacji bezprzewodowej w celu uzyskania dostępu do Internetu i mobilnych urządzeń komputerowych umożliwiło zaawansowane formy dynamicznej nawigacji i śledzenia. Pomoc w nawigacji i informacje w czasie rzeczywistym o warunkach drogowych dostarczają dokładnych szacunków czasu podróży i oferują możliwość alternatywnych tras w przypadku zakłóceń. Na poziomie zagregowanym umożliwiło to użytkownikom dróg znaczne oszczędności czasu i paliwa, zarówno w przypadku pasażerów, jak i transportu towarowego. Ponadto możliwe jest teraz śledzenie lokalizacji pojazdów i przesyłek, co pozwala lepiej oszacować czas przyjazdu lub dostawy. Śledzenie jako zarządzanie zapasami strategia pozwala również na bardziej elastyczne wykorzystanie transportu, ponieważ przesyłka może być różnie lub przekierowana w zależności od zmian w popycie. Nadchodząca zmiana dotyczy pojazdów samojezdnych, które można komercyjnie wdrożyć tylko wtedy, gdy otrzymają nie tylko znaczną ilość informacji w czasie rzeczywistym o środowisku, w którym się poruszają, za pośrednictwem czujników pokładowych, ale także kanały informacyjne wspierane przez technologie informacyjno-komunikacyjne. Duże rozpowszechnienie pojazdów bezzałogowych miałoby znaczny wpływ na system transportowy, zmniejszając liczbę pojazdów wymaganych do zaspokojenia istniejącego popytu, zwiększając mobilność osób, które mogą być niepełnosprawne fizycznie lub finansowo, zmniejszając ryzyko wypadków oraz poprawę efektywności czasowej i kosztowej zarówno przepływów pasażerskich, jak i towarowych.

Rynki usług transportowych

Tradycyjnie wiele rynków transportowych mogło być zarezerwowanych tylko przez pośredników, takich jak biura podróży lub spedytorzy. Rozwój Internetu umożliwił użytkownikom bezpośrednie rezerwowanie usług transportowych, takich jak podróż samolotem, pociągiem i autobusem. Dla branży lotniczej zmiany te były znaczące, promując konkurencję i wygodę podróży lotniczych z możliwością odprawy online, a nawet użycia urządzenia mobilnego do noszenia wirtualnej karty pokładowej. Podobna tendencja miała miejsce w przypadku usług kolejowych, w szczególności kolei dużych prędkości, ale wkracza ona również na rynek transportu masowego. Niedawno rozpowszechnienie usług wspólnych przejazdów (np. Uber, Lyft, Didi) otworzyło zupełnie nowy wachlarz możliwości, rozszerzając możliwości łączenia dostawców usług transportowych i klientów. Platformy internetowe rozwijają również możliwości dla sektora transportu towarowego, umożliwiając dostawcom usług transportu towarowego, takim jak linie żeglugowe lub przedsiębiorstwa przewozowe, wystawianie usług na aukcjach lub składanie ofert na oferowane zapotrzebowanie na transport.

Zarządzanie aktywami transportowymi

Usługi transportowe wspierane przez ICT, takie jak wspólne przejazdy, skutkują lepszym zarządzaniem pojazdami, trasami i zasobami (np. wyższe współczynniki obciążenia, więcej przejazdów na pojazd, mniej pojazdów przy tej samej pojemności). Dotyczy to w szczególności dystrybucji towarów z zastosowaniem logistyki wspierającej lepszy poziom zarządzania zapasami i bardziej niezawodne dostawy. Istnieje wiele zastosowań ICT w zarządzaniu majątkiem transportowym. Jeden dotyczy systemów umawiania wizyt w terminalach (portach i stacjach kolejowych) oraz centrach dystrybucyjnych. Użytkownicy mają możliwość za pośrednictwem platformy internetowej rezerwacji czasu dostępu do obiektu, co powinno poprawić efektywność zarówno terminala, jak i majątku pojazdu. Zarządzanie zapasami just-intime, które zmniejsza zapotrzebowanie na zapasy, nie byłoby możliwe bez znaczącego wsparcia ICT, w tym ciągłej automatyzacji terminali i obiektów dystrybucyjnych. Zarządzanie wydajnością i ustalanie opłat za przeciążenia są również powszechne w celu lepszego zarządzania dostępną przepustowością w warunkach dużego zapotrzebowania, ale wymaga to dokładnych informacji w czasie rzeczywistym. Na przykład w przypadku zarządzania zyskiem linia lotnicza może dynamicznie zmieniać ceny swoich miejsc, a nawet prosić zarezerwowanych klientów o opóźnienie podróży (w zamian za odszkodowanie). Wszystkie wyżej wymienione przykłady pokazują, że chociaż sama mobilność nie uległa zmianie, ponieważ pozostaje przepływem pasażerów lub towarów, technologie informacyjno-komunikacyjne wpłynęły na mobilność na różne sposoby. Sprawiają, że mobilność jest bardziej wydajna, będąc czasem w stanie zaoferować formę substytutu mobilności pasażerów i towarów, nawigować w zmieniającym się środowisku .



Powrót

Troll




Troll to obraźliwe określenie w slangu internetowym, które jako rzeczownik zwykle odnosi się do osób, które, jak się uważa, celowo dążą do osiągnięcia jednego lub więcej z następujących celów w interakcjach online: (1) przyciągnięcia pełnej uwagi innych użytkowników; (2) wywoływać nieprzyjemną i intensywną reakcję emocjonalną, taką jak rozdrażnienie, zakłopotanie lub złość u innych użytkowników; (3) wywoływać potencjalnie obraźliwe odpowiedzi innych użytkowników; (4) powodować, utrwalać ani eskalować konfliktów; (5) zakłócać trwającą interakcję online; lub (6) oszukiwać lub manipulować innymi osobami. W związku z tym uważa się, że trolle próbują wpływać negatywnie na uwagę, emocje, działania, relacje międzyludzkie i/lub interakcje online jako całość innych użytkowników. Troll to tożsamość oparta na zachowaniu, co oznacza, że uczestnicy interakcji online mają tendencję do nazywania innych trollami na podstawie tego, co są postrzegani. Do najczęściej wymienianych działań, na podstawie których można kogoś nazwać trollem, należą: (a) powtarzanie tej samej wypowiedzi; (b) publikowania nieistotnych lub bezsensownych informacji; (c) publikowania wprowadzających w błąd lub niezgodnych ze stanem faktycznym informacji; (d) rozpowszechniania złych i/lub niebezpiecznych porad; (e) ignorować, pogardzać, odrzucać lub atakować podstawowe wartości interakcji; oraz (f) bezpośrednio obrażać, grozić, krytykować lub w inny sposób atakować innych użytkowników. W literaturze akademickiej wielokrotnie twierdzi się, że trolle swoimi działaniami zawsze naruszają przynajmniej niektóre z jawnych lub ukrytych norm bieżącej interakcji online. Pogląd ten sugeruje, że każde działanie, które uważa się za naruszające lokalne normy interakcji, może być potencjalnie postrzegane jako akt trollingu. Troll, w szerszym znaczeniu, może również odnosić się do każdej osoby, która zachowuje się w sposób nienormatywny/dewiacyjny, aspołeczny lub złośliwy w interakcjach online, a nawet offline. Chociaż uczestnicy interakcji online zwykle używają terminu troll w celu pejoratywnego odniesienia się do innych uczestników i oskarżenia ich o złośliwe zachowanie, są użytkownicy, którzy jednoznacznie identyfikują się jako trolle. Ponadto troll może odnosić się nie tylko do tych osób, które trollują, ale także do tych postów lub komentarzy, za pomocą których trolling jest przeprowadzany. Troll jako czasownik oznacza zestaw wymienionych wcześniej działań, które składają się na trolling. W tym wpisie najpierw omówiono kulturowe podłoże trollingu, w tym możliwą etymologię tego słowa i znaczenie trollingu dla prawodawstwa. Następnie ten wpis daje widok z lotu ptaka na temat motywacji i osobowości tych, którzy trollują. Wreszcie mapuje, w jaki sposób względna anonimowość może ułatwić trollowanie w wielu interakcjach online

Kulturowe podłoże trollingu

Troll jako internetowy termin slangowy prawdopodobnie pojawił się po raz pierwszy w Usenecie, rozproszonym na całym świecie systemie forów dyskusyjnych, w pewnym momencie pod koniec lat 80. Istnieją dwa szeroko rozpowszechnione poglądy na temat możliwej etymologii tego słowa. Zgodnie z pierwszym poglądem, trolling online i trolling są koncepcyjnie powiązane z metodą połowu polegającą na powolnym wyciąganiu przynęty lub haczyka z przynętą z poruszającej się łodzi, co jest również nazywane trollingiem. Ta etymologia podkreśla oszukańczy i prowokacyjny charakter internetowego trollingu i jest poparta trzema faktami. (1) Podobnie jak termin wędkarski, słowo troll jako slang internetowy jest używane nie tylko jako rzeczownik (On jest naprawdę irytującym trollem), ale także jako czasownik (większość użytkowników po prostu trolluje). (2) Troll może odnosić się nie tylko do tych osób, które trollują (jest to najwredniejszy troll, jakiego kiedykolwiek widziałem), ale także do tych postów lub komentarzy, za pomocą których trolling jest wykonywany (Twój ostatni komentarz był niczym innym jak oczywistym trollem) . Koresponduje to z faktem, że troll jako termin wędkarski zwykle odnosi się do przynęt i przynęt używanych do trollingu. (3) Ci, którzy trollują w Internecie, są nie tylko nazywani trollami, ale także trollami, podobnie jak ci, którzy trolling stosują jako metodę łowienia. Z drugiej strony, zgodnie z drugim poglądem, troll jako slang internetowy można prześledzić wstecz do rzeczownika troll, który odnosi się do przeważnie agresywnych i powolnych istot nadprzyrodzonych z mitologii nordyckiej i folkloru skandynawskiego, które, jak wierzono, zamieszkują odizolowane jaskinie i podziemne mieszkania. Ze względu na ogromny sukces niektórych serii fantasy, takich jak Władca Pierścieni czy Harry Potter, troll jako istota nadprzyrodzona stał się częścią współczesnej zachodniej kultury popularnej. Podejście to koncentruje się na bezpośrednio nadużyciach aspektów trollingu i jest wspierane przez wizualne przedstawienie internetowych trolli jako brzydkich potworów (Rysunek 1) oraz dobrze znane wyrażenia Nie karmić trolli! i "Ignoruj tych, którzy trollują!" które są niezgodne z etymologią metody połowu. Trolling online był koncepcją subkulturową w późnych latach 80. i wczesnych 90. XX wieku, ponieważ był znany tylko tym, którzy byli aktywnie zaangażowani w dyskusje online w Usenecie, systemach tablic ogłoszeń i internetowych sieciach przekaźnikowych. Termin ten zwrócił uwagę opinii publicznej pod koniec lat 90. i 2000. i stał się częścią głównego nurtu kultury zachodniej. Było szeroko omawiane w mediach głównego nurtu, w tym w gazetach internetowych i drukowanych, a także w programach radiowych i telewizyjnych, zwłaszcza w Stanach Zjednoczonych i Wielkiej Brytanii. Przyciągnęła również znaczne zainteresowanie akademickie w kilku dziedzinach, w tym językoznawstwie, badaniach nad mediami i komunikacją, psychologii, informatyce, politologii i prawie. Obecnie termin ten jest szeroko stosowany na stronach internetowych, na których użytkownicy mogą bezpośrednio wchodzić w interakcje, takich jak blogi, fora dyskusyjne, czaty i serwisy społecznościowe (np. Facebook, YouTube, Instagram i Twitter). Ponadto trolling jest również używany do opisania szerokiej gamy zachowań poza siecią, takich jak żarty. Będąc terminem, który nie odnosi się do konkretnego działania, ale do niejasnego zestawu zachowań, trolling sam w sobie nie jest terminem prawnym ani przestępstwo w jakimkolwiek kraju. Ma to jednak znaczenie dla prawodawstwa, ponieważ niektóre rażąco obraźliwe i/lub oszukańcze działania, które są związane z trollingiem i które mogą powodować u innych poważny niepokój lub niepokój, mogą zostać uznane za przestępstwo - na przykład w Stanach Zjednoczonych Zjednoczone Królestwo, państwa członkowskie Unii Europejskiej, Australia i Nowa Zelandia. Na przykład w Zjednoczonym Królestwie podsekcja 1(1) ustawy Malicious Communications Act 1988 stanowi, że każda osoba, która wysyła innej osobie list, wiadomość elektroniczną lub artykuł dowolnego rodzaju, który zawiera wiadomość nieprzyzwoitą lub rażąco obraźliwą, groźba lub nieprawdziwa informacja jest winna przestępstwa, jeżeli powodem tej komunikacji było wywołanie niepokoju lub niepokoju u adresata lub jakiejkolwiek innej osoby. Ustawa o wymiarze sprawiedliwości w sprawach karnych i sądach z 2015 r., która zmienia poprzednią ustawę, określa w ramach przestępstw polegających na zamiarze wywołania niepokoju lub niepokoju, że sprawcom wyżej wymienionego przestępstwa grozi maksymalnie 2 lata pozbawienia wolności lub grzywna, albo obie kary łącznie. Ponadto podpunkty 127 ust. 1-2 ustawy o łączności z 2003 r. stanowią, że w przypadku niewłaściwego korzystania z publicznej sieci łączności elektronicznej dana osoba popełnia przestępstwo i podlega karze pozbawienia wolności do maksymalnie 6 miesięcy, grzywnie lub zarówno jeśli ta osoba wysyła rażąco obraźliwą, nieprzyzwoitą, obsceniczną, groźną lub fałszywą wiadomość lub inną sprawę do innej osoby za pośrednictwem publicznej sieci łączności elektronicznej w celu spowodowania irytacji, niedogodności lub niepotrzebnego niepokoju drugiej osoby. Trzecią brytyjską ustawą dotyczącą trollingu jest ustawa o ochronie przed nękaniem z 1997 r., która stanowi, że nękanie i prześladowanie są przestępstwami, a osoby, które zostały uznane za winne, podlegają karze pozbawienia wolności na okres nieprzekraczający 6 miesięcy, jeżeli przestępstwem jest nękanie i 51 tygodni, jeśli przestępstwem jest prześladowanie, grzywna lub jedno i drugie. Podobne przepisy obowiązują w innych krajach, na przykład 47 U.S. Code, sekcja 223 w Stanach Zjednoczonych, ustawa o kodeksie karnym z 1995 r., podsekcja 474.17(1) w Australii lub ustawa o szkodliwej komunikacji cyfrowej z 2015 r., sekcja 22 w Nowej Zelandii.

Motywacje i osobowość trolli

Powszechnie przyjmuje się, że ci, którzy trollują, angażują się w takie zachowanie głównie dlatego, że po prostu czerpią z tego przyjemność i/lub jego konsekwencje, w tym uwagę i reakcje, jakie otrzymują, oraz szkody, jakie powoduje ich zachowanie. Mówi się, że główną motywacją tych, którzy wyraźnie identyfikują się jako trolle, jest zabawa. Ponadto wspomina się również o emocjonalnych motywach trollowania, takich jak nuda, potrzeba uwagi lub osiągnięć, samotność, ciekawość, chęć kontroli i usamodzielnienia, wrogość, nienawiść do określonych użytkowników, zemsta i wrogość do celu interakcji. Sugeruje się również, że niektórzy użytkownicy mogą trollować z powodu przekonań politycznych i ideologii lub w celu osiągnięcia określonych celów politycznych. Ostatnie badania psychologiczne dotyczące osobowości osób trollujących sugerują, że trolle, które same się przyznają, to głównie młodzi mężczyźni i mogą mieć niską samoocenę. Ponadto mogą mieć cechy osobowości związane z sadyzmem, psychopatią i makiawelizmem. Twierdzi się również, że trolling wydaje się być internetową manifestacją codziennego sadyzmu, a trolle internetowe mogą być prototypowymi codziennymi sadystami. Inne badania, które koncentrują się na tym, co ich respondenci myślą o trollach, wykazały, że uważa się, że trolle szukają uwagi, są okrutne i niewykształcone, ale zabawne, a także zakłada się, że mają niską pewność siebie.

Względna anonimowość i trolling

Komunikacja za pośrednictwem komputera ma szczególny czynnik zewnętrzny, który wydaje się ułatwiać trolling. Czynnikiem tym jest względna anonimowość uczestników w szerokim zakresie interakcji online. Względna anonimowość odnosi się do faktu, że w wielu - choć nie wszystkich - interakcjach online uczestnicy nie muszą udostępniać swoich oficjalnych i/lub "prawdziwych" danych osobowych, takich jak imię i nazwisko, wygląd, wiek, płeć, narodowość, i/lub pochodzenie etniczne, ale zamiast tego mogą użyć awatara online, który może zawierać dowolnie wybrany pseudonim, zdjęcie profilowe i wprowadzenie. W rezultacie uczestnicy mogą ukryć swoją tożsamość przed innymi uczestnikami. Co więcej, ten sam uczestnik może używać różnych awatarów online w tej samej interakcji, podczas gdy ten sam awatar może być dostępny dla różnych użytkowników. Względna anonimowość nie jest przyczyną trollingu, ponieważ trolling występuje również w interakcjach online, w których wszyscy uczestnicy udostępniają swoje rzeczywiste dane osobowe. Jednak względna anonimowość może ułatwić trollowanie na co najmniej trzy różne sposoby. Po pierwsze, ponieważ użytkownicy często nie mają wcześniejszych informacji o sobie nawzajem i nie widzą i/lub nie słyszą innych użytkowników, mają mniej wskazówek do interpretacji zachowania innych niż w zwykłych rozmowach osobistych. W rezultacie oszukańcze zachowanie staje się generalnie trudniejsze do wykrycia w interakcjach online niż w interakcjach offline. Dlatego trolling jako zachowanie potencjalnie oszukańcze jest po prostu łatwiejszy do przeprowadzenia w interakcjach online niż w trybie off-line. Po drugie, względna anonimowość przynajmniej częściowo usuwa zagrożenie dotkliwymi fizycznymi, emocjonalnymi i egzystencjalnymi konsekwencjami nienormatywnych i/lub negatywnie nacechowanych zachowań w sieci, takich jak trolling. Dzięki temu jednostki mogą zachowywać się online w sposób, którego normalnie nie zachowywałyby się w świecie offline, ponieważ nie muszą się martwić o negatywny wpływ, jaki ich zachowanie może mieć na ich własne życie. Wreszcie, względna anonimowość może mieć również dehumanizujący wpływ na uczestników. Ponieważ uczestnicy interakcji online niekoniecznie znają swoją tożsamość offline i często nie widzą się ani nie słyszą podczas trwającej interakcji online, istnieje możliwość, że nie postrzegają innych uczestników jako rzeczywistych istot ludzkich, ale jedynie jako wirtualnych postacie. W rezultacie uczestnicy mogą mieć poczucie, że ich nienormatywne i/lub negatywnie nacechowane działania w sieci nie mogą mieć szkodliwego psychologicznego wpływu na innych uczestników.



Powrót

Twitter




W 2001 roku teoretyk Manuel Castells zasugerował: "Cyberprzestrzeń stała się globalną elektroniczną agorą, w której różnorodność ludzkiego niezadowolenia eksploduje kakofonią akcentów" (s. 138). Internet sprzyja rozprzestrzenianiu się indywidualnych ludzkich myśli i idei, wydobywając na światło dzienne różnorodne głosy i opinie na każdy możliwy do wyobrażenia temat. Jako publiczna sieć społecznościowa, Twitter stał się miejscem, w którym przeciętni obywatele, politycy i celebryci mogą dzielić się nowinkami, pomysłami i opiniami na różne tematy, od zmian klimatu, przez skandale polityczne, po kolory kobiecej mody. System otwiera możliwości badań społecznych i geograficznych ze względu na możliwość uzyskania wglądu w lokalizacje geograficzne użytkowników, a także w myśli i reakcje zwykłych ludzi na wydarzenia, które rozwijają się w czasie rzeczywistym. Podczas gdy wiele zachodnich mediów chwali Twittera, naukowcy niekoniecznie tak szybko przyznają mu pochwały. Twittera należy postrzegać w kontekście tego, co platforma oferuje społeczeństwu jako całości - nowemu narzędziu do doceniania różnorodności globalnych stylów życia, które przyczyniają się do tworzenia przestrzeni. Ten wpis analizuje to, co jest powszechnie określane jako "Twitterverse", użycie hashtagów i potencjalny przyszły rozwój Twittera.

Świat Twittera

Serwis społecznościowy Twitter został założony w 2006 roku przez trzech programistów pracujących dla Odeo, Inc., firmy podcastingowej. Chociaż Twitter zaczynał od niewielkich rozmiarów, zatrudniając zaledwie 8 pracowników do 2008 r., stamtąd szybko rozwinął się do dużej firmy zatrudniającej ponad 400 pracowników w marcu 2011 r. W 2016 r. Twitter miał ponad 35 lokalizacji biurowych i 3900 pracowników na całym świecie, z około 40 % personelu zatrudnionego na stanowiskach technicznych. Lokalizacje biur obejmują Sunnyvale w Kalifornii; Cincinnati, Ohio; i Detroit w stanie Michigan w Stanach Zjednoczonych; Bogota, Kolumbia; Bengaluru, Indie; i Seul w Korei Południowej. Firma złożyła wniosek o pierwszą ofertę publiczną w listopadzie 2013 roku. Liczba osób korzystających z Twittera rosła wraz z wielkością firmy. Do piątych urodzin firmy w marcu 2011 r. konta na Twitterze wysyłały średnio 1 miliard tweetów tygodniowo. We wrześniu tego samego roku liczba aktywnych kont miesięcznie oscylowała wokół 100 milionów na całym świecie. Od 2016 roku było około 320 milionów kont, które były aktywne co najmniej raz w miesiącu, a 79% z nich istniało poza krajem macierzystym firmy, czyli Stanami Zjednoczonymi. W 2016 roku Twitter obsługiwał 34 języki i twierdził, że ma 1 miliard unikalnych wizyt miesięcznie na stronach z osadzonymi tweetami. Twitter, jak opisano na stronie Informacje, to "to, co dzieje się na świecie i o czym ludzie teraz rozmawiają". Użytkownicy tweetują informacje w publicznym środowisku online, podobnym do pokoju rozmów. Tweet to krótka wiadomość składająca się ze 140 znaków lub mniej, dotycząca wszelkich informacji, które użytkownik chce przesłać publicznie. Ponieważ Twitter jest domyślnie publiczny, użytkownicy mogą zobaczyć wszystkie tweety (które nie zostały zablokowane przez kontrolę prywatności konkretnego użytkownika) wysłane przez innych użytkowników Twittera. Użytkownicy mogą dodawać innych użytkowników do swojego kanału informacyjnego i subskrybować ich tweety. Kanał informacyjny działa jak stale aktualizowana strona internetowa z tweetami z kont najbardziej interesujących dla użytkownika. Dlatego użytkownicy Twittera mogą otrzymywać natychmiastowe aktualizacje z kont innych osób. Twitter czerpie korzyści z ludzkiego pragnienia poznawania nowych pomysłów, ludzi i miejsc. Nie każda osoba na Twitterze wysyła tweety. Wielu użytkowników po prostu uzyskuje dostęp do swoich kont, aby zobaczyć, co się dzieje w odniesieniu do ich zainteresowań, praktyka ta nazywa się czajeniem. Konta na Twitterze mają firmy, źródła wiadomości, celebryci, politycy i osoby prywatne. W ten sposób Twitter staje się ciągłym kanałem nagłówków w czasie rzeczywistym. Ludzie mają natychmiastowy dostęp do tego, co dzieje się na całym świecie, nie tylko prywatnie z perspektywy jednostek, ale także publicznie z perspektywy mediów informacyjnych i aren politycznych. Sieć działa zarówno jako źródło mediów jeden do wielu, jak i źródło jeden do jednego - użytkownicy mogą wysyłać wiadomości do masowej liczby obserwujących, ale nie są zobowiązani do obserwowania własnych obserwujących. Osoby fizyczne mogą również kontaktować się z innymi, wysyłając tweet lub (prywatną) bezpośrednią wiadomość do określonego użytkownika Twittera. Wraz z rozwojem Twitterverse będzie rosła liczba znanych użytkowników i, najprawdopodobniej, rodzaj informacji przekazywanych za pośrednictwem Twittera. W kwietniu 2010 r. Twitter ogłosił, że przekaże Bibliotece Kongresu archiwum publicznych tweetów. Chociaż Twitter zaczął jako środek do śledzenia działań przyjaciół i celebrytów, korzystanie z platformy zostało zmodyfikowane przez użytkowników Twittera. Obecnie coraz więcej osób korzysta z Twittera jako sposobu na znajdowanie wiadomości i informacji, co skłoniło programistów Twittera do zmiany nagłówka nad interfejsem pola tweeta z "Co robisz?" do "Co się dzieje?", odzwierciedlając sposób, w jaki korzysta się z Twittera. Jeden ze współzałożycieli opisał nawet platformę jako sieć informacyjną, a nie wyszukiwarkę znajomych i aktywność społecznościową typu Facebook. Dostęp do Twittera można uzyskać za pośrednictwem Internetu na komputerze, a także za pośrednictwem telefonów komórkowych. Około 80% aktywnych kont na Twitterze w 2016 roku było dostępnych za pośrednictwem telefonów komórkowych. Twitter początkowo ustalił limit 140 znaków, aby zmieścić się w limicie 160 znaków dla wiadomości tekstowych na telefony komórkowe, ale przez lata firma debatowała, czy zachować ten limit. We wrześniu 2017 r. Twitter rozpoczął test rozszerzenia limitu do 280 znaków, przy czym małe grupy użytkowników mogły publikować dłuższe tweety. Użytkownicy Twittera nie muszą posiadać smartfona ani komputera z dostępem do Internetu, aby korzystać z Twittera. Każdy rodzaj telefonu komórkowego pozwala im wysyłać tweety, a także odbierać tweety za pośrednictwem wiadomości tekstowych od osób, które subskrybują. W ten sposób Twitter umożliwia ludziom wysyłanie wiadomości i informacji do masowego odbiorcy na dużym obszarze geograficznym. Jeśli konto ma wielu obserwujących, którzy następnie ponownie wysyłają tweety (retweet) do swoich znajomych, stosunkowo łatwo i szybko można dotrzeć do ogromnej liczby osób w krótkim czasie. Mówi się, że tweety, które szybko generują ogromne ilości uwagi, "rozbijają Internet". Chociaż z logistycznego punktu widzenia niemożliwe jest przełamanie sieci World Wide Web za pomocą popularnych tweetów, coraz częściej zdarzają się przypadki niezwykle popularnych tweetów, które przejmują ruch internetowy, potencjalnie powodując przeciążenie witryny. W niektórych przypadkach wirusowy charakter popularnych tweetów jest spontaniczny, ale częściej tweety te są wysoce wykalkulowanymi manewrami public relations, mającymi na celu skierowanie ruchu internetowego do konkretnej osoby lub wydarzenia. Chociaż tworzenie wirusowych tweetów przez celebrytów jest generalnie nieszkodliwe poza dużymi ilościami danych, zdarzały się przypadki, w których pojedyncze tweety miały bardziej destrukcyjne skutki. Na przykład, kiedy Syryjska Armia Elektroniczna zhakowała konto Associated Press na Twitterze w 2013 roku i napisała na Twitterze o fałszywej eksplozji bomby w Białym Domu, Dow Jones spadł o prawie 150 punktów na kilka minut. Język angielski jest najczęściej używanym językiem na Twitterze; jednak biorąc pod uwagę fakt, że język angielski w coraz większym stopniu staje się globalną lingua franca, nie oznacza to, że większość użytkowników Twittera znajduje się w krajach anglojęzycznych. W badaniach oceniono miejsce pobytu użytkowników Twittera, a także powiązania między użytkownikami na podstawie wzorców językowych. W artykule z 2012 roku Yuri Takhteyev i współpracownicy stwierdzili, że pomimo tego, że język angielski jest szeroko opisywany na Twitterze, użytkownicy prawdopodobnie będą bardziej związani z innymi użytkownikami znajdującymi się w dość bliskiej odległości od nich (w promieniu 600 mil), niezależnie od języka ojczystego kraju, w którym oni żyją. Zamiast angielskiego jako predyktora miejsca zamieszkania użytkowników lub tego, kogo śledzą i z kim łączą się na platformie, Twitter odzwierciedla coraz częstsze użycie języka angielskiego jako wspólnego języka na całym świecie w Internecie. Podobnie jak inne technologie komunikacji internetowej, Twitter najlepiej sprawdza się w łączeniu ludzi w skali lokalnej (w promieniu 500 km), działając jako kolejna droga dla sieci społecznościowych off-line do interakcji i dystrybucji informacji. Twitter zaczął umożliwiać użytkownikom podawanie informacji o lokalizacji w swoich tweetach w sierpniu 2009 roku. Funkcja lokalizacji umożliwia użytkownikom umieszczenie punktu szerokości i długości geograficznej w tweecie, z którego został wysłany, za pomocą informacji GPS na ich smartfonach. Chociaż użytkownicy mogą dołączyć swoją lokalizację geograficzną jako część swojego profilu, ze względu na swoją mobilność lokalizacja podana w profilu nie jest najlepszą drogą do śledzenia, gdzie generowane są tweety. Dlatego dla badaczy korzystających z danych z Twittera geolokalizacja samego tweeta zapewnia najlepszą opcję mapowania tweetów. Jednak Twitterverse jest wypaczony w tym sensie, że tylko niewielka część użytkowników Twittera stosuje funkcje lokalizacji do tweetów - około 2,02% wszystkich tweetów wysyłanych codziennie ma dołączone dane dotyczące lokalizacji geograficznej. Wiele z tych tweetów jest wysyłanych przez grupę superużytkowników. W badaniu przeprowadzonym w 2013 roku przez Kalev Leetaru i współpracowników tylko 1% użytkowników Twittera stanowili 66% wszystkich geolokalizowanych tweetów. Jeśli polegasz na Twitterze jako źródle danych, ważne jest, aby rozpoznać błędy w danych użytkowników Twittera. Pomimo tego oczywistego uprzedzenia, włączenie tych informacji geograficznych sprawia, że Twitter jest jeszcze jednym dodatkiem do stale rozwijającego się Geoweb i otworzył drzwi do różnych badań geograficznych opartych na mapowaniu lokalizacji tweetów. Geografowie, którzy prowadzą blog Floating Sheep, stworzyli arsenał map, korzystając z danych pochodzących z Twittera, obejmujących różne tematy, od lokalizacji kościołów po lokalizacje barów, relacje z wyborów w 2012 roku i geografię mowy nienawiści. Chociaż ta witryna reprezentuje różnorodne ilości danych, które można uzyskać i zmapować, zbierając dużą liczbę tweetów, tak jest używany jako punkt wyjścia dla wielu innych pytań badawczych, które są badane w opublikowanych pracach. Na przykład w badaniu z 2015 roku Taylor Shelton, Ate Poorthuis i Matthew Zook badają lokalizację tweetów w Lexington w stanie Kentucky, wskazując, że Twitter może dostarczać informacji na temat relacyjnego charakteru rozwoju lokalnych dzielnic, a także wyobraźni geograficznej związanej z różnych miejscach w kontekście miejskim. Mapowanie lokalizacji tweetów nie powinno być ostatecznym celem badań geograficznych z wykorzystaniem Twittera. Podczas gdy mapowanie dużych zbiorów danych może stworzyć piękną sztukę i interesującą analizę wzorców, wielu geografów ostrzega przed nadmiernie redukcyjnym charakterem tego typu badań geograficznych. Wyjście poza zwykłe mapowanie tweetów i analizowanie treści może na przykład potencjalnie wspomóc wysiłki misji pokojowych poprzez odpowiadanie na opinie dziennikarzy obywatelskich w terenie. Funkcje lokalizacji na Twitterze zostały również zastosowane w różnych badaniach opartych na zagrożeniach. Wczesne badanie dotyczące wykorzystania Twittera w sytuacjach awaryjnych pochodziło od organizacji SocialFlow. SocialFlow wykorzystał tweety dotyczące trzęsienia ziemi w Wirginii 23 sierpnia 2011 r., aby skompilować serię map na podstawie tego, jak szybko informacje o trzęsieniu rozprzestrzeniły się w serwisie Twitterverse. W ciągu 1 minuty od pierwszego tweeta związanego z trzęsieniem ziemi wysłano 40 000 tweetów związanych z trzęsieniem ziemi, poruszających się, jak podaje Social-Flow, z rekordową prędkością 5500 tweetów na sekundę. Fale sejsmiczne przemieszczają się z prędkością około 3 kilometrów na sekundę, podczas gdy informacje przez kabel światłowodowy przemieszczają się z prędkością około 200 000 kilometrów na sekundę. Gdyby czas i miejsce, w którym pojawiły się tweety, zostały wzięte pod uwagę z szybkością trzęsienia ziemi, ludzie w rejonie Nowego Jorku mieliby "wyraźny 40-50-sekundowy sygnał ostrzegawczy" (Lotan, 2011) o trzęsieniu ziemi. Oznacza to, że coś o masowym znaczeniu, dotykające wielu ludzi, prawdopodobnie zostanie rozesłane po sieci Twittera w szybkim tempie. Przeprowadzono również inne badania oparte na zagrożeniach z wykorzystaniem danych z Twittera. W 2013 roku Andrew Crooks i jego współpracownicy donieśli o tym samym trzęsieniu ziemi w Mineral w Wirginii, aby wyjaśnić potencjał Twittera jako systemu ostrzegania napędzanego przez ludzi. Ich odkrycia wskazują, że sieci społecznościowe, takie jak Twitter, są równie dokładne, jak oficjalne sieci sensoryczne, takie jak te prowadzone przez U.S. Geological Survey w celu zgłaszania czasu i lokalizacji zagrożeń. Możliwość korzystania w ten sposób z platformy mediów społecznościowych ma istotne implikacje ze względu na wysokie koszty związane z wdrażaniem oficjalnych sieci sensorycznych w niektórych z najbardziej narażonych na katastrofy miejsc na Ziemi. W powiązanych pracach przyjrzano się, w jaki sposób służby ratownicze mogą identyfikować podzbiory użytkowników znajdujących się na ziemi podczas klęski żywiołowej. Łącząc się ze społecznościami społecznymi za pośrednictwem sieci internetowych, osoby udzielające pierwszej pomocy mogą dotrzeć do osób i obszarów, które wymagają największej pomocy w kryzysie środowiskowym. Chociaż przydatne jest zidentyfikowanie konkretnych miejsc potrzebujących pomocy podczas katastrofy, Shelton i współpracownicy podkreślają, że kontekst tych tweetów jest równie ważny dla zrozumienia niezbędnych kroków naprzód po kryzysie. Klęski żywiołowe mogą mieć lokalne konsekwencje fizyczne; jednak skutki dla ludzi i społeczeństwa są znacznie bardziej rozległe, co podkreśla relacyjne geografie, które tworzy cyberprzestrzeń między sieciami aktorów. Lokalizowanie epicentrów zagrożeń jest równie ważne, jak identyfikowanie obszarów, w których można gromadzić fundusze humanitarne lub wsparcie dla działań politycznych.

Hashtagi na Twitterze

Jednym z najważniejszych wkładów, jakie Twitter wniósł do Internetu i platform mediów społecznościowych, jest hashtag. Hashtag odnosi się do krótkiego słowa lub wiadomości poprzedzonej symbolem funta bez użycia spacji lub innych znaków specjalnych. Hashtagi mogą obejmować zarówno rozmowę o wieczornym wydarzeniu #AmericanIdol, jak i coś poważniejszego, takiego jak #OccupyWallStreet lub #PresidentialDebate. Sam hashtag staje się następnie hiperłączem, które użytkownicy mogą kliknąć, aby zobaczyć inne tweety zawierające ten hashtag. Gdy użytkownicy podają hashtag jako przypis końcowy do tweeta, inni użytkownicy mogą kliknąć hashtag lub przeprowadzić wyszukiwanie hashtagów, aby zobaczyć, co użytkownicy publikują na ten temat. Hashtag narodził się z pomysłu "kanałów" w Internet Relay Chat, który przed 2007 rokiem był znany tylko niewielkiej grupie internautów. Pierwsze użycie hashtagu na Twitterze miało miejsce w sierpniu 2007 roku, po tym, jak został zaproponowany przez użytkownika Chris Messina jako sposób na łączenie różnych, ale powiązanych ze sobą rozmów na dany temat. Twitter początkowo odrzucił ten pomysł, ale po tym, jak Messina zachęcił użytkowników Twittera opisujących pożary lasów w San Diego w 2007 roku do używania #SanDiegofire w swoich tweetach, popularność osób używających hashtagów wzrosła. W lipcu 2009 r. Twitter oficjalnie przyjął hashtag, tworząc automatyczne hiperłącza do otagowanych treści. Używanie hashtagów stało się wszechobecne na platformach społecznościowych. przez najpopularniejszy hashtag 2015 roku #ParisAttacks, używany jako symbol solidarności z miastem w świetle niedawnych ataków terrorystycznych. Hashtagi były również używane do wywoływania protestów i głównych ruchów politycznych. W 2015 roku ponad 9 milionów tweetów zawierało hashtag #BlackLivesMatter. Ruch Black Lives Matter rozpoczął się w 2013 roku w odpowiedzi na uniewinnienie wolontariusza straży sąsiedzkiej, George'a Zimmermana, w sprawie śmierci 17-letniego Trayvona Martina w Sanford na Florydzie. W następnym roku zarówno hashtagi #BlackLivesMatter, jak i #Ferguson były szeroko stosowane w związku z wydarzeniami w Ferguson w stanie Missouri, związanymi z zastrzeleniem Mike'a Browna przez funkcjonariusza policji z Fergusona. W sierpniu 2014 roku wysłano ponad 18 milionów tweetów zawierających #Ferguson. Ruch Black Lives Matter podkreśla zdolność grup mniejszościowych do korzystania z platformy na swoją korzyść, zapewniając, że ich głos zostanie wysłuchany. Czarnoskórzy użytkownicy Twittera niebędący Latynosami stanowią obecnie największy segment aktywnych kont na platformie mediów społecznościowych - według danych 28% internautów, którzy identyfikują się jako czarni, korzystało z Twittera w 2015 r. do Centrum Badawczego Pew. Podobnie Pew donosi, że głos Latynosów gwałtownie wzrósł na Twitterze, z 28% latynoskich użytkowników Internetu na platformie w 2015 roku, w porównaniu z 16% w 2013 roku. Obecność dużej liczby czarnych użytkowników Twittera pobudziła subkulturę na Twitterze znany członkom jako Czarny Twitter. Black Twitter był odpowiedzialny za stworzenie kilku niedawnych ruchów aktywistów w Stanach Zjednoczonych, oprócz Black Lives Matter, z użytkownikami Black Twittera i innymi osobami używającymi hashtagów, takich jak #Bring-BackOurGirls (w celu zwrócenia uwagi na uprowadzenie 300 nigeryjskich uczennic w 2014 r.), #YouOKSis (w celu zwalczania nękania na ulicach) oraz #Ferguson i #MikeBrown (w celu zwrócenia uwagi na przemoc policyjną na tle rasowym). Czarny Twitter istnieje jako społeczność samookreślonych członków, którzy spotykają się i rozmawiają ze sobą na każdy temat, od popularnej kultury do kwestii rasizmu i niesprawiedliwości politycznej. W ten sposób członkowie Czarnego Twittera byli w stanie zwrócić uwagę na problemy społeczne i wprowadzić zmiany. W 2013 roku wiele mediów przypisało anulowanie umowy na książkę z ławnikiem w procesie o morderstwo George'a Zimmermana oburzonej reakcji na Twitterze, która rozpoczęła się serią tweetów od użytkownika Czarnego Twittera. Podobnie wiele powiedziano o ruchu Arabskiej Wiosny, który rozpoczął się w 2010 roku, oraz o roli, jaką w protestach odegrały Twitter i inne platformy mediów społecznościowych. Początkowo media głównego nurtu odeszły od pomysłu, że Twitter mógłby stać się potężnym narzędziem dla aktywistów i ruchów społecznych. Wielu komentatorów twierdziło, że Twitter sprzyja masowemu ruchowi protestacyjnemu, ponieważ umożliwia szybki obieg informacji i jest w pełni mobilny. Ludzie mogą poruszać się w przestrzeni fizycznej i nadal być połączeni z wirtualną przestrzenią Twittera. Tak długo, jak technologia telefonii komórkowej lub Internetu będzie dostępna, tak długo będzie dostępny Twitter. Rzeczywistość Twittera jako narzędzia masowej polityki nie zostały jeszcze określone w wielu stanach, w których wskaźniki penetracji Internetu i korzystania z telefonów komórkowych pozostają stosunkowo niskie, oraz w państwach autorytarnych, w których dostęp do niektórych stron internetowych jest ograniczony. Na przykład po tak zwanej rewolucji na Twitterze w Iranie w 2009 roku ujawniono, że tylko 0,027% populacji Iranu zarejestrowało konta na Twitterze przed wyborami w 2009 roku i wynikającymi z nich powstaniami. Pomimo chęci zachodnich mediów do przedstawiania demokratycznych rewolucji jako produktu zachodniego postępu technologicznego, technologia taka jak Twitter nigdy nie była bezpośrednią przyczyną tych wydarzeń. Jednak Twitter odgrywa coraz większą rolę w naświetlaniu nastrojów zarówno pokojowych demonstrantów, jak i brutalnych grup bojowników. Niedawno Państwo Islamskie w Iraku i Syrii (ISIS/Daesh) używa platformy do rekrutacji i rozpowszechniania wiadomości budzących strach. ISIS promuje się za pomocą filmów i mediów internetowych, które przemawiają do młodych, rozpowszechniając treści za pomocą popularnych hashtagów. W lutym 2015 r. internetowy kolektyw związany z ISIS, nazywający się Cyber Caliphate, przejął konto na Twitterze Newsweeka i umieścił na Twitterze groźby pod adresem pierwszej rodziny w Stanach Zjednoczonych. W odpowiedzi grupa hakerów Anonymous wypowiedziała wojnę Cyber Caliphate, twierdząc, że zaatakowała 800 powiązanych kont na Twitterze. Te starcia online reprezentują nową produkcję przestrzeni wojennych, które wykraczają poza granice westfalskiego systemu państwowego.

Przyszłość

Twitter urósł z zwykłej platformy społecznościowej do zjawiska kulturowego. Artykuły w mediach głównego nurtu pełne są zrzutów ekranu tweetów lokalnych reporterów, celebrytów, polityków i przeciętnych obywateli. Zauroczenie platformą społecznościową wzrosło dopiero w świetle ostatnich ruchów społecznych i politycznych, takich jak Arabska Wiosna i Black Lives Matter. Jednak chociaż Twitter ma potencjał pobudzania masowych reakcyjnych ruchów w przestrzeni fizycznej, informując miliony ludzi oddalonych o setki kilometrów o wydarzeniach zachodzących w terenie w czasie rzeczywistym, Twitter nie jest narzędziem do rozwiązywania problemów politycznych Twitter jest coraz bogatszym źródłem badań akademickich. Korzystanie z funkcji lokalizacji na Twitterze przyniosło ogromne korzyści w badaniach geograficznych, wprowadzając nowe metody zrozumienia, w jaki sposób ludzie wykorzystują i tworzą przestrzenie codziennego życia. Podczas gdy Twitter jest dobrodziejstwem dla zagrożeń i badań społeczno-geograficznych, należy uznać efemeryczny charakter aktywności online. Twitter niewątpliwie był pozytywnym źródłem do zmiany wielu rozmów społecznych, a także służył jako punkt zbiorczy globalnego wsparcia podczas tragicznych wydarzeń. Jednak jest mało prawdopodobne, aby Twitter był ostatnią iteracją internetowej sieci społecznościowej. W miarę rozwoju technologii społeczeństwo niewątpliwie będzie się dostosowywać. Najlepszym zastosowaniem Twittera może być jego soczewka, przez którą można patrzeć na świat jako na ciągle zmieniające się miejsce.



Powrót

Technologie ubieralne




Technologie ubieralne to skomputeryzowane urządzenia obsługujące multimedia, które można nosić na ciele lub wokół ciała jako akcesoria z cyfrowymi funkcjami i łącznością bezprzewodową. Przykłady technologii do noszenia obejmują smartwatche, bransoletki i pierścionki; inteligentne tkaniny i okulary; zestawy słuchawkowe do rzeczywistości wirtualnej (VR); inteligentne urządzenia medyczne; i technologii monitorowania mózgu. Ten wpis wprowadza koncepcję technologii ubieralnych; omawia ich cechy, zastosowania i zastosowania; i bada przyszły rozwój.

Zdefiniowane technologie ubieralne

Technologie ubieralne obejmują zaawansowane technologicznie zminiaturyzowane komponenty (np. czujniki, mikrokontrolery i złącza bezprzewodowe, ekrany dotykowe, mikrofony, wzmacniacze, urządzenia do śledzenia temperatury i wodoodporności). Czujniki są szczególnie ważne, ponieważ stale zbierają fizyczne, elektryczne i chemiczne właściwości ciała i lokalnego środowiska, a następnie za pomocą mikrokontrolerów i algorytmów przekazują te informacje różnym rozmówcom. Dzięki tym czujnikom technologie ubieralne śledzą bezprecedensowe poziomy informacji poprzez ciągłe monitorowanie ruchu, lokalizacji, nawyków związanych ze snem, bicia serca, wzorców komunikacji, codziennych czynności i nie tylko. Tysiące aplikacji towarzyszących i ad hoc (aplikacji) gromadzą i porządkują dane zebrane za pomocą technologii ubieralnych, dostarczając użytkownikom i programistom nowych informacji. Technologie ubieralne mogą oferować różne rodzaje funkcji i aplikacji, od prostych urządzeń do śledzenia aktywności (liczniki kroków i pulsu) po bardziej złożone usługi (łączność z Internetem). Rozszerzona definicja technologii ubieralnych obejmuje wszczepiane w ciało urządzenia medyczne lub bezprzewodową sieć ciała (WBAN). Bioczujniki wewnątrz ciała (np. serce, wątroba, skóra) mierzą parametry życiowe i stale przekazują je do przenośnego urządzenia towarzyszącego (tj. koncentratora zewnętrznego). Na podstawie zebranych informacji, szczególnie w przypadku leczenia chorób przewlekłych, WBAN może w razie potrzeby zaalarmować natychmiastową opiekę przez Internet. Urządzenia do noszenia, zwłaszcza opaski i smartwatche, szybko zyskują na popularności. W 2016 roku oszacowano, że na całym świecie sprzedano około 000 milionów przedmiotów, a szacuje się, że do 2020 roku na całym świecie będzie w obiegu 900 milionów przedmiotów. Oczekuje się, że nowe generacje prototypowych technologii ubieralnych zapewnią bezpośredni dostęp do Internetu i zaoferują zainteresowanym stronom rozszerzone możliwości. Chociaż technologie ubieralne oferują wiele korzyści, budzą również pewne obawy, w tym nowe rodzaje obaw związanych z bezpieczeństwem (np. obawa, że wrażliwe dane osobowe, w tym dane dotyczące zdrowia, będą coraz bardziej narażone na ataki hakerów).

Krótka historia technologii ubieralnej

Praktyka ilościowego określania, zmieniania, powiększania i śledzenia ciała nie jest nowa i nie ogranicza się nawet do obecnej ery cyfrowej. Sugerowano, że sztuka tropienia mogła być pierwszą nauką stosowaną praktykowaną przez łowców ludzi (i zwierząt). Tatuaże i malowanie ciała, odzież, piercing i biżuteria to wczesne przykłady zmian i ulepszeń ciała z zamiarem przekazania znaczeń i statusu społecznego. Prekursor współczesnego komputera, liczydło (wynalezione przez chińskiego matematyka Cheng Dawei za panowania dynastii Ming, 1368-1644), zainspirowało jedno z pierwszych urządzeń do noszenia w historii, pierścień liczydła (lub Zhusuan, za panowania dynastii Qing, 1644 r.) -1911). Pierścień liczydła był używany do wykonywania operacji na rachunku różniczkowym poprzez przesuwanie maleńkich koralików wzdłuż rzędów pierścienia. Wczesne systemy obliczeniowe do noszenia (komputery do noszenia) zostały wynalezione w latach sześćdziesiątych i siedemdziesiątych XX wieku. W 1961 roku matematycy Edward Thorpe i Claude Shannon stworzyli komputer do noszenia w bucie, aby oszukiwać w ruletce w Las Vegas. "But do oszukiwania" mógł przewidzieć, na którym numerze stołowej ruletki wyląduje kulka. Numer był następnie przekazywany graczowi za pośrednictwem fal radiowych. Stan Nevada potrzebowałby 20 lat na wprowadzenie prawa zakazującego używania komputerów w kasynach. Codzienna kwantyfikacja w formie osobistego pamiętnika pisanego na papierze, z krótkimi wpisami do dzielenia się z innymi, była powszechną praktyką w XVIII wieku. Na przykład Benjamin Franklin, jeden z ojców założycieli Stanów Zjednoczonych, śledził, jak spędzał czas, korzystając z wykresów i papierowych notatek uporządkowanych w osobistym dzienniku. Jego intencją było samobadanie (samodzielne śledzenie) swojego zachowania i ocena, czy jest ono spójne z wyznawanymi przez niego wartościami. Wczesne próby mierzenia czasu za pomocą rozwiązania nadającego się do noszenia (zegarków kieszonkowych) pojawiły się pod koniec XVIII wieku, ale dopiero pod koniec XIX wieku zegarek noszony na nadgarstku zaczął krążyć w Europie i Ameryce Północnej. Pierwsze zegarki cyfrowe i zegarki komputerowe pojawiły się w latach 70. XX wieku. Na początku XX wieku, w związku z rozpowszechnieniem się aparatów do robienia zdjęć, pojawiły się również wczesne przykłady noszenia aparatów analogowych. Wczesny poprzednik przenośnej kamery wideo został wynaleziony przez Juliusa Neubronnera w latach 1907-1908. Niemiecki aptekarz (z zamiłowaniem do fotografii) wynalazł lekką kamerę wyposażoną w mechanizm czasowy, który był przyczepiony do gołębi pocztowych w celu robienia zdjęć lotniczych; kamera była w stanie zrobić tylko jedno (nieprzewidywalne) zdjęcie lotnicze podczas lotu gołębia. W latach 70. popularne stały się aparaty analogowe (np. Polaroidy). W latach 90. pojawiły się aparaty cyfrowe, a wkrótce na rynku pojawiły się pierwsze aparaty do noszenia i kamery wideo (np. GoPro); te urządzenia umożliwiały nagrywanie na żywo bez użycia rąk. Inne nadające się do noszenia urządzenia wzmacniające możliwości organizmu, szczególnie w zakresie ochrony zdrowia, sięgają średniowiecza. Okulary zostały wynalezione we Włoszech około XIII wieku i były używane przez mnichów i uczonych. W XVII wieku wynaleziono pierwszy aparat słuchowy (trąbkę); wynalezienie telefonu pod koniec XIX wieku oraz cyfryzacja i rozpowszechnienie mikroprocesorów w latach 70. i 80. XX wieku poprawiły jakość aparatów słuchowych do noszenia. W XX wieku w ciele zaczęły pojawiać się wszczepialne urządzenia elektryczne do opieki medycznej. Pierwszy stymulator wspomagający regularne bicie serca został wszczepiony w 1958 r. Innowacyjne technologie ulepszyły te wczesne wszczepione stymulatory, zwłaszcza począwszy od lat 70. i lżejsze systemy komputerowe do implantów medycznych w organizmie. Od późnych lat 90. dostępność innowacyjnych i zminiaturyzowanych urządzeń do noszenia przyspieszyła ze względu na szybki rozwój technologii informacyjnych i komunikacyjnych, w tym Internetu, łączności bezprzewodowej (np. Bluetooth), zminiaturyzowanych komputerów do noszenia i inteligentnych mediów mobilnych. Na przykład w projektowaniu mody wczesne wykorzystanie technologii Bluetooth i łączności internetowej doprowadziło do stworzenia inteligentnej tkaniny do zdalnego przekazywania wrażeń dotykowych (Hugshirt w 2004 r.).

Czujniki, łączność i funkcje

Czujniki


Technologie ubieralne mogą oferować swoim użytkownikom wzbogacone funkcje dzięki zaawansowanym technologicznie możliwościom, takim jak zaawansowana łączność bezprzewodowa i zminiaturyzowane komponenty (np. Czujniki są szczególnie ważne w technologiach ubieralnych do gromadzenia danych. W badaniu z 2016 roku James Hayward i Guillaume Chansin oszacowali, że do 2026 roku rynek czujników do noszenia osiągnie wartość 6,1 miliarda dolarów, szczególnie w przypadku pomiarów rozciągania, nacisku i uderzenia. Kilka rodzajów czujników umożliwia technologię noszenia, w tym

- sensory optyczne (np. optyczne pulsometry, kamery, fotopletyzmografia),
- inercyjne jednostki pomiarowe (np. akcelerometry, barometry, magnetometry, żyroskopy),
- czujniki rozciągania/ciśnienia/uderzenia,
- elektrody do noszenia (hełmy mózgowe) oraz
- czujniki temperatury i dźwięku.

Łączność

Technologie ubieralne można podzielić na kategorie według rodzaju funkcji, łączności i zastosowania, jakie oferują. Ich zdolność do oferowania użytkownikowi prostych, wielokrotnych lub złożonych usług jest związana z rodzajem łączności bezprzewodowej (np. Bluetooth, Internet). W zależności od rodzaju łączności technologia ubieralna może działać w następujący sposób:

- Samodzielne urządzenie bez połączenia z Internetem: Na przykład, gdy nie jest połączony z urządzeniem towarzyszącym przez Bluetooth, iWatch oferuje swoim użytkownikom proste usługi: może mierzyć czas i tętno oraz dostarczać powiadomienia o aktywności ciała.
- Urządzenie towarzyszące (z połączeniem internetowym lub bez): Zdecydowana większość obecnych technologii ubieralnych działa jako "prostownik" lub jako urządzenie "towarzyszące". Na przykład iWatch zapewnia użytkownikowi interfejs (mikrokontroler) do korzystania z funkcji iPhone′a, takich jak dostęp do wcześniej zapisanych informacji i zdjęć oraz odbieranie powiadomień z mediów społecznościowych i rozmów telefonicznych. Po podłączeniu do urządzenia towarzyszącego urządzenie do noszenia (z prostymi lub wieloma funkcjami) może jeszcze bardziej rozszerzyć swoje możliwości. Na przykład, gdy łączy się z iPhonem, iWatch może łączyć się z Internetem, pobierać dedykowane aplikacje i wyszukiwać w Internecie za pomocą poleceń aktywowanych głosem.
- Samodzielne urządzenie z bezpośrednim połączeniem internetowym: Oczekuje się, że urządzenia ubieralne z bezpośrednim połączeniem internetowym staną się w przyszłości standardem.

Funkcje

W zależności od rodzaju funkcji, które zapewniają, technologie ubieralne można podzielić na trzy główne kategorie: (1) proste funkcje, (2) wiele funkcji i (3) złożone funkcje.

1. Proste funkcje: ta kategoria obejmuje urządzenia do noszenia, które dostarczają i wymieniają ograniczone ilości danych, głównie z monitorowania aktywności fizycznej lub parametrów życiowych, ze względu na łączność bezprzewodową z urządzeniem towarzyszącym (np. smartfonem, tabletem). Urządzenie towarzyszące opracowuje informacje (poprzez dedykowane aplikacje). Informacje mogą być przechowywane w chmurze obliczeniowej. Przykłady obejmują urządzenia medyczne (np. glukometry, urządzenia do pomiaru ciśnienia krwi, wagi), inteligentną biżuterię, krokomierze, inteligentne ubrania wchodzące w interakcje z mediami społecznościowymi oraz kamery wideo do ciągłego nagrywania na żywo.
2. Wiele funkcji: Ten typ urządzeń do noszenia (np. smartwatche) zapewnia wiele funkcji, od prostych (gdy są samodzielne) do rozszerzonych (po połączeniu przez Bluetooth z urządzeniem towarzyszącym online). Urządzenia do noszenia, oferujące wiele funkcji, mogą rejestrować informacje i aktywność związane z ciałem, uzyskiwać dostęp do danych towarzysza, wymieniać duże ilości danych, synchronizować informacje, łączyć się z Internetem, pobierać dedykowane aplikacje i oferować spersonalizowane usługi, odbierać połączenia, odpowiadać na powiadomienia w mediach społecznościowych i nie tylko.
3. Złożone funkcje lub przenośne urządzenia międzycyfrowe: Urządzenia te mogą łączyć się bezpośrednio z Internetem dzięki zintegrowanej karcie micro SIM (np. Samsung Gear S2). Ten typ technologii do noszenia oferuje wiele funkcji i nie wymaga urządzenia towarzyszącego do działania i łączenia się z Internetem.

Rodzaje urządzeń do noszenia

Urządzenia i aplikacje

Technologie ubieralne mogą oferować użytkownikom szeroki zakres funkcji i usług w oparciu o kombinację cech sprzętu, możliwości oprogramowania (aplikacji) i cech każdego urządzenia. Aplikacje mogą być

- wbudowane (dostarczone przez producenta);
- dostęp i synchronizacja za pośrednictwem urządzenia towarzyszącego - dzięki aplikacjom urządzenia towarzyszącego urządzenia do noszenia mogą uzyskiwać dostęp do tysięcy programów do synchronizacji ruchu, snu, lokalizacji, higieny osobistej i codziennych czynności; lub
- pobierane przez Internet (aplikacje ad hoc) - aplikacje ad hoc są projektowane i dostosowywane do konkretnej technologii ubieralnej.

Wielofunkcyjne i złożone urządzenia do noszenia można dostosowywać za pomocą różnych aplikacji ad hoc i "skomplikować" zgodnie z potrzebami i wyborami użytkownika (dodatkowe funkcje w systemach opartych na iOS nazywane są komplikacjami).

Zastosowanie

Wykorzystanie technologii ubieralnych można podzielić na dwie główne kategorie, które szybko się rozwijają: (1) profesjonalne i (2) osobiste. Profesjonalne i biznesowe wykorzystanie technologii ubieralnych to wschodząca dziedzina, która staje się coraz bardziej zorganizowana. Na przykład profesjonalni chirurdzy korzystający z Google Glass pierwszej generacji na sali operacyjnej zorganizowali się w Towarzystwo WATCH (Wearable Technology in Health Care Society), aby rozszerzyć wykorzystanie inteligentnych technologii w opiece zdrowotnej, edukować innych lekarzy i tworzyć nowe formy współpracy. Niezależnie od tego, czy do użytku biznesowego, czy osobistego, proste, złożone i złożone urządzenia i aplikacje do noszenia na ciele oferują połączenie udostępniania informacji w czasie rzeczywistym i usług opartych na lokalizacji (oprogramowanie, które gromadzi i wykorzystuje położenie geograficzne urządzeń mobilnych), umożliwiając asystenturę środowiskową i nawigację ( np. pogoda, mapa, wskazówki dojazdu, sugestie handlowe). Połączone usługi udostępniania informacji w czasie rzeczywistym i usługi lokalizacyjne oferują:

- Czujność i asystencja, w tym przeszukiwanie sieci za pomocą poleceń głosowych (np. smartwatche i Google Glass)
- Produktywność osobista (np. spotkania w kalendarzu w podróży i wyszukiwanie głosowe w celu nagrywania notatek) oraz dostęp do przechowywanych informacji
- Higiena osobista, zdrowie i dobre samopoczucie
- Dwukierunkowa komunikacja
- Oświadczenia społecznościowe (np. aktualizacje statusu)

Produkty i aplikacje

Technologie ubieralne oferują połączenie zaawansowanych technologicznie komponentów sprzętowych, aplikacji i funkcjonalności do różnych zastosowań w różnych sektorach. Od 2017 r. smartwatche i monitory aktywności ciała są najpopularniejszymi technologiami do noszenia, ale wiele innych prototypów szybko się rozwija. Inteligentne zegarki zawierają wiele lub złożonych funkcji i aplikacji technologii ubieralnych zgodnie z potrzebami użytkownika. Smartwatche są obecnie uważane za najnowocześniejsze mobilne urządzenia komputerowe z wieloma lub złożonymi funkcjami. Wynika to po części z możliwości ich urządzenia towarzyszącego. Poniższe podrozdziały zawierają przegląd niektórych popularnych rodzajów produktów i zastosowań, w których mogą być używane:

Monitory aktywności ciała i urządzenia sportowe/fitness

Należą do nich opaski tracker na nadgarstki i ramiona, liczniki kroków na pasku i stopie z towarzyszącymi aplikacjami oraz buty do biegania z inteligentnymi wkładkami. Urządzenia do śledzenia aktywności ciała oferują monitorowanie wydajności ciała, śledzenie i udostępnianie lokalizacji i danych oraz zarządzanie celami sportowymi. Często integrują kilka funkcji, takich jak liczniki tętna i kroków, powiadomienia z aplikacji do wirtualnego coachingu, pomiar czasu i nawigacja w terenie. Urządzenia do śledzenia aktywności ciała można łączyć przez Bluetooth z innymi przedmiotami (np. wagami, urządzeniami do mierzenia ciśnienia krwi i pomiaru temperatury ciała). Monitory aktywności ciała zwykle synchronizują się z aplikacjami urządzenia towarzyszącego przez Bluetooth i mogą udostępniać osobiste wyniki wybranym kontaktom w mediach społecznościowych. Mogą to być również urządzenia do śledzenia aktywności stworzeń innych niż ludzie (np. technologie do noszenia z aplikacjami towarzyszącymi przeznaczonymi dla zwierząt domowych, zwierząt w niewoli i dzikich zwierząt; kamery wideo przymocowane do hełmów lub przymocowane paskiem do ciała podczas uprawiania sportu, wypoczynku i innych czynności ).

Zestawy słuchawkowe VR

Zestawy słuchawkowe VR to skomputeryzowane urządzenia, które wyświetlają użytkownikowi trójwymiarową immersyjną (samodzielną, na uwięzi, smartfona) lub rozszerzoną (inteligentne okulary, rzeczywistość mieszana) rzeczywistość. Zestawy słuchawkowe VR można podłączyć do Internetu za pośrednictwem urządzenia towarzyszącego w celu generowania, uzyskiwania dostępu lub udostępniania danych VR. Aplikacje dla VR są przeznaczone między innymi do wypoczynku, rehabilitacji, nauki, rozrywki, przesyłania strumieniowego w czasie rzeczywistym i komunikacji. Oczekuje się, że rozwiązania VR i sztuczna inteligencja stosowane w technologiach ubieralnych będą się szybko rozwijać w przyszłości. Na przykład Google Glass to urządzenie komputerowe do noszenia z wyświetlaczem zamontowanym na szkle optycznym, które zapewnia użytkownikowi perspektywę rzeczywistości rozszerzonej, aktywowane poleceniem głosowym i touchpadem. Wprowadzone po raz pierwszy w 2013 roku okulary Google Glass mogły łączyć się z Internetem dzięki urządzeniu towarzyszącemu i dedykowanej aplikacji MyGoogle. Chociaż oryginalny Go ogle Glass został wycofany w 2015 r., został ponownie wydany w 2017 r. jako urządzenie szkoleniowe w miejscu pracy.

Bezpieczeństwo i wojskowe technologie ubieralne

Technologie te obejmują inteligentne obiekty zapewniające wiele funkcji, w tym świadomość/czujność sytuacji i środowiska, ekran dotykowy i lokalizatory osobiste, narzędzia komunikacyjne, bransoletki identyfikacyjne oraz zdalnie połączoną policję lub dowódcę. Technologie ubieralne mogą być wykorzystywane do zwiększania możliwości ciała, kontroli środowiska, komunikacji i rozpoznawania tożsamości personelu, zdalnej lokalizacji, ostrzegania o zagrożeniach, ratownictwa i śledzenia parametrów życiowych, szczególnie podczas działań wojskowych lub w sytuacjach awaryjnych. Aplikacje gromadzące i analizujące dane wymagają szczególnego standardowego profilowania zabezpieczeń i danych w czasie rzeczywistym.

Inteligentna odzież i biżuteria Bluetooth

Urządzenia te (np. inteligentne pierścionki, naszyjniki lub wisiorki, piercing, łaty na tatuaże, wodoodporne odtwarzacze MP3) pełnią szeroki zakres funkcji. Inteligentne tkaniny to materiały przewodzące w połączeniu ze zwykłymi tkaninami, takimi jak bawełna, w celu (a) generowania energii, (b) wykorzystywania energii lub (c) monitorowania parametrów fizycznych (np. monitorowania sportu, kondycji i parametrów życiowych). Tego rodzaju technologie do noszenia są wykorzystywane na przykład w modzie, upiększaniu, statusie społecznym, komunikacji, emocjach i dekoracji, śledzeniu aktywności sportowej i rozrywce. W 2017 r. badano kilka materiałów prototypowych (np. tusze przewodzące). Oczekuje się, że inteligentna odzież i biżuteria będą szybko rosnąć w nadchodzących latach. Inteligentna odzież i biżuteria współpracują z urządzeniem towarzyszącym przez Bluetooth i oferują proste funkcje. Przykłady obejmują zmieniające się kolory sukienek i pierścionków za pośrednictwem osób podejmujących decyzje w mediach społecznościowych lub za pośrednictwem kontaktu VIP wysyłającego wiadomość. Sukienki z animacją dźwiękową lub świetlną można również aktywować telefonem i powiadomieniem. Wisiorki i pierścionki mogą wyrażać emocje (poprzez sprawdzanie fizycznych oznak ciała i udostępnianie statusu użytkownika przez Internet). Inteligentne aplikacje odzieżowe i jubilerskie obejmują śledzenie i udostępnianie lokalizacji; dźwięk, światło i zdalny dotyk; aplikacje komunikacyjne do otrzymywania powiadomień z mediów społecznościowych, SMS-ów i wiadomości; i inne funkcje, takie jak robienie zdjęć i wideo lub nagrywanie dźwięków. Ze względu na zmniejszony rozmiar inteligentna biżuteria wymaga zminiaturyzowanych, zaawansowanych technologicznie komponentów.

Aplikacje poprawiające samopoczucie i dobre samopoczucie psychiczne

Rośnie również liczba aplikacji poprawiających samopoczucie i dobre samopoczucie psychiczne. Aplikacje te zawierają proste lub wiele funkcji (np. aplikacje do medytacji, ćwiczeń jogi, śledzenia aktywności fizycznej, monitorowania bicia serca i nasłonecznienia, śledzenia diety i snu lub coachingu wokalnego w celu osiągnięcia osobistych celów). W zależności od potrzeb użytkownika produkty wearable technology w tym obszarze mogą obejmować urządzenia oferujące proste lub złożone funkcje, od opasek monitorujących styl życia i opasek do czujników postawy po smartwatche. Wspomagające urządzenia medyczne (z aplikacjami towarzyszącymi) również są nadal wypuszczane. Urządzenia te obejmują okulary Google do użytku medycznego i edukacyjnego, bezprzewodowe zestawy słuchawkowe EEG mózgowe do kontroli środowiska, aparaty słuchowe i mowy (np. aplikacja TALKITT), inteligentne plastry do biofeedbacku lub tatuaże (np. do pomiaru temperatury i poziomu glukozy), inteligentne soczewki kontaktowe , inteligentne koszulki dla noworodków oraz wszczepione lub połknięte bioczujniki. Urządzenia i aplikacje ubieralne często łączą wiele funkcji i stale zasilają algorytmy informacjami zwrotnymi, które są niezbędne, a jednocześnie gromadzone w dyskretny lub minimalnie inwazyjny sposób. Przykłady obejmują urządzenia śledzące parametry życiowe, ruch, wzorce snu, wagę, temperaturę ciała, bicie serca, ciśnienie krwi i poziom glukozy. Oto niektóre konkretne przykłady:

- Produkty do noszenia dla noworodków i aplikacje do monitorowania niemowląt, które mogą oferować rozwiązania Internetu rzeczy (IoT): na przykład aplikacja urządzenia towarzyszącego może komunikować się przez Bluetooth nie tylko z inteligentną bransoletką lub koszulką, sprawdzając parametry życiowe dziecka i inne informacje (np. ruch, wzorce snu, waga, temperatura, bicie serca, oświetlenie w pomieszczeniu, dźwięki), ale także z bezprzewodowymi monitorami, wagami termometrów, podkładkami do przewijania, a nawet czujnikami do śledzenia pieluch
- Roboty do noszenia (np. egzoszkielety do rehabilitacji fizycznej) i części ciała do noszenia (np. ręce i nogi), które zawierają bioczujniki do śledzenia parametrów życiowych podczas użytkowania oraz aplikacje towarzyszące, które integrują kilka funkcji, od liczników kroków po udostępnianie komunikacji z bliskimi za pośrednictwem Internet
- Monitorowanie problemów zdrowotnych (np. aplikacja towarzysząca do zbierania i wyświetlania dziennych poziomów glukozy i ciśnienia krwi, system monitorowania serca płodu dla kobiet w ciąży oraz przypomnienia o lekach)
- Cyfrowe wspomagające słyszenie, mowę i urządzenia głosowe

Bezprzewodowa sieć ciała

Pionierskie urządzenia i aplikacje oparte na technologiach ubieralnych pojawiły się również w medycynie. Przykłady obejmują rozruszniki serca i resynchronizatory nowej generacji. Rozszerzona definicja urządzeń do noszenia obejmuje technologie sieci ciała (BAN). BAN to system multimedialnych urządzeń elektronicznych składający się z co najmniej jednego zminiaturyzowanego aparatu (bioczujników) wszczepianego w ludzkie ciało (np. w serce, wątrobę, trzustkę lub pod skórę). Gdy BAN jest wyposażony w technologię bezprzewodową, nazywa się to WBAN. Tylko pracownicy służby zdrowia mogą wszczepiać i usuwać inteligentne urządzenia wbudowane w ciało. Nowa, ale szybko rozwijająca się dziedzina, technologie BAN i WBAN są obecnie wykorzystywane w prewencyjnej telemedycynie i m-zdrowiu do ciągłego monitorowania chorób przewlekłych, które nie wymagają hospitalizacji ani opieki doraźnej, takich jak cukrzyca, niewydolność serca, a nawet depresja. Zastosowania obejmują ciągłe monitorowanie parametrów życiowych, zarządzanie chorobami przewlekłymi i monitorowanie pojedynczych narządów. Zebrane dane są przekazywane do powiadomień pacjentów i zdalnych placówek opieki zdrowotnej, zapewniając opiekę w czasie rzeczywistym i alerty w razie potrzeby. Zminiaturyzowane bioczujniki wszczepiane do organizmu zbierają informacje fizjologiczne o każdej porze dnia w sposób minimalnie inwazyjny. Zewnętrzne urządzenie do noszenia (towarzyszące) działa jako "centralny" punkt (hub) do gromadzenia wszystkich "wewnętrznych" danych dotyczących ciała. Noszona piasta znajduje się w bezpośredniej bliskości (na, w pobliżu lub wokół ciała, np. w kieszeni). Zewnętrzny koncentrator do noszenia można podłączyć do Internetu; może przesyłać duże ilości danych do odległego ośrodka zdrowia, praktycznie zlokalizowanego w dowolnym miejscu na świecie. Zdalne centrum zdrowia odbiera i ocenia informacje. W przypadku alarmu można szybko przeprowadzić dalszą analizę i podjąć decyzję medyczną. Technologie BAN i WBAN mogą ułatwić nowe zrozumienie profilaktyki i leczenia chorób. Chociaż problemem jest pojemność energetyczna implantów wewnątrz ciała, technologie WBAN mogą potencjalnie prowadzić do niedrogiego długoterminowego monitorowania opieki zdrowotnej przez Internet.

Dane z nadzoru i ilościowe Ja

Technologie ubieralne mogą gromadzić ogromną ilość informacji wrażliwych na ciało, w oparciu o geolokalizację, gromadzenie danych przez bioczujniki, śledzenie aktywności, monitorowanie dziennika parametrów życiowych, rodzaj łączności i nie tylko. Każde urządzenie do noszenia jest w stanie dostarczyć imponującą ilość danych fizycznych, środowiskowych, ruchu, biologicznych lub behawioralnych o użytkowniku. Czujniki w technologiach ubieralnych zasilają algorytmy, które dostarczają informacji różnym zainteresowanym stronom, od pojedynczych osób po wielu rozmówców związanych z biznesem. Termin sousveillance, rejestracja aktywności zwykle za pomocą małych osobistych technologii do noszenia lub przenośnych, wskazuje na samośledzące zachowanie użytkownika i jego konsekwencje w różnych kontekstach. W obecnym scenariuszu konsumenci używają głównie technologii ubieralnych do śledzenia, kwantyfikowania i analizowania danych osobowych dotyczących ciała za pośrednictwem aplikacji ad hoc. Ja skwantyfikowane (QS) to ruch jednostek i grup zaangażowanych w samośledzenie danych, dostarczanie fizycznych, środowiskowych, biologicznych lub behawioralnych informacji i statystyk w czasie. User self-tracking, czyli QS, to rozwijająca się dziedzina, częściowo ze względu na dostępność bezprecedensowych technologii do noszenia, ewolucję technologii informacyjnych i komunikacyjnych, rejestrację danych z dziennika ciała oraz rozprzestrzenianie się aplikacji ad hoc . Zjawisko śledzenia i rejestrowania osobistych danych dotyczących aktywności, takich jak ruch, spalone kalorie i tętno, ma na celu dostarczanie użytkownikom danych wizualnych i informacji zwrotnych. Dostępność danych osobowych (np. ruch, kroki, godziny snu, tętno i wyniki sportowe) uporządkowanych na wyświetlaczu w ujęciu dziennym, tygodniowym i miesięcznym ma kilka implikacji. Wiedza na temat samoopieki może zaangażować użytkownika w lepszą opiekę, która może pomóc w osiągnięciu osobistych celów, takich jak kontrola masy ciała i przyjmowanych pokarmów, poprawa sprawności osobistej, poprawa stanu zdrowia, dobrego samopoczucia i samodoskonalenia. Kiedy dane QS są udostępniane online za pośrednictwem mediów społecznościowych, mogą wpływać na zachowania innych osób, w tym na rywalizację, adopcję i unikanie. Użytkownicy technologii ubieralnych mogą otrzymywać kilka powiadomień dziennie i pomoc mającą na celu pomóc im w osiąganiu wyznaczonych celów (np. liczba spalonych/pozostałych do spalenia kalorii, pokonanych/pozostałych do przejścia kalorii dziennie). Codzienne doświadczenia związane z noszeniem inteligentnego urządzenia podłączonego do Internetu można przekształcić w znaczące dane, wzmacniające postawy i zachowania.

Nadzór danych, Big Data i IoT

Nadzór, wszechobecność i łączność internetowa IoT odgrywają kluczową rolę w technologiach ubieralnych, ponieważ umożliwiają wymianę danych z wieloma rozmówcami, platformami i "rzeczami" podłączonymi do Internetu, bez konieczności interwencji człowieka. Monitory aktywności dla QS są szczególnie cenne w kontekście IoT, ponieważ technologie ubieralne mogą komunikować się przez Internet z innymi przedmiotami, takimi jak czujniki, systemy komputerowe, inne urządzenia do noszenia i inteligentne przedmioty codziennego użytku (np. ciśnienie krwi, masa ciała, poziom glukozy we krwi). W ten sposób dane osobowe wymieniane z wieloma obiektami i wieloma rozmówcami przez Internet mogą oferować udoskonalone informacje i usługi. Jednak korzystanie z technologii ubieralnych w kontekście Internetu Rzeczy budzi obawy pod względem bezpieczeństwa danych, prywatności i regulacji, ponieważ urządzenia ubieralne mogą gromadzić metadane dotyczące innych pobliskich obiektów. Bez interwencji człowieka inteligentne urządzenia komunikują się ze sobą za pośrednictwem technologii bezprzewodowej oraz z innymi obiektami podłączonymi do Internetu. Na przykład smartwatch kierowcy może komunikować się z samochodem wyposażonym w łączność Bluetooth oraz z inteligentnym pierścieniem pasażera, a wszystko to połączone z urządzeniami towarzyszącymi (smartfonami) i Internetem; samochód, pierścionek i zegarek mogą wymieniać ze sobą dane i przechowywać duże ilości danych osobowych w usłudze przetwarzania w chmurze bez interwencji lub wiedzy właściciela.

Ekonomia technologii ubieralnych i Big Data

Konsumenci śledzący informacje generowane w technologiach ubieralnych (i innych środowiskach połączonych z Internetem) są częścią gospodarki, w której dane odgrywają coraz większą rolę w utowarowieniu, literaturze marketingowej i praktyce. Rozmówcami uzyskującymi dostęp do dużych zbiorów danych technologii ubieralnych mogą być dostawcy usług internetowych, producenci urządzeń, generatory i mediatorzy usług w chmurze, firmy biznesowe, twórcy aplikacji, rządy, agenci bezpieczeństwa, a nawet inne inteligentne obiekty podłączone do Internetu. Kiedy dane dotyczące ciała zostaną dopasowane do innych źródeł informacji pochodzących z Internetu, takich jak komentarze w mediach społecznościowych, osobiste kontakty (i zachowania), zakupy, przeglądanie stron internetowych, obiekty podłączone do Internetu, a nawet dane życiowe WBAN, dokładny i potężny może pojawić się portret życia singla, często bez wiedzy użytkownika. Niektórzy dostawcy usług internetowych i firmy uważają, że dane śledzące technologie ubieralne są ich własnością, podczas gdy inni uważają takie dane za własność klienta. Istnieją znaczne różnice w tym, co firmy robią z danymi klientów, co jest wskazane w dokumentach warunków świadczenia usług przez firmy, ale są one trudne do odczytania i powszechnie ignorowane. Obszarem zainteresowania i debaty wśród naukowców na temat wykorzystania technologii śledzących informacje do noszenia jest wtórne wykorzystanie danych. Obawy dotyczą większej zależności od dostawców zewnętrznych (zwykle nieznanych użytkownikom) w zakresie przechowywania informacji i analizy dużych zbiorów danych w chmurze obliczeniowej oraz związanych z tym zagrożeń dla prywatności i bezpieczeństwa użytkowników, zarówno w odniesieniu do utowarowienia danych, jak i inżynierii uczenia maszynowego (programy wykorzystywane do znaleźć wzorce znaczeń w dużych zbiorach danych). Chociaż duże zbiory danych gromadzone za pomocą technologii ubieralnych mogą być wykorzystywane do zapobiegania chorobom (pomagając rządom i firmom w diagnostyce zapobiegawczej), metadane QS mogą prowadzić do nowych form sousveillance użytkowników, jak również do nowych form nadzoru danych osobowych (np. orientacja i społecznie nieakceptowane zachowania, orientacje polityczne, niepełnosprawność psychiczna i inne upośledzenia) przez firmy zewnętrzne, co może prowadzić do dyskryminacji.

Przepisy i polityka

Niepokojący jest również brak odpowiednich regulacji odnoszących się do wspomnianych zagrożeń dla prywatności i bezpieczeństwa danych osobowych. W badaniu QS z 2013 r. Melanie Swan podkreśliła, że niedawne wykorzystanie ilościowych informacji samośledzących pozostaje w dużej mierze nieuregulowane. Sposób, w jaki interesariusze powinni wykorzystywać dane QS, nadal musi zostać wyjaśniony i uregulowany prawnie w krajach, w których technologie ubieralne są obecnie rozpowszechniane i przyjmowane. W naukach o dużych zbiorach danych wykorzystanie danych QS rodzi kilka pytań pod względem swobód obywatelskich, ponieważ polityki ochrony danych osobowych gromadzonych za pomocą technologii ubieralnych, inteligentnych urządzeń towarzyszących i internetu rzeczy są ograniczone lub nie istnieją w większości krajów, w których te technologie stają się popularne. Konsumenci mają ograniczone możliwości ochrony danych śledzących ciało, oprócz unikania noszenia takich urządzeń lub wyłączania urządzeń towarzyszących. Zapewnienie ochrony prywatności i bezpieczeństwa wrażliwych danych osobowych jest kluczowe, szczególnie w przypadku urządzeń medycznych. Technologie WBAN zbierające informacje z wnętrza organizmu wymagają szczególnej regulacji, ponieważ dane są niezwykle wrażliwe, a użytkownik nie ma możliwości wyłączenia wszczepionego w ciało biosensora.

Przyszłość technologii ubieralnych nie tylko dla ludzi

Zminiaturyzowane urządzenia do noszenia są przydatne nie tylko do śledzenia aktywności człowieka, ale także do zbierania i analizowania zachowania zwierząt. Na przykład w Azji zastosowania technologii ubieralnych w branży hodowli zwierząt pokazują, że krokomierze dla krów mogą zwiększyć produktywność w hodowli. Zwiększenie populacji zwierząt jest kluczowym wydarzeniem dla branży hodowlanej i mleczarskiej. Analizując parametry życiowe zwierzęcia, lokalizację i aktywne zachowania (które nasilają się, gdy są gotowe do krycia), technologie do noszenia mogą dostarczać hodowcom precyzyjnych i aktualnych danych na temat zdrowia zwierzęcia i czasu płodności (który trwa tylko kilka godzin miesięcznie), zwłaszcza gdy zaczyna się w nocy, kiedy rolnikom i ich pracownikom bardzo trudno byłoby obserwować zachowanie zwierzęcia. Firmy rozpoczynające działalność dostarczające urządzenia do śledzenia aktywności zwierząt do noszenia były w stanie analizować zachowanie każdego zwierzęcia, w dzień iw nocy. Wysyłanie powiadomień za pośrednictwem aplikacji do hodowcy oznacza zapewnienie sztucznego zapłodnienia w najbardziej odpowiednim czasie. Wykorzystanie technologii ubieralnych dla krów w zastosowaniach eksperymentalnych znacznie poprawiło wskaźniki ciąż i produkcję mleka. W niedalekiej przyszłości urządzenia i aplikacje analizujące zachowanie dzikich gatunków mogą dostarczyć naukowcom kluczowych informacji do lepszego zrozumienia zachowania zwierząt w czasie. W nadchodzących latach technologie do noszenia dla dzikich zwierząt mogą nie tylko zwiększyć odsetek pomyślnych ciąż u gatunków zagrożonych wyginięciem, ale także przyczynić się do przetrwania zagrożonych gatunków poprzez lepsze poznanie ich zachowania, ochronę środowiska i odstraszenie drapieżników.

Pole medyczne

W dziedzinie medycyny i dobrego samopoczucia prototypy technologii ubieralnych były i będą opracowywane w celu zmiany, modyfikacji lub zwiększenia możliwości organizmu, szczególnie w przypadku chorób. Na przykład interaktywne gogle VR do noszenia pomagają leczyć i zapobiegać chorobom psychicznym, takim jak fobie i depresja. Oczekuje się, że nieinwazyjne lub niewidoczne rozwiązania technologiczne do noszenia zmniejszą upośledzenie słuchu, wzroku i mowy oraz poprawią codzienne zarządzanie chorobami przewlekłymi, takimi jak cukrzyca. Innowacyjne produkty do noszenia, takie jak inteligentne ubrania, mogą pomóc seniorom lub osobom z niepełnosprawnościami, które potrzebują pomocy kierunkowej, zapewniając delikatne powiadomienia.

Przyszłe scenariusze, szanse i zagrożenia

Podczas gdy innowacyjne roboty do noszenia (egzoszkielety) pomagają osobom z paraliżem i seniorom wstawać i chodzić, rozpowszechnianie innowacji w zakresie technologii do noszenia jest nadal ograniczone tylko do kilku krajów, w tym do Stanów Zjednoczonych. W przyszłości szybki rozwój technologii ubieralnych oraz dostępność nowych prototypów i biosensorów w mniej uprzywilejowanych obszarach świata może stworzyć nowe możliwości; może to jednak również skutkować pilniejszym zapotrzebowaniem na uregulowanie gromadzenia i analizy dużych zbiorów danych w celu uniknięcia błędnej autodiagnozy, niebezpiecznych samoleczeń oraz niewłaściwego obchodzenia się z wrażliwymi i prywatnymi informacjami. Potrzeba uregulowania kwestii technologii ubieralnych wydaje się szczególnie ważna, ponieważ obecne przepisy są wciąż niewystarczające lub nie istnieją w większości krajów, w których technologie ubieralne są już w użyciu.



Powrót

Telefonia internetowa




Przez większą część XX wieku światowa telefonia była zdominowana przez "zwykłą, starą usługę telefoniczną" - charakteryzującą się zamkniętymi rynkami krajowymi, niskim tempem zmian technologicznych, wysokimi cenami połączeń oraz państwowymi lub regulowanymi monopolami. Jednak świat zwykłych, starych usług telefonicznych i telefonów stacjonarnych jest historycznym reliktem i wyraźnie powstały nowe obszary geograficzne telefonii. Neoliberalizacja, deregulacja, przejście na telefony komórkowe i rewolucja mikroelektroniczna były głównymi czynnikami napędzającymi tę zmianę. Szczególnie wzrosło znaczenie telefonii internetowej. Wyraźnym znakiem wzajemnie przeobrażającego się wpływu Internetu i światowego systemu telefonicznego jest Voice over Internet Protocol (VoIP) - czyli ruch telefoniczny prowadzony całkowicie przez cyberprzestrzeń, pozwalający użytkownikom na ominięcie opłat za przejazd wszechobecnych w publicznych sieciach komutowanych. W tym wpisie omówiono historię i wpływ VoIP Zasadniczo VoIP umożliwia ruch głosowy w systemie zaprojektowanym pierwotnie tylko dla danych poprzez "pakietowanie" głosów w formie zgodnej z formatami protokołów kontroli transmisji i protokołów internetowych, co prowadzi do konwergencji połączeń głosowych i ruch danych. W przypadku VoIP dane są przesyłane przez Internet i rozwinęły się kosztem alternatywnej, publicznej komutowanej sieci telefonicznej (PSTN). Użytkownicy mogą korzystać z telefonów cyfrowych lub analogowych adapterów telefonicznych (np. Magic Jack, SmartLink). Jednak Internet został zaprojektowany do przenoszenia ruchu w czasie nierzeczywistym poprzez przełączanie pakietów, więc przejście na dane głosowe w czasie rzeczywistym nie obyło się bez problemów. Kierowanie ludzkim głosem jest trudniejsze niż kierowanie danych. Telefonia internetowa to usługa głosowa zbudowana na bazie usług transmisji danych. Istnieją trzy wersje VoIP: (1) komputer z komputerem, (2) komputer z telefonem i (3) telefon z telefonem, z których każda wiąże się z innymi wyzwaniami technicznymi związanymi z przełączaniem pakietów danych. Niezwykle niska cena VoIP wynika z możliwości ominięcia kosztownych dedykowanych obwodów między dzwoniącymi poprzez kodowanie połączeń jako dwukierunkowych strumieni pakietów danych przesyłanych przez szerokopasmowe łącza internetowe. Jednak VoIP wykorzystuje tylko około 10% przepustowości na minutę połączenia telefonicznego, które ma sieć PSTN. VoIP nie jest nowym produktem per se, ale sposobem na efektywniejsze wykorzystanie istniejącej infrastruktury internetowej, a tym samym na oddzielenie dostępu do Internetu od usług internetowych. Rysunek 1 ilustruje podstawy VoIP. Jak ujął to Kevin Werbach (2005), jego siła polega na tym, że przekształca mowę w cyfrowe pakiety danych, które można przechowywać, przeszukiwać, modyfikować, kopiować, łączyć z innymi danymi i rozpowszechniać na praktycznie każdym urządzeniu podłączonym do Internetu. . Pomyśl o tym, w zasadzie, jako o sieci World Wide Web dla głosu.

Historia VoIP

W 1973 roku Danny Cohen zademonstrował, że pakiety danych głosowych mogą być przesyłane przez sieć Agencji Zaawansowanych Projektów Badawczych, z której korzystał w ramach programu symulacji lotu. W 1991 roku udostępniono publicznie pierwszą aplikację VoIP, Speak Freely. Powszechnie uważa się, że współczesny VoIP rozpoczął się w 1995 roku od małej izraelskiej firmy VocalTec, która wprowadziła komercyjne oprogramowanie umożliwiające ruch głosowy między komputerami osobistymi. Wkrótce potem ona i inne firmy rozszerzyły ten proces przez Internet. Giganci oprogramowania, tacy jak Microsoft i Intel, rozpoczęli standaryzację niezbędnych protokołów. Pod koniec lat 90. cyfrowe przełączniki programowe, które moża połączyć jedną linię telefoniczną z drugą, stały się dostępne. Wraz ze wzrostem popularności telefonii internetowej przyciągnęła ona inwestycje w sprzęt do routingu i przełączania od dużych producentów sieci, takich jak Lucent i Cisco. Zaczęło pojawiać się wielu dostawców usług telefonii internetowej (np. net-2Phone, Vonage, Mitel). Wczesne obawy dotyczące niskiej jakości usług zostały złagodzone (choć niektóre obawy pozostają), ponieważ technologia dostosowała się do rozwijającego się rynku usług szerokopasmowych; rzeczywiście, rozwój VoIP i Internetu szerokopasmowego szły ręka w rękę. Rynek masowy VoIP rozpoczął się na dobre w 2004 r., gdy szerokopasmowe łącze stało się najpowszechniejszą formą dostarczania Internetu. Eksperymenty z satelitarnym VoIP przyniosły jak dotąd niewiele rezultatów ze względu na opóźnienia propagacji i wysoki poziom "jittera", który sprawia, że głosy brzmią nierówno. VoIP stał się branżą wartą wiele miliardów dolarów. Wiele instytucji (np. uniwersytetów) zaczęło stosować go jako sposób na obniżenie kosztów komunikacji. Korporacje często przyjmowały VoIP jako środek integracji telefonu, konferencji internetowych, faksu (Fax over IP) i usług internetowych. Zdecydowana większość prywatnych central telefonicznych lub systemów komutacyjnych obsługujących organizacje prywatne to VoIP. Z zaledwie 4% światowego ruchu telefonicznego w 2000 roku, VoIP wzrósł do około 30% w 2015 roku. Rzeczywiście, podczas gdy wskaźniki wzrostu ruchu w systemach PSTN spadły do poziomu 8% do 10% rocznie, ruch VoIP rośnie dwa lub trzy razy szybciej. Rzeczywiście, liczba minut na rozmowy inne niż VoIP spada, jak pokazano na rysunku 2. Na to zjawisko wpływa kilka czynników. Ioanna Constantiou i Karlheinz Kautz, w badaniu duńskich użytkowników VoIP z perspektywy dyfuzji technologii, podkreślili rolę czynników ekonomicznych, takich jak niska cena VoIP, efekty sieciowe (tj. i inwestycje w naukę nowego systemu). Obietnica bezprzewodowego VoIP, który wciąż jest w powijakach, może jeszcze bardziej zwiększyć jego popularność: połączenia mogą być wysyłane przez Wi-Fi lub sieci 3G lub 4G. Pojawia się również VoIP z wideo, co można znaleźć w popularnych aplikacjach, takich jak Skype. Niegdyś prowincja stosunkowo niewielkich start-upów telekomunikacyjnych, rynek VoIP wzbudził ostatnio zainteresowanie prawie wszystkich gigantów telekomunikacyjnych, takich jak MCI-WorldCom i Deutsche Telekom, producentów sprzętu i oprogramowania, takich jak Nokia i Microsoft, oraz telewizji kablowych, takich jak TimeWarner Cable i Comcastem. Ponieważ VoIP przeszedł z rynku konsumenckiego na aplikacje biznesowe, wiele dużych korporacji (np. Boeing, Cisco Systems) korzysta z VoIP w celu zminimalizowania kosztów telekomunikacyjnych, często po prostu wykorzystując wolną pojemność swoich intranetów, generując znaczne oszczędności w procesie. Inne, takie jak Bank of America, wdrożyły tę technologię w celu przeniesienia zaplecza i funkcji wprowadzania danych do Indii. Trochę telekomunikacyjnych operatorów, tacy jak Telecom Italia, France Telecom, Deutsche Telekom, japońska NTT, hiszpańska Telefónica i holenderska firma KPN, zaczęli oferować usługi VoIP. Nawet behemot telefonii, AT&T, wkroczył do akcji. W przypadku VoIP czynniki napędzające i przeszkody na drodze do adopcji obejmują koszty utopione istniejących firm telekomunikacyjnych i ich zdolność do kształtowania krajowych struktur regulacyjnych, bariery prawne i ekonomiczne napotykane przez nowych uczestników rynku, wskaźniki penetracji Internetu oraz możliwości lokalnych dostawców i konsumentów (w tym ich zgromadzonych doświadczeń i zaawansowania technologicznego) w celu wykorzystania nowych możliwości technologicznych i społecznych, jakie generuje telefonia internetowa. VoIP gwałtownie wzrósł w krajach rozwijających się w nierównej serii trajektorii zależnych od ścieżki. Telefony stacjonarne często nigdy nie rozwinęły odpowiednich sieci w zubożałych krajach, a ich sieci często nie są wystarczająco utrzymywane. VoIP stał się popularny jako tania forma telefonii, szczególnie w krajach o dużej populacji emigrantów lub diaspor (np. Filipiny). Zdecydowanie najpopularniejszą na świecie aplikacją VoIP jest Skype, założony w 2003 roku przez dwóch skandynawskich przedsiębiorców, Niklasa Zennströma i Janusa Friisa, przy użyciu oprogramowania opracowanego przez estońskich inżynierów Ahti Heinla, Priita Kasesalu i Jaana Tallinna, którzy stali za siecią wymiany plików Kazaa . Z siedzibą w Luksemburgu, w dużej mierze polega na inżynierach oprogramowania zlokalizowanych w Tallinie. Skype zasadniczo połączył VoIP z przetwarzaniem typu peer-to-peer, co stanowi odejście od tradycyjnych modeli klient-serwer, a jego aplikacja SkypeOut była pionierem w przejściu z VoIP między komputerami w celu uwzględnienia sieci PSTN. To, co zaczęło się jako zestaw bezpłatnych usług, rozszerzyło się o usługi płatne, w tym pocztę głosową i połączenia konferencyjne. W 2005 roku eBay zapłacił 2,6 miliarda dolarów za zakup Skype′a, a następnie sprzedał go inwestorom w 2009 roku; Microsoft, zachęcony potencjalnym przyszłym wzrostem i reklamą typu "kliknij, aby połączyć", nabył ją w 2011 roku za 8,5 mld USD. Obecnie obsługuje 29 języków i umożliwia użytkownikom wykonywanie bezpłatnych połączeń z innymi posiadaczami konta Skype lub dzwonienie na inne telefony za symboliczną opłatą. W 2009 roku ponad 580 milionów użytkowników Skype′a odpowiadało za 12% międzynarodowych minut telefonicznych lub połowę globalnej liczby minut połączeń VoIP, przyćmiewając około 2000 konkurentów na całym świecie (z których połowa znajduje się w Stanach Zjednoczonych). Innym popularnym miejscem VoIP jest WhatsApp.

Wpływ VoIP

Prawdopodobnie największy wpływ telefonii internetowej wywiera na branżę telekomunikacyjną. Ponieważ ruch głosowy stanowi około trzech czwartych zysków branży telekomunikacyjnej, obniżenie cen prawie do zera stanowi niezwykle poważne wyzwanie dla firm na rynku wartym biliony dolarów, a niektóre nawet ostrzegają przed "VoIPocalypse". Rozwój usług VoIP doprowadził do tego, że dostawcy usług szerokopasmowych, usług bezprzewodowych i modemów kablowych zaczęli ze sobą konkurować. Firmy telekomunikacyjne reagowały na wyzwanie VoIP na różne sposoby, m.in. obniżając ceny tradycyjnych usług telefonicznych w celu zmniejszenia atrakcyjności nowego medium, próbując zdobyć udział w rynku VoIP (np. Google Talk), podsycając obawy o bezpieczeństwo ruch głosowy przez niezabezpieczone łącza internetowe lub poprzez łączenie ruchu głosowego i transmisji danych oraz naliczanie opłat według liczby przesłanych megabajtów. Inni zostali zmuszeni do kanibalizacji swoich dochodów z publicznej sieci komutowanej. VoIP ma kilka wad. Jeden dotyczy służb ratunkowych. W sieciach PSTN pochodzenie połączeń alarmowych jest automatyczne; z telefonią internetową, jednak takie bezpośrednie połączenie nie istnieje. W odpowiedzi niektórzy dostawcy VoIP oferują usługę znaną jako Enhanced 911 (E911), która łączy numer telefonu dzwoniącego z lokalizacją jego adresu IP. Warto zauważyć, że VoIP jest podatny na awarie zasilania, podczas gdy PSTN nie. Wzrasta liczba spamu w telefonii internetowej. VoIP jest podatny na ataki hakerów, którzy mogą inicjować ataki typu "odmowa usługi". Wreszcie, VoIP stawia czoła ograniczeniom wynikającym z przepaści cyfrowej, w której mniej zamożne grupy i regiony mają gorszy dostęp lub nie mają go wcale. Struktura regulacyjna VoIP jest niejasna. Na przykład, w jaki sposób odnosi się to do neutralności sieci, nie jest jasne. Starsze przepisy z sieci PTSN nie mają łatwego zastosowania w sieciach cyfrowych. Niektóre kraje (np. Azerbejdżan, Etiopia, Oman, Zjednoczone Emiraty Arabskie i Gujana) zakazują nawet VoIP w celu ochrony państwowych dostawców usług telekomunikacyjnych. Indie zezwalają na VoIP tylko w przypadku połączeń międzymiastowych. Cenzura internetowa obejmuje VoIP w niektórych krajach, ale nie w innych.

Wniosek

VoIP radykalnie zmienił ekonomię i geografię branży telefonicznej. Tania telefonia staje się wszechobecna. W miarę rozprzestrzeniania się Internetu starsze konceptualizacje asymetrii struktury między światowym rdzeniem krajów bogatych w informacje a peryferiami krajów ubogich w informacje stopniowo ustąpiła miejsca bardziej złożonemu i zniuansowanemu zrozumieniu tych cyfrowych przepaści. W tym świetle coraz lepiej połączone peryferia stają się normą, co ilustruje globalne rozpowszechnienie telefonu komórkowego i VoIP. Pomimo obaw przed VoIPocalypse, telekomunikacja została zmuszona do dostosowania się i znalezienia nowych modeli biznesowych.



Powrót


[ 298 ]