Bezpieczeństwo sztucznej inteligencji (AI) to wyłaniająca się interdyscyplinarna dziedzina nauki zajmująca się zapewnianiem bezpieczeństwa i ochrony sztucznie inteligentnych systemów. Inżynierowie, informatycy, filozofowie, ekonomiści, kognitywisty i eksperci z wielu innych dziedzin zaczynają zdawać sobie sprawę, że pomimo różnic w terminologii i podejściach wszyscy pracują nad wspólnym zestawem problemów związanych z kontrolą niezależnych inteligentnych agentów. Historycznie rzecz biorąc, takie badania były prowadzone pod różnymi etykietami, takimi jak etyka sztucznej inteligencji, przyjazna sztuczna inteligencja, badania osobliwości, kontrola superinteligencji, weryfikacja oprogramowania, etyka maszyn i wiele innych. Doprowadziło to do nieoptymalnej wymiany informacji między praktykami, dezorientującego braku wspólnej terminologii, a w rezultacie do ograniczonych możliwości uznania, publikacji i finansowania.
Internet i media społecznościowe są domem dla wielu inteligentnych agentów (tzw. botów), które udając ludzi, mogą odpowiadać na pytania, angażować użytkowników lub stwarzać zabawnych przeciwników w grach. Tacy agenci należą do szerszej domeny sztucznie inteligentnego oprogramowania, które stanowi podstawę wielu zasobów internetowych, w tym wyszukiwarek, systemów rekomendacji, globalnych systemów pozycjonowania i komunikacji e-mailowej. Rzeczywiście, prawie niemożliwe jest znalezienie oprogramowania nie korzystającego z jakiegoś aspektu sztucznej inteligencji. Tradycyjne badania nad sztuczną inteligencją miały na celu zwiększenie możliwości inteligentnego oprogramowania. Bezpieczeństwo SI to dziedzina badań na styku SI i cyberbezpieczeństwa, której celem jest uczynienie SI korzystną; w szczególności badacze bezpieczeństwa sztucznej inteligencji starają się, aby inteligentne oprogramowanie było bezpieczne i chronione przed awariami i włamaniami. Roman Yampolskiy, ekspert ds.bezpieczeństwa cybernetycznego z University of Louisville, został uznany za twórcę wyrażenia inżynieria bezpieczeństwa sztucznej inteligencji i jej skrótowego zapisu Bezpieczeństwo AI w 2010 r., aby nadać nazwę nowemu kierunkowi badań, którego propagował, aby uczynić sztuczną inteligencję korzystną. Wcześniej najczęstszymi nazwami odpowiednich pojęć były etyka maszyn lub przyjazna sztuczna inteligencja, ale dziś termin bezpieczeństwo sztucznej inteligencji jest szeroko stosowany do identyfikacji dziedziny, a sama dziedzina staje się głównym nurtem. W pozostałej części tego wpisu omówiono pracę badaczy zajmujących się bezpieczeństwem SI, awarie techniczne sztucznej inteligencji oraz metody testowania systemów SI.
Obszary badań nad bezpieczeństwem AI
Prace badaczy zajmujących się bezpieczeństwem SI koncentrują się na tym, aby systemy AI były korzystne na wszystkich etapach rozwoju. Bezpieczeństwo sztucznej inteligencji jest wykorzystywane w wielu praktycznych zastosowaniach, takich jak ograniczanie dostępu botów do zasobów obliczeniowych, takich jak bezpłatne konta e-mail, ankiety do głosowania online i gry wideo. Boty mogą nadużywać wielu bezpłatnych usług, wysyłając spam lub przeprowadzając ataki socjotechniczne przeciwko legalnym użytkownikom. Algorytmy CAPTCHA (Całkowicie zautomatyzowany publiczny test Turinga w celu rozróżnienia komputerów i ludzi) są używane do ograniczania dostępu tylko do użytkowników, którzy mogą udowodnić, że są ludźmi, za pomocą testu typu wyzwanie-odpowiedź. Innym praktycznym zastosowaniem jest wykrywanie i usuwanie uprzedzeń rasowych lub płciowych z algorytmów podejmowania decyzji. Jeśli takie algorytmy zostaną przeszkolone w zakresie zanieczyszczonych danych, wynikowy klasyfikator sam zostanie zanieczyszczony, co może skutkować niekorzystną decyzją wobec niektórych grup, na przykład odmową kredytów hipotecznych mniejszościom. Niepokój budzi też wrogie wykorzystywanie sztucznej inteligencji do popełniania przestępstw. Oprogramowanie takie jak wirusy komputerowe powoduje miliardy dolarów szkód. Wraz z pojawieniem się coraz bardziej wydajnych programów sztucznej inteligencji można zautomatyzować wiele różnych przestępstw i zorganizować bardzo potężne ataki socjotechniczne. Źli aktorzy mogą uzyskać zdolność do popełniania zaawansowanej cyberprzestępczości, uzyskując dostęp do oprogramowania AI typu open source i odpowiednio je modyfikując. Wraz z postępem technologicznym do przeprowadzania wyrafinowanych ataków będą potrzebne bardzo niewielkie umiejętności programowania, dlatego badacze bezpieczeństwa sztucznej inteligencji szukają sposobów na zintegrowanie mechanizmów bezpieczeństwa z produktami sztucznej inteligencji.
Awarie techniczne AI
Techniczne awarie sztucznej inteligencji są bezpośrednio związane z błędami wywoływanymi przez inteligencję, które takie systemy są zaprojektowane. Takie niepowodzenia można ogólnie podzielić na (a) błędy w fazie uczenia się i (b) błędy w fazie wydajności. System może nie nauczyć się tego, czego chcą jego ludzcy projektanci, a zamiast tego nauczyć się innej, ale skorelowanej funkcji. Często przytaczanym przykładem jest komputerowy system wizyjny, który miał klasyfikować zdjęcia czołgów, ale zamiast tego nauczył się rozróżniać tła takich obrazów. Inne przykłady obejmują problemy spowodowane źle zaprojektowanymi funkcjami użytkowymi nagradzającymi tylko częściowo pożądane zachowania agentów, takie jak jazda na rowerze w kółko wokół celu, wstrzymywanie gry w celu uniknięcia przegranej lub wielokrotne dotykanie piłki w celu uzyskania uznania za posiadanie. W fazie wydajności istnieje wiele możliwych przyczyn, które mogą prowadzić do awarii AI. System prawny stoi za możliwościami technologicznymi, a dziedzina moralności maszyn jest w powijakach. Problem sterowania inteligentnymi maszynami jest obecnie uznawany za poważny problem, a wielu badaczy wciąż sceptycznie odnosi się do jego przesłanek. Od 2017 r. Tylko około 100 osób na całym świecie pracowało nad rozwiązaniem obecnych ograniczeń w naszym zrozumieniu i umiejętnościach w tej dziedzinie. Szacuje się, że tylko kilkanaście z nich ma formalne przeszkolenie w zakresie informatyki, cyberbezpieczeństwa, kryptografii, teorii decyzji, uczenia maszynowego, weryfikacji formalnej, informatyki śledczej, steganografii, etyki, matematyki, bezpieczeństwa sieci, psychologii i innych odpowiednich dziedzin. Nietrudno zauważyć, że problem stworzenia bezpiecznej i sprawnej maszyny jest znacznie większy niż problem wykonania tylko sprawnej maszyny. Jednak tylko około 1% naukowców jest obecnie zaangażowanych w ten problem, a dostępne poziomy finansowania są nawet poniżej tej granicy. Jako stosunkowo młody i niedofinansowany kierunek studiów, bezpieczeństwo sztucznej inteligencji mogłoby skorzystać na przyjęciu metod i pomysłów z bardziej ugruntowanych dziedzin nauki. Podjęto próby wprowadzenia technik, które zostały po raz pierwszy opracowane przez ekspertów ds. cyberbezpieczeństwa, aby zabezpieczyć systemy oprogramowania w tej nowej dziedzinie zabezpieczania inteligentnych maszyn. Inne dziedziny, które mogą służyć jako źródło ważnych technik, obejmują inżynierię oprogramowania i weryfikację oprogramowania.
Testowanie systemów AI
Podczas iteracyjnego testowania i debugowania tworzenia oprogramowania, tworzenie niezawodnego i bezpiecznego kodu ma fundamentalne znaczenie. Chociaż zakłada się, że każde skomplikowane oprogramowanie będzie miało pewne błędy, z wieloma zaawansowanymi technikami dostępnymi w zestawie narzędzi inżynierów oprogramowania, najpoważniejsze błędy można wykryć i naprawić, w wyniku czego produkt będzie odpowiedni do zamierzonych celów. Modułowe techniki programowania i testowania stosowane w branży oprogramowania mogą być wykorzystywane podczas opracowywania inteligentnych agentów, ale jest mało prawdopodobne, aby metody testowania gotowego pakietu oprogramowania można było przenosić w ten sam sposób. Testy alfa i beta, które polegają na udostępnianiu zaawansowanym użytkownikom prawie ukończonego oprogramowania w celu zgłaszania problemów napotkanych w realistycznych sytuacjach, nie byłyby dobrym pomysłem w dziedzinie testowania / debugowania superinteligentnego oprogramowania ze względu na nieprzewidywalność konsekwencji. Podobnie samo uruchomienie oprogramowania, aby zobaczyć, jak działa, nie jest wykonalne w przypadku superinteligentnego agenta. W informatyce teoretycznej powszechnym sposobem wyodrębnienia istoty trudnego problemu jest metoda redukcji do innego, czasem lepiej przeanalizowanego problemu. Jeśli taka redukcja jest możliwa i jest wydajna obliczeniowo, oznacza to, że jeśli lepiej analizowany problem zostanie w jakiś sposób rozwiązany, będzie to również działające rozwiązanie problemu. Problem bezpieczeństwa AI można sprowadzić do problemu upewnienia się, że dany człowiek jest bezpieczny, czyli nie wyrządzi krzywdy. Nazywa się to bezpiecznym problemem ludzkim. Formalnie takiej redukcji można dokonać za pomocą ograniczonego testu Turinga w dziedzinie bezpieczeństwa w sposób identyczny z tym, jak można ustalić kompletność problemu przez sztuczną inteligencję. (Problem jest uważany za kompletny AI, jeśli rozwiązanie wymaga sztucznej inteligencji ogólnej). W obu przypadkach mamy przynajmniej ludzkiego inteligentnego agenta zdolnego do wpływania na jego otoczenie i chcielibyśmy się upewnić, że agent jest bezpieczne i kontrolowane. Podczas gdy w praktyce zmiana projektu człowieka poprzez manipulację DNA nie jest tak prosta, jak zmiana kodu źródłowego sztucznej inteligencji, teoretycznie jest to tak samo możliwe. Jeśli system cyberbezpieczeństwa zawiedzie, szkody są nieprzyjemne, ale w większości przypadków można je tolerować: ktoś traci pieniądze, ktoś traci prywatność, a może ktoś traci życie. W przypadku wąskich sztucznych inteligencji awarie w zakresie bezpieczeństwa mają takie samo znaczenie, jak w przypadku ogólnego cyberbezpieczeństwa, ale w przypadku ogólnej sztucznej inteligencji jest zasadniczo inny. (Wąska sztuczna inteligencja odnosi się do pojedynczej domeny sztucznej inteligencji [np. Może grać w szachy, ale nic poza tym], podczas gdy ogólna sztuczna inteligencja jest zdolna do działania i uczenia się w różnych domenach). Pojedyncza awaria superinteligentnego systemu może spowodować zdarzenie związane z ryzykiem egzystencjalnym. Jeśli mechanizm bezpieczeństwa AI zawiedzie, każdy może stracić wszystko, a całe życie biologiczne we wszechświecie zostanie potencjalnie zniszczone. Dzięki systemom bezpieczeństwa będzie kolejna szansa, aby zrobić to dobrze lub przynajmniej zrobić to lepiej. Z systemem bezpieczeństwa AI jest jedna szansa na sukces, więc uczenie się na błędach nie wchodzi w grę. Co gorsza, typowy system bezpieczeństwa może w pewnym stopniu zawieść, tak że na przykład naruszona zostanie tylko niewielka ilość danych. W przypadku systemu bezpieczeństwa AI porażka lub sukces jest opcją binarną: albo ktoś ma bezpieczną i kontrolowaną superinteligencję, albo nie. Celem cyberbezpieczeństwa jest zmniejszenie liczby skutecznych ataków na system; Celem bezpieczeństwa sztucznej inteligencji jest upewnienie się, że ataki zerowe skutecznie obejdą mechanizmy bezpieczeństwa. Z tego powodu możliwość oddzielenia wąskich projektów SI od potencjalnie ogólnych projektów SI jest otwartym problemem o fundamentalnym znaczeniu w dziedzinie bezpieczeństwa SI. Dodatkowe komplikacje wynikną z interakcji między inteligentnym oprogramowaniem a mechanizmami bezpieczeństwa zaprojektowanymi w celu zapewnienia bezpieczeństwa sztucznej inteligencji. Będziemy też musieli przetestować wszystkie opracowywane obecnie mechanizmy bezpieczeństwa sztucznej inteligencji. Podczas gdy sztuczna inteligencja jest na poziomie ludzkim, niektóre testy można przeprowadzić z ludzkim agentem odgrywającym rolę sztucznego agenta. Na poziomach przekraczających ludzkie możliwości testy kontradyktoryjne nie wydają się być możliwe do zrealizowania w przypadku technologii z 2017 roku. Co ważniejsze, tylko jeden przebieg testowy byłby kiedykolwiek możliwy.
Jednym z licznych skutków, jakie Internet wywiera na globalną gospodarkę, jest decentralizacja usług o niskim wynagrodzeniu i niskiej wartości dodanej, takich jak wprowadzanie danych i obsługa klienta, do regionów oddalonych od siedziby firmy. Znaczące postępy w mikroelektronice i telekomunikacji, w tym rozwój Internetu, umożliwiły zlokalizowanie tych usług w różnych regionach świata. W tym wpisie omówiono przenoszenie zaplecza do lokalizacji oddalonych od siedziby firmy i otwieranie rozległych centrów telefonicznych oraz niektóre konsekwencje tych zmian.
Back Offices
Chociaż termin back office jest definiowany na wiele sposobów, biura te zazwyczaj wykonują zadania administracyjne, które nie obejmują bezpośrednich kontaktów z klientami. Ta praca obejmuje wprowadzanie danych związanych z dokumentacją biurową, książkami telefonicznymi, katalogami bibliotecznymi, listami płac i rozliczeniami, czekami bankowymi, roszczeniami ubezpieczeniowymi i prenumeratą czasopism. Zadania te obejmują niewykwalifikowaną lub średnio wykwalifikowaną siłę roboczą, są często wykonywane głównie przez kobiety i często są wykonywane 24 godziny na dobę. W przeciwieństwie do centrali firmy, back office ma niewiele połączeń z klientami lub dostawcami; raczej dane wejściowe są wysyłane bezpośrednio przez firmę. Podstawowe wymagania przy lokalizowaniu back office to niezawodna energia elektryczna, sprzęt komputerowy i sieci telekomunikacyjne o dużej przepustowości. Biura zaplecza znajdowały się kiedyś zazwyczaj w sąsiedztwie siedziby głównej (tj. poza biurem) w obszarach śródmiejskich, często w tym samym budynku. Pozwoliło to na ścisły nadzór kierownictwa i szybką zmianę informacji. W latach 80. i 90. XX wieku, gdy czynsze w centralnych miastach rosły, a firmom brakowało pracowników z obsługą komputera, wiele firm przeniosło funkcje biurowe do tańszych lokalizacji na przedmieściach. Telekomunikacja cyfrowa umożliwiła to rozdzielenie funkcji centrali i zaplecza. W biurach zaplecza, które przeniosły się na przedmieścia, często znajdowały się kobiety chętne do pracy w niepełnym wymiarze godzin, zwykle zamężne kobiety z małymi dziećmi. Ponadto przedmieścia oferowały dużo miejsc parkingowych, niższe wskaźniki przestępczości oraz tańsze podatki i elektryczność. Przeniesione zaplecze przyczyniło się do boomu handlowego na przedmieściach. Dlatego większość przeprowadzek zaplecza dotyczyła przedmieść; 95% wszystkich przeniesień miejsc pracy związanych z wprowadzaniem danych ma miejsce w obszarach metropolitalnych, a nie między nimi. Na szerszą skalę wiele amerykańskich firm zaczęło przenosić swoje zaplecze poza duże obszary metropolitalne, opuszczając Nowy Jork, San Francisco i Los Angeles do mniejszych miast na południu i środkowym zachodzie. Beneficjentami tego trendu były Phoenix, Arizona, Atlanta, Georgia i Kansas City w stanie Missouri. Omaha w stanie Nebraska stworzyła tysiące telemarketingowych i biurowych miejsc pracy ze względu na swoje położenie na skrzyżowaniu krajowej infrastruktury światłowodowej. Podobnie z obfitą tanią siłą roboczą, San Antonio w Teksasie i Wilmington w Delaware, stały się znanymi ośrodkami telemarketingu. Boulder w Kolorado, Albuquerque, Nowy Meksyk i Columbus w Ohio również przyciągnęły wiele takich miejsc pracy. Wraz z pojawieniem się transoceanicznych linii światłowodowych i Internetu wiele firm obniża koszty pracy, przenosząc funkcje biurowe za granicę. Back office na ogół nie wymaga inwestycji w wyrafinowany sprzęt, więc firmy mogą wybierać spośród lokalizacji w oparciu o niewielkie różnice w lokalnych płacach lub rentowności. Ubezpieczenia, wydawnictwa i linie lotnicze należą do branż, w których wiele firm przeniosło zaplecze za granicę. Na przykład kilka nowojorskich towarzystw ubezpieczeniowych na życie przeniosło zaplecze biurowe do Irlandii przy aktywnym wsparciu irlandzkiego Urzędu Rozwoju Przemysłu (obecnie IDA Ireland). W większości zlokalizowane w pobliżu lotniska Shannon, głównego międzynarodowego węzła transportowego, biura te wysyłają dokumenty za pomocą Federal Express i eksportują zdigitalizowane rekordy z powrotem przez satelitę lub jedną z wielu linii światłowodowych łączących Nowy Jork i Londyn. Firmy przeniosły również swoje zaplecze do krajów karaibskich. American Airlines przeniosły swoje centrum przetwarzania danych z Tulsa w Oklahomie na Barbados w 1981 roku. Poprzez swoją spółkę zależną Caribbean Data Services, American Airlines rozszerzyły działalność na Jamajkę i Dominikanę. Brytyjskie firmy przeniosły swoje biura do Manili na Filipinach, podczas gdy firmy niemieckie przeniosły je do Maroka. Badacze zauważyli, że chociaż praca w zapleczu może być najbardziej obiecującą opcją dla pracowników w określonej społeczności, rola zaplecza jako eksportera informacji i generatora miejsc pracy budzi wiele obaw. Beverley Mullings zbadała strategie stosowane przez kobiety zatrudnione na zapleczu Jamajki, aby radzić sobie z niskimi płacami, uciążliwymi warunkami pracy i brakiem mobilności zawodowej, a jednocześnie stawić im opór.
Call Centers
Praca wykonywana w call center to kolejna forma niskopłatnej usługi o niskiej wartości dodanej. Madeline Bodin i Keith Dawson definiują centra obsługi telefonicznej jako "miejsca, w których wykonywane lub odbierane są duże ilości połączeń w celu sprzedaży, marketingu, obsługi klienta, telemarketingu, wsparcia technicznego lub innej wyspecjalizowanej działalności biznesowej". Funkcje call center obejmują telemarketing, pomoc dla klientów i zamówienia telefoniczne, często z wyznaczonymi numerami 0800. Call center zatrudnia od pięciu do nawet kilku tysięcy pracowników. Centra obsługi telefonicznej, podobnie jak back office, działają głównie w oparciu o ekrany i nie wymagają bliskości klientów. Głównym kosztem jest praca, chociaż siła robocza składa się głównie z kobiet o niskich kwalifikacjach, a wskaźniki rotacji są powszechne. Miasta, które ustanowiły konkurencyjne nisze w tej dziedzinie, to Omaha, Nebraska, San Antonio, Teksas, Wilmington, Delaware, Albuquerque, Nowy Meksyk i Columbus w Ohio. Centra obsługi telefonicznej, podobnie jak back office, stają się coraz bardziej zglobalizowane. Według The Economist, od 2014 r. Połowa wszystkich pełnoetatowych miejsc pracy w call center była zlokalizowana na Filipinach iw Indiach. Wiele centrów obsługi klienta w Indiach znajduje się w pobliżu stolicy oprogramowania, Bangalore (obecnie Bengaluru); Pracownicy call center są szkoleni, by brzmieć jak Amerykanie i mogą plotkować z klientami o popkulturze. Centra telefoniczne tworzą węzły w sieciach, które obejmują firmy z Pierwszego Świata, pracowników Trzeciego Świata, firmy telekomunikacyjne, klientów i ogromne, jeśli niewidoczne, przepływy informacji.
Baidu Inc. (Baidu) to jedna z największych firm internetowych w Chinach. Została założona przez Robina Yanhong Li i Erica Yong Xu 18 stycznia 2000 roku. Jej siedziba znajduje się w kampusie Baidu w Zhongguancun, największym centrum technologicznym w Pekinie i jednej z największych stref rozwoju zaawansowanych technologii w Chinach. Jej flagowy produkt, Baidu.com, jest największą chińską wyszukiwarką, która w 2016 roku zajmuje 79,07% udziału w rynku w Chinach i zajmuje czwarte miejsce na świecie pod względem udziałów w rynku po Google, Bing i Yahoo. Często nazywany "Google of China", Baidu opracował szereg usług internetowych oprócz wyszukiwarki zarówno dla chińskich, jak i globalnych użytkowników, w tym mapy online, media strumieniowe, platformy społecznościowe i przechowywanie w chmurze. 5 sierpnia 2005 r. Baidu dokonał swojej pierwszej oferty publicznej na NASDAQ i pozyskał 109,09 mln USD. W ostatnich latach Baidu stało się jedną z najszybciej rozwijających się firm internetowych na świecie.
W 2015 r. Baidu Inc. odnotowała łączny roczny przychód w wysokości 10,25 mld USD, co stanowi 250-krotny wzrost w porównaniu z 2005 r. (39,56 mln USD). W marcu 2016 r. Baidu zatrudniało 43 500 pracowników. Razem z Alibaba i Tencent, Baidu jest członkiem tzw. BAT (Baidu, Alibaba i Tencent), w skład którego wchodzą trzy największe firmy internetowe w Chinach i jest uważana za jedną z największych firm internetowych na świecie. Jednak Baidu był również zaangażowany w kilka kontrowersji, a czasami jego odpowiedzialność społeczna była kwestionowana z powodu skandali biznesowych i innych sporów w Chinach.
Nazwa Baidu pochodzi od słynnego wiersza z czasów dynastii Song autorstwa Xin Qiji, Zhongli Xunta Qianbaidu, co dosłownie tłumaczy się jako "Ale w tłumie raz po raz szukam jej na próżno", co oznacza dążenie do poszukiwania wiedzy i informacji . Baidu używa łapy niedźwiedzia jako znaku towarowego, odnosząc się do chińskiego idiomu lieren xunji xiongzhua, przetłumaczonego jako "Łowcy znajdują niedźwiedzia według odcisków jego łap". Od 2016 roku, wraz z siedzibą w Zhongguancun, Baidu ma oddziały w Szanghaju, Kantonie, Dongguan, Shenzhen i Suzhou. Posiada również biura międzynarodowe w Brazylii, Egipcie, Indiach, Indonezji, Japonii, Tajlandii i Stanach Zjednoczonych. Ten wpis analizuje historię, produkty i kontrowersje Baidu.
Historia
Li i Xu założyli Baidu w 2000 roku z początkowym kapitałem wysokiego ryzyka w wysokości 1,2 miliona USD od amerykańskich inwestorów. W sierpniu 2001 r. uruchomili chińską wyszukiwarkę internetową Baidu.com. W listopadzie 2002 r. wprowadzili wyszukiwarkę muzyki i piosenek w formacie MP3 o nazwie Baidu MP3. Dodali funkcję wyszukiwania wiadomości i zdjęć do Baidu.com w czerwcu 2003 r. W listopadzie 2003 r. Baidu uruchomiło internetową platformę dyskusyjną Baidu Tieba, która następnie stała się największym chińskim systemem tablic ogłoszeniowych i ważną postacią dla rozwoju chińskiej cyberkultury. Pod koniec 2003 roku Baidu, wyprzedzając Google, stała się najczęściej używaną wyszukiwarką w Chinach pod względem udziału w rynku. W 2005 roku, w tym samym roku Baidu dokonało swojej pierwszej oferty publicznej na NASDAQ, Baidu Zhidao (lub Baidu Knows), pierwsza chińska witryna z pytaniami i odpowiedziami oraz Baidu Map zostały udostępnione w chińskim Internecie. W 2006 roku zadebiutowała internetowa encyklopedia Baidu, Baidu Baike. Baidu wszedł na światowy rynek, uruchamiając w 2006 r. japońską wyszukiwarkę Baidu Japan. W 2011 r. Baidu wszedł na rynek arabski, zakładając Baidu Egypt, świadczącego usługi przeglądarek i portali w języku arabskim. Baidu uruchomił swoją wyszukiwarkę w języku portugalskim i wszedł na rynek brazylijski w 2014 roku. Od 2010 roku Baidu odgrywa aktywną rolę na rynku venture firm internetowych, ponieważ zainwestował i przejął kilka profesjonalnych firm internetowych w Chinach w celu dywersyfikacji swojej działalności. W 2011 roku Baidu zainwestował 300 milionów dolarów, aby stać się największym udziałowcem Qunar.com, największej wyszukiwarki turystycznej w Chinach. W 2013 r. Baidu kupił PPStream, największą firmę zajmującą się strumieniowaniem wideo peer-to-peer w Chinach, za 370 mln USD i stworzył największą internetową platformę wideo pod marką Baidu iQiyi. W 2013 roku Baidu wkroczyła również na zaciekle konkurencyjny chiński rynek e-commerce typu business-to-consumer, nabywając za 160 mln USD witrynę zakupów grupowych Nuomi.com.
Produkty
Baidu oferuje użytkownikom Internetu w Chinach szereg usług internetowych i mobilnych w języku chińskim. Niektóre z nich weszły na światowy rynek internetowy od 2010 roku. Do głównych produktów, które mają największe udziały w rynku w Chinach, należą wyszukiwarka Baidu .com, usługa map Baidu Map, internetowa encyklopedia Baidu Baike oraz dyskusje i portale społecznościowe. platforma Baidu Tieba.
Baidu.com
Baidu.com to wyszukiwarka i pierwszy produkt opracowany przez Baidu. Według statystyk Alexa z 2017 roku jest to najczęściej odwiedzana strona internetowa w Chinach i czwarta najczęściej odwiedzana w sieci. Baidu.com, wyszukiwarka oparta na strukturze wyszukiwania dokumentów związanych z zapytaniem, indeksuje dokumenty zgodnie z hiperłączami prowadzącymi do tych dokumentów, co jest własnym patentem Li. Baidu twierdzi, że jest największą chińską wyszukiwarką na świecie i zapewnia najskuteczniejsze chińskie wyniki wyszukiwania dla internautów. Obsługuje 95% chińskich internautów i przetwarza ponad 6 miliardów zapytań dziennie.
Mapa Baidu
Baidu Map oferuje swoim użytkownikom mapy online, zdjęcia satelitarne i usługi nawigacyjne. Posiada również własny portal API (interfejs programowania aplikacji) dla programistów. Od grudnia 2016 r. Baidu Map obejmuje międzynarodowe mapy ulic Ameryki Północnej, Ameryki Południowej, Australii, Azji Południowo-Wschodniej, Azji Południowej, Korei Południowej i Japonii. Baidu Map uruchomiła usługę Street View w 2013 roku i rozszerzyła się do 175 miast w Chinach, a także Hongkongu i Makau do końca 2015 roku. Baidu opracował Baidu Heatmap, wykorzystując analizę "dużych danych" na Baidu Map w styczniu 2014 roku w celu wizualizacji przepływ ruchu podczas Chunyun (sezon podróżniczy Święta Wiosny). Usługa mapy popularności służy również do zademonstrowania wielkości tłumów i przepływu ludzi w miastach. Baidu Map ma kilka tematycznych funkcji mapowania, takich jak te przeznaczone na przykład do mapowania wędrówek, zanieczyszczenia powietrza i kampusów uniwersyteckich. Baidu Map posiada również własne API, które pozwala użytkownikom na tworzenie własnych, dostosowanych do potrzeb geowizualizacji lub programów geoprzestrzennych z geobazą z Baidu Map. Baidu Map jest dostępna zarówno na platformach stacjonarnych, jak i mobilnych.
Baidu Baike
Baidu Baike to oparta na współpracy, bezpłatna, internetowa encyklopedia w języku chińskim. Do grudnia 2016 r. Baidu Baike zindeksował ponad 13 milionów artykułów stworzonych przez ponad 6 milionów autorów. W porównaniu z Wikipedią, która twierdzi, że jest internetowym źródłem non-profit dla internautów, Baidu Baike jest encyklopedią internetową nastawioną na zysk, która pozwala na reklamę komercyjną. Od stycznia 2017 r. zapewniał członkostwo korporacyjne z roczną opłatą w wysokości 6998 CNY (1010 USD) dla firm i firm, co pozwala klientom na utworzenie oficjalnego wpisu dla swoich firm, marek i produktów. Ponadto Baidu Baike cenzuruje swoje treści i artykuły zgodnie z wymogami rządu chińskiego. Artykuły o charakterze politycznym są zakazane na Baidu Baike. Uważa się, że niektóre artykuły nie są obiektywne.
Baidu Tieba
Baidu Tieba to system tablic ogłoszeń (BBS), który jest obecnie największym internetowym forum dyskusyjnym w Chinach. Baidu Tieba odnotował średnio 300 milionów aktywnych użytkowników w styczniu 2016 roku, co czyni ją jedną z największych platform społecznościowych i dyskusyjnych na świecie. W odróżnieniu od tradycyjnego BBS lub platformy mediów społecznościowych, Baidu Tieba klasyfikuje użytkowników na grupy zorganizowane według różnych słów kluczowych zwanych "barami". Użytkownicy dołączają do różnych barów, aby brać udział w dyskusjach na temat paska. Na przykład Zhongguo Zuqiu (chiński futbol) Bar zawiera dyskusje na tematy związane z chińską piłką nożną, a Biancheng (Programming) Bar omawia różne tematy związane z programowaniem komputerowym. W przeciwieństwie do tradycyjnych witryn BBS z wstępnie ustawionymi forami dyskusyjnymi, użytkownicy mogą utworzyć nowy pasek z nowym słowem kluczowym, a następnie rozpocząć dyskusje pod tym nowym tematem. Ta funkcja pomaga Baidu Tieba być dynamiczną społecznością internetową, która zawsze śledzi najnowsze słowa kluczowe i tematy. Dzięki temu dynamicznemu podejściu Baidu Tieba stworzył szereg tematów internetowych i zainicjował kilka działań i ruchów online. Wiele haseł pochodzi z Baidu Tieba. Niektóre z nich stały się już nowymi idiomami w języku chińskim i są szeroko stosowane w życiu codziennym, np. diaosi ("przegrany"), jiecao ("zasady moralne") i xidapuben ("porywający"). Baidu Tieba, jako zbiór różnych grup użytkowników, odegrał również aktywną rolę w wielu kwestiach społeczno-politycznych. Na przykład w styczniu 2016 r., podczas wyborów prezydenckich na Tajwanie, jeden z największych barów z Baidu Tieba, Liyi Bar, liczący ponad 15 milionów członków, opowiedział się za wojną memową przeciwko internautom z Tajwanu, aby odpowiedzieć na poparcie chińskich internautów dla Jedynej Polityka Chin. Oddolna ekologia polityczna Baidu Tieba sprawia, że jest ona bardziej wpływowa niż tylko platforma społecznościowa czy forum dyskusyjne. Stała się ważną postacią kulturową w chińskiej cyberprzestrzeni, a także zróżnicowaną bazą do badania tożsamości społecznych i kulturowych w Internecie, zarówno dla badań chińskich, jak i globalnych.
Kontrowersje. Model płatności za rozmieszczenie Baidu
Baidu stosuje model płatności za miejsce docelowe jako główną strategię reklamową i źródło przychodów z obsługi swojej wyszukiwarki. Reklamodawcy i firmy płacące wyższą cenę za Baidu uzyska wyższą pozycję w rankingu lub wyróżnione promocyjne miejsce w wynikach wyszukiwania słów kluczowych. Baidu zazwyczaj umieszcza płatne linki promocyjne na pierwszym miejscu w wynikach wyszukiwania. Te linki promocyjne nie są filtrowane ani sprawdzane przez Baidu, więc niektóre fałszywe i nielegalne reklamy stają się źródłem mylących informacji dla użytkowników Baidu.com. Oficjalne media w Chinach, w tym telewizja przemysłowa (CCTV) i agencja informacyjna Xinhua, kilkakrotnie zgłaszały fałszywe wiadomości i spam dostarczane przez Baidu.com od 2008 roku. leczenie w oparciu o wynik wyszukiwania z Baidu.com, zmarł z powodu niewłaściwego leczenia zalecanego przez Baidu.com. Wykazano również, że informacje dostarczone przez Baidu.com pochodziły z linku promocyjnego spamu nielicencjonowanego dostawcy usług medycznych. Wydarzenie to podniosło świadomość społeczną na temat modelu payfor-placementu Baidu.com. W maju 2016 r. Baidu zostało zbadane przez kilku urzędników państwowych, w tym Chińską Administrację Cyberprzestrzeni, Państwową Administrację Przemysłu i Handlu oraz Narodową Komisję Zdrowia i Planowania Rodziny. Wreszcie, Baidu otrzymał polecenie zrewidowania swojego systemu płatności za rozmieszczenie, cenzurowania wszystkich promocji biznesowych od dostawców opieki zdrowotnej, dodania wyłączeń odpowiedzialności do wszystkich linków promocyjnych i ograniczenia liczby linków promocyjnych w wynikach wyszukiwania.
Cenzura Internetu w Chinach
18 maja 2011 r. Baidu wraz z chińskim rządem został pozwany przez ośmiu mieszkańców Nowego Jorku, którzy twierdzili, że Baidu spiskuje z chińskim rządem w celu cenzurowania przemówień prodemokratycznych. Sprawa została oddalona w amerykańskim sądzie okręgowym Southern District of New York w 2013 roku, ponieważ sędzia stwierdził, że oskarżonym nie doręczono należycie i że nie ma jurysdykcji w tej sprawie. Baidu zostało skrytykowane za system filtrowania i cenzurowania słów kluczowych przez internautów, ponieważ celowo blokuje treści wrażliwe politycznie. Tymczasem internauci mogą znaleźć strony internetowe wyświetlające treści pornograficzne i związane z seksem za pośrednictwem systemu reklam promocyjnych Baidu.
Naruszenie praw autorskich
W 2007 r. Biuro Przedstawicielstwa Handlowego Stanów Zjednoczonych umieściło wyszukiwarkę MP3 Baidu na liście rynków notorycznie naruszających prawa autorskie i zapewniających bezprawne pobieranie utworów MP3. W 2011 roku Baidu zakupił własną bibliotekę muzyczną i zaczął udostępniać swoim użytkownikom materiały chronione prawem autorskim i legalnym.
Ogólnie rzecz biorąc, dane biometryczne są definiowane jako pomiary unikalnych cech fizycznych osoby w celu weryfikacji lub ustalenia jej tożsamości w celu zapewnienia dostępu do lokalizacji niektórych zasobów i usług. Są to potężne technologie ery cyfrowej, które łączą kwestie tożsamości, cyfryzacji i przestrzeni, redefiniując te kategorie i relacje między nimi. Ponieważ codzienne życie staje się coraz bardziej połączone w sieć z powodu ludzi mieszkających i pracujących w wielu miejscach, potrzeba szybkiej, mobilnej i niezawodnej identyfikacji staje się bardziej krytyczna. W ciągu dekady biometria przekształciła się z marginalnych narzędzi do centralnego zarządzania identyfikacją i została szeroko przyjęta w rządzie, organach ścigania, bezpieczeństwie, opiece zdrowotnej, finansach i handlu. Ten wpis wprowadza pojęcie biometrii, analizuje jej historię i rozwój, omawia maszyny biometryczne i rozważa niektóre powszechne krytyki zastosowań biometrycznych.
Definicja biometrii
Jeszcze do niedawna w popularnej wyobraźni technologie biometryczne otaczała aura science fiction a jej zastosowanie pozostał w dużej mierze ograniczony do pracy policji i bezpieczeństwa. Obecnie doświadczają one znacznego tempa adopcji, do czego przyczyniła się ich integracja z różnymi popularnymi aplikacjami konsumenckimi, takimi jak logowanie na smartfony za pomocą odcisku palca i logowanie do bankowości osobistej oparte na rozpoznawaniu tęczówki. Ich szybki rozwój jest również napędzany przez szybko rosnących rynków bezpieczeństwa, a także przez rozwijające się zastosowania biometryczne w branży opieki zdrowotnej i rozrywki. . Wszystkie te okoliczności wskazują na technologię, która ma przeniknąć codzienne życie i odegrać kluczową rolę w kształtowaniu jego przyszłości. Jednocześnie biometria jest również otoczona wieloma kontrowersją i podejrzliwością. Skala opozycji była znaczna, obejmując spektrum polityczne, podziały społeczne i kraje. Wpływ tej opozycji stworzył problem wizerunkowy dla biometrii. Początkowy związek biometrii z egzekwowaniem prawa i przestępczością był czynnikiem oporu, z jakim się spotykają. Jednak opór to coś więcej niż problem z obrazem. W sercu znaczenie ma fakt, że biometria jest związana z pewnymi intymnymi aspektami istot ludzkich, takimi jak nasze ciała i nasze poczucie tożsamości, a zatem biometria budzi obawy o prawa do prywatności i wolności obywatelskie. Ta sytuacja otwiera zupełnie nowy zestaw pytań etycznych i politycznych dotyczących ich regulacji oraz kosztów i korzyści dla społeczeństwa.
Historia i rozwój biometrii
Biometria, jako praktyka mierzenia charakterystycznych cech ciała ludzi w celu ich identyfikacji, nie jest nowa. Zapisy historyczne wskazują na ich starożytność, w takich miejscach jak Chiny, gdzie odciski dłoni były używane do podpisywania dokumentów prawnych, i Egipt, gdzie przechowywano szczegółowe opisy wyglądu robotników budujących piramidy, aby zapewnić słuszny podział ich odszkodowań. Pod koniec XIX wieku wydziały policji w Argentynie i Stanach Zjednoczonych zaczęły wykorzystywać odciski palców do rozwiązywania przestępstw. W XX wieku dane biometryczne używane w dokumentach, takich jak paszporty przedcyfrowe i dowody osobiste, miały charakter opisowy i zwykle zawierały zdjęcia, podpisy, kolor oczu i wzrost. Nowoczesne technologie biometryczne wykorzystują cyfrowe urządzenia czujnikowe, takie jak aparaty fotograficzne i skanery, do automatycznego pozyskiwania unikalnych cech ciała, które są następnie algorytmicznie szyfrowane w danych i przechowywane w celu wyszukania w scentralizowanych bazach danych lub na chipach włożonych do osobistych e-dokumentów i na urządzeniach mobilnych, takich jak smartfony. Proces ten nazywa się rejestracją, ponieważ na tym etapie dane biometryczne ludzi są rejestrowane w systemie po raz pierwszy. W punkcie kontrolnym osoba musi przedstawić zarejestrowaną część ciała wraz z dokumentem elektronicznym cyfrowemu czytnikowi w celu identyfikacji. Tożsamość osoby zostanie następnie odczytana cyfrowo z jej ciała i porównana z danymi przechowywanymi w bazach danych lub na chipach. Jeśli zostanie znalezione dopasowanie, weryfikuje to ich tożsamość i zapewnia im dostęp do poszukiwanych przestrzeni, usług lub zasobów. Proces ten nazywany jest uwierzytelnianiem, ponieważ na tym etapie potwierdza się tożsamość osoby. W związku z tym cyfryzacja i automatyzacja wspomagana komputerowo stają się kluczowymi elementami nowoczesnej biometrii, które odróżniają je od przeszłości i kształtują ich rozwój. Dzisiejszą biometrię można wyprowadzić z odczytywania różnych części ciała, takich jak dłonie, palce, oczy i twarz, a także z interpretacji różnych ucieleśnionych czynności, takich jak pisanie na maszynie, pisanie, mówienie i chodzenie. Te ludzkie cechy chodzą w dwóch ogólnych kategoriach: (1) biometria fizjologiczna i (2) biometria behawioralna. W pierwszej kategorii są osobiste atrybuty, z którymi się rodzimy. Najczęstszymi rodzajami takich danych biometrycznych stosowanych obecnie są odciski palców, geometria dłoni, wzory żył, kształty twarzy, wzory tęczówki i wzory siatkówki (ryc. 1). W drugiej kategorii są cechy osobiste, które rozwijają się z biegiem czasu i które raz ukształtowane pozostają niezmienne przez całe nasze życie. Najczęstsze przykłady to podpisy, naciśnięcia klawiszy i głosy. Kilka innych rodzajów danych biometrycznych jest w trakcie opracowywania, takich jak rozpoznawanie chodu, bicie serca, zapachy ciała i kwas dezoksyrybonukleinowy (DNA). Niewątpliwie kod DNA jest najbardziej poszukiwaną biometryką, ponieważ jest to najbardziej unikalna i bogata w informacje biometryka. Jednocześnie jest też najbardziej kontrowersyjny. Niemniej jednak technologia automatyzacji analizy DNA nie nadaje się jeszcze do zastosowań na dużą skalę. Podkreśleniem atrakcyjności biometrii jest założenie nieomylnej identyfikacji osobistej, podsumowane wyrażeniem "Ciało nie kłamie". Uważa się, że im dokładniej można technicznie uchwycić i zinterpretować cechy cielesne, tym więcej ludzkiej podmiotowości można wyeliminować z tego procesu i tym bardziej niezachwianą staje się osobista identyfikacja. U podstaw tego założenia leży kilka atrybutów biometrycznych. Najważniejsza jest wyjątkowość. Dane biometryczne są unikalne dla każdej osoby, co oznacza, że są dokładne i trudne do sfałszowania lub odtworzenia. Druga to uniwersalność biometrii. Każdy ma je przez cały czas i jako takie mogą być używane w każdej sytuacji i miejscu. Po trzecie, są trwałe. Nie zmieniają się (za bardzo) w czasie; dzięki temu są bardzo spójne. Ostatnia to wygoda, ponieważ są łatwe do uchwycenia i zautomatyzowania oraz nie można ich zapomnieć ani zgubić. W konsekwencji wśród technologii identyfikacji biometrię uważa się za zapewniającą najwyższy możliwy poziom bezpieczeństwa. W kontinuum uwierzytelniania metalowe klucze lub identyfikatory magnetyczne używane przez długi czas do otwierania drzwi są urządzeniami, które posiadamy lub posiadamy. Musimy nosić je ze sobą, aby uzyskać dostęp. O krok dalej na kontinuum, hasła i kody PIN (osobiste numery identyfikacyjne) są czymś, co musimy wiedzieć, aby uzyskać dostęp. Jednak odciski palców i tęczówki reprezentują coś, czym jesteśmy i nie musimy nosić ani pamiętać. Innymi słowy, ciało działa podobnie jak hasło, zapewniając osobistą identyfikację w ruchu, aby uzyskać dostęp do różnych przestrzeni i usług. Z tego punktu widzenia biometria to po prostu zaktualizowane wersje poprzedniej technologii identyfikacji. Są szybsze, wydajniejsze i dokładniejsze niż ich poprzednicy. Uważa się również, że są praktycznie odporne na manipulacje. Nowoczesne technologie biometryczne były początkowo stosowane na małą skalę w latach 90., głównie w bankowości, aby zapewnić bezpieczny dostęp do pieniędzy, w operacjach nadzoru i zwalczaniu przestępczości oraz w instytucjach bezpieczeństwa do kontroli dostępu do budynków i innych przestrzeni. Na początku XXI wieku zostały one włączone do praktyk sekurytyzacji granic w Stanach Zjednoczonych i Europie, aby kontrolować imigrację i zarządzać zaufanymi programami podróżnymi. Pod koniec 2000 roku biometria stała się podstawą systemów sekurytyzacji granic od Tajlandii i Australii po Nigerię i Stany Zjednoczone. Obecnie są one wykorzystywane w zastosowaniach na dużą skalę, wpływając na setki milionów ludzi, w szczególności poprzez wydawane przez rząd paszporty biometryczne i dowody tożsamości, a także poprzez tworzenie licznych baz danych dotyczących granic. Równolegle w 2000 roku wzrosło wykorzystanie biometrii w nadzorze na dużą skalę i innych operacjach związanych z bezpieczeństwem, czemu sprzyjało m.in. włączenie systemów rozpoznawania twarzy w kamerach telewizji przemysłowej (CCTV) oraz postępy w miniaturyzacji, aby umożliwić włączenie biometrii do urządzeń mobilnych. Pomimo wykorzystywania danych biometrycznych w praktykach bezpieczeństwa w różnych krajach przed 11 września 2001 r., ataki na Nowy Jork i Waszyngton stały się decydującym impulsem do ich szerokiego przyjęcia. Po tym, jak zostały oficjalnie wymienione w amerykańskiej ustawie PATRIOT Act z 2001 r., technologie biometryczne zostały uogólnione w amerykańskiej ustawie o wzmocnionym bezpieczeństwie granic i wizy z 2002 r., która nakazywała utworzenie interoperacyjnych baz danych biometrycznych imigracji, a także wprowadzenie biometrycznych e-paszportów dla obywatele USA. Jeden konkretny przepis tej ustawy przewidywał, że kraje ruchu bezwizowego, których obywatele mogliby bez wizy przebywać w Stanach Zjednoczonych przez okres do 3 miesięcy, również musiałyby wprowadzić biometryczne e-paszporty, jeśli chciałyby utrzymać te przywileje. Te przepisy prawne, sięgające poza granice Stanów Zjednoczonych, skutecznie przyczyniły się do globalizacji wykorzystania biometrii w praktykach sekurytyzacji granicznej. . Proces został wzmocniony w 2003 r., kiedy Organizacja Międzynarodowego Lotnictwa Cywilnego, organ ONZ regulujący ruch lotniczy, zaleciła przyjęcie biometrycznych e-paszportów, w tym cyfrowych fotografii, jako nowego standardu międzynarodowych dokumentów podróży. Rządy Unii Europejskiej wkrótce wprowadziły własne e-paszporty biometryczne oparte na dwóch zestawach danych biometrycznych, zdjęciach i odciskach palców. Zmiany te nie pozostawiły wielu rządom krajów rozwijających się innego wyboru, jak pójść w ich ślady, inwestując w technologie biometryczne, aby spełnić standardy paszportowe wymagane przez kraje rozwinięte. Wśród innych przykładów przyjęcia biometrii na dużą skalę, najbardziej godny uwagi jest ambitny program identyfikacji narodowej Indii, obejmujący 10 odcisków palców i skany tęczówki dla 1,2 miliarda ludzi. W tych okolicznościach rządy pozostają największymi klientami przemysłu biometrycznego, pomimo boomu zastosowań komercyjnych w sektorze prywatnym.
Zrozumienie maszyn biometrycznych
Najbardziej zaawansowane systemy biometryczne mogą zidentyfikować osobę w mniej niż 1 sekundę. Szybkość jest kluczowym czynnikiem siły biometrii, ponieważ zapewnia wygodę i niezawodność. Za szybkością kryją się jednak stosunkowo złożone procesy techniczne, które obejmują kilka etapów i są silnie uzależnione od algorytmów matematycznych. Ogólnie rzecz biorąc, czujniki w urządzeniach cyfrowych mają najpierw zrobić zdjęcie wybranej części ciała w celu zapisania go w bazie danych. Sam obraz ma jednak drugorzędne znaczenie. Zamiast tego nacisk kładziony jest na wyodrębnienie unikalnych cech i wzorów z obrazu, które są następnie składane w szablon. W efekcie szablon biometryczny jest cyfrową reprezentacją cech obrazu uchwyconego z części ciała. Na przykład z obrazów odcisków palców widać kształt , rejestrowane są grzbiety i głębokość dolin, natomiast z obrazów twarzy rejestrowane są położenie i odległość między oczami, kośćmi policzkowymi i podbródkiem. W przypadku biometrii behawioralnej, takiej jak naciśnięcie klawisza, należy wykonać serię nagrań, które są następnie łączone we wzór za pomocą modelowania statystycznego. Wbrew powszechnemu przekonaniu w bazie danych nie jest przechowywany żaden obraz, ale algorytmicznie zaszyfrowany plik binarny. Te pliki mają tę zaletę, że dodają dodatkową warstwę bezpieczeństwa, ponieważ w przypadku kradzieży szablonów biometrycznych konieczne jest również posiadanie algorytmów kodowania, aby w pełni z nich korzystać. Kolejnym etapem identyfikacji jest porównanie oryginalnego szablonu przechowywanego w bazie danych z szablonem tymczasowym, generowanym za każdym razem, gdy osoba przedstawia na terminalu część ciała do uwierzytelnienia. W przypadku pozytywnego dopasowania tożsamość osoby jest potwierdzana, a dostęp autoryzowany. Na tym etapie intensywnie pracują równania algorytmiczne i modelowanie statystyczne. Z tych powodów związanych z okolicznościami rejestracji i różnicami w specyfikacjach urządzeń, nie ma dwóch identycznych szablonów biometrycznych, mimo że nasze cechy biometryczne są unikalne. Dodatnie dopasowanie reprezentuje zatem statystyczne prawdopodobieństwo dopasowania dwóch szablonów, a nie dokładne dopasowanie. Sytuacja ta stwarza okazję do refleksji na temat uznania biometrii za pewnik jako niezawodnej technologii identyfikacji oraz nad tym, jak stronniczość jest wbudowana w technologie biometryczne. Identyfikacja biometryczna jest wykorzystywana na dwa główne sposoby: (1) do weryfikacji czyjejś tożsamości i (2) do ustalenia czyjejś tożsamości. W pierwszej kolejności stosowanie danych biometrycznych jest uzasadnione koniecznością weryfikacji tożsamości osoby w celu potwierdzenia, że jest ona tym, za kogo się podaje. Jest to dotychczas najpowszechniejsze zastosowanie biometrii, a także takie, które może potencjalnie budzić mniej obaw, jeśli jest odpowiednio uregulowane. Z technologicznego punktu widzenia weryfikacja sprowadza się do zadania skomputeryzowanego typu "in-and-out". Zgłasza się roszczenie do systemu biometrycznego, a dane próbki są przekazywane do weryfikacji. System musi potwierdzić deklarację tożsamości, sprawdzając, czy przykładowe dane są takie same jak dane zapisane w bazie danych. Jest to operacja jeden na jednego. Po wykonaniu zadania proces się kończy, a dane tymczasowe są usuwane. Jednak weryfikacja jest również najmniej przydatna z punktu widzenia organów ścigania. Chodzi o to, że biometryczna weryfikacja tożsamości Osamy bin Ladena potwierdziłaby tylko, że był tym, za kogo się podawał; dane biometryczne przechowywane na chipie paszportowym bin Ladena nie powiedziałyby, że był terrorystą.
Drugie główne zastosowanie biometrii ma na celu odpowiedź na pytanie "Kim jest ta osoba?" Odpowiedź na to pytanie wymaga ustalenia tożsamości osoby. W takim przypadku systemy biometryczne muszą wykonywać wyrafinowaną pracę dochodzeniową, aby zidentyfikować jedną osobę z grupy osób. Nie wiadomo, czy dane biometryczne danej osoby już istnieją w bazie danych. Systemy muszą wykonać operację jeden-do-wielu, aby porównać czyjś szablon biometryczny z szablonami wielu innych osób. Innymi słowy, technologie biometryczne muszą przypisywać tożsamość osobie. Zadanie to wymaga utworzenia i utrzymania ogromnych baz danych do przechowywania danych biometrycznych dużej liczby osób. W ten sposób baza danych staje się kluczowym elementem technologii biometrycznych. Na przykład paszporty biometryczne i dowody tożsamości, które dana osoba nosi przy sobie, muszą być połączone z bazami danych administrowanymi oddzielnie przez władze w każdym kraju lub przez każdą firmę ochroniarską obsługującą system biometryczny. W idealnej sytuacji, aby technologie biometryczne działały jak najlepiej, powinna istnieć jedna globalna baza danych zawierająca kilka rodzajów danych biometrycznych dla każdej osoby, obejmująca całą populację planety i przechowywana w cyberprzestrzeni, aby była łatwo dostępna. Niemniej jednak same ogromne ilości danych biometrycznych wciąż nie wystarczają, aby sensownie określić czyjąś tożsamość. Aby tak się stało, bazy danych muszą zawierać dodatkowe informacje o codziennym życiu ludzi, które można przeszukiwać elektronicznie w celu ujawnienia wzorców zachowań i skojarzeń. Gdy czyjeś dane biometryczne zostaną zapisane w bazie danych, dane osobowe mogą być gromadzone za każdym razem, gdy trafi na nie. Na przykład za każdym razem, gdy czyjś paszport biometryczny jest sprawdzany, pozostawia ślad w bazie danych bezpieczeństwa granic USA, który jest przechowywany pod profilem tej osoby zgodnie z wcześniej określonymi kryteriami, takimi jak imię i nazwisko, adres, kraj pochodzenia, ile razy dana osoba przekroczyła granicę granica, które granice zostały przekroczone i w jakich miejscach, środki transportu, forma płatności za podróż, czas pobytu, historia jazdy, rodzaj spożywanego posiłku w locie, preferencje dotyczące miejsc i inne. W ten sposób cyfrowa tożsamość osoby nabiera kształtu w bazie danych, nawet nie będąc tego świadoma. Uważa się, że te systemy bezpieczeństwa zapobiegną powtórzeniu się sytuacji takich jak 11 września 2001 r., umożliwiając organom ścigania "połączenie kropek" między pozornie niepowiązanymi fragmentami informacji. Takie systemy funkcjonują potajemnie na granicach USA od 2002 roku pod nazwą Automated Targeting Systems. Integrują kilka oddzielnych rządowych i prywatnych baz danych i zebrały dane o setkach milionów odwiedzających USA i obywateli USA. Unia Europejska wdrożyła podobne systemy o nazwie Automated Border Control. Inne szeroko rozpowszechnione biometryczne bazy danych organów ścigania istniejące w różnych krajach są znane jako zautomatyzowane systemy identyfikacji odcisków palców i zawierają setki milionów rekordów odcisków palców. Ponadto wiele prywatnych firm prowadzi mniejsze i bardziej ukierunkowane bazy danych biometrycznych klientów w celach komercyjnych, takich jak identyfikowanie wzorców zakupów lub nawyków wydatkowych, które są następnie wykorzystywane do obliczania oceny ryzyka w celu ustalenia składek ubezpieczeniowych lub personalizacji reklam. W tych okolicznościach oszustwa związane z bazami danych i kradzież danych stały się głównymi działaniami przestępczymi zarówno między rządami, jak i między podmiotami prywatnymi.
Krytyczna ocena danych biometrycznych
Dokładna analiza założeń stojących za wdrażaniem technologii biometrycznych ujawnia główne problemy związane z ich logiką zarządzania tożsamością i wskazuje na dużą rozbieżność między oczekiwaniami a tym, co te technologie są w stanie faktycznie zapewnić. Z pewnością biometria może odegrać rolę w radzeniu sobie z wyzwaniami identyfikacji osobistej XXI wieku. Główny problem dotyczy bezkrytycznego przyjęcia technologii biometrycznych i wynikających z tego skutków społecznych. Ważne jest, aby rozważyć potencjalne koszty i korzyści, jakie szerokie zastosowanie biometrii przynosi społeczeństwu, aby móc podejmować świadome decyzje dotyczące swojej przyszłości. Jedną z głównych kwestii jest powiązanie identyfikacji z tożsamością. Oznacza to, że identyfikacja ciała osoby jest tym samym, co poznanie jej tożsamości. Powiązanym założeniem jest to, że tożsamość osoby jest dobrym predyktorem ryzyka. W związku z tym zakłada się, że tożsamość jednostki stanowi podstawę do identyfikacji ryzyka, jakie stanowi dla społeczeństwa lub różnego rodzaju schematów maksymalizacji zysku. Kolejna ważna kwestia dotyczy deterministycznego podejścia technologicznego związanego z przyjęciem i wdrożeniem biometrii. Ta perspektywa stara się ukryć ich z natury stronniczy charakter i powoduje, że technologie biometryczne są uważane za oczywiste jako panaceum na identyfikację i bezpieczeństwo. Co więcej, postawy te promują postrzeganie identyfikacji i bezpieczeństwa jako po prostu problemów technicznych, które wymagają rozwiązania technicznego i pomijają fakt, że społeczne wykorzystanie technologii jest drogą dwukierunkową. Sama technologia nie może zapewnić wyłącznych korzyści agencjom bezpieczeństwa i przestrzegającym prawa obywatelom. Społeczeństwa ewoluują wraz ze swoją technologią, w tym zdolnością ludzi do pokonania systemu. Wreszcie są kwestie związane z regulacją technologii biometrycznych. Biorąc pod uwagę potęgę technologii biometrycznych, ich rosnące zastosowanie w życiu codziennym oraz ich potencjalny wpływ na prywatność i swobody obywatelskie, brak przepisów regulujących wykorzystywanie i nadużywanie danych biometrycznych jest zaskakujący. Od 2017 r. nigdzie na świecie nie ma skutecznej regulacji technologii biometrycznych. Nie jest jasne, jakie dane są gromadzone, jak długo, w jakim celu, gdzie i w jaki sposób powinny być przechowywane, jaki poziom ochrony powinny mieć i czy są wykorzystywane do innych celów poza ich formalnie określonym celem. Co więcej, w wielu głównych systemach biometrycznych brakuje systematycznych przepisów i procedur rezerwowych regulujących przypadki błędnej identyfikacji osób. Chociaż większość technologii biometrycznych twierdzi, że współczynnik błędu wynosi około 1% lub mniej, nie jest to tak nieistotne, jak się wydaje, gdy myślimy, że liczne systemy biometryczne obejmują miliony ludzi. W zależności od okoliczności błędna identyfikacja kogoś może spowodować poważne problemy w życiu tej osoby, na przykład, gdy nie ma niezawodnych alternatyw dla korzystania z określonego systemu biometrycznego lub gdy ktoś zostaje sam, aby udowodnić swoją tożsamość w systemie. Sytuacje te pokazują, dlaczego pomimo atrakcyjności finansowej automatyzacji, interwencja człowieka zawsze powinna być częścią systemów biometrycznych. Wdrażanie technologii biometrycznych porusza dwa obszerne zestawy problemów związanych z kwestiami bezpieczeństwa i prywatności. Pierwszy problem dotyczy ograniczeń samej technologii biometrycznej, drugi natomiast dotyczy tego, w jaki sposób wykorzystuje się biometrię i do jakich celów. Szczególnie wątpliwe jest przekonanie, że biometria to niezawodne technologie zarządzania tożsamością. Aura niezawodnej technologii często wynika z faktu, że większość ludzi widzi efekt końcowy technologii biometrycznej tylko wtedy, gdy części ich ciała zostają w tajemniczy sposób rozpoznane z autorytetem bezosobowej maszyny. Szczegółowy proces identyfikacji jest ukryty w skomputeryzowanych urządzeniach. Takie doświadczenia prowadzą wielu ludzi do uznania wiedzy o komputerze za pewnik i do wiary w jego lepsze właściwości w porównaniu z umiejętnościami ludzi lub przedcyfrowymi technologiami identyfikacji. Pominięto tutaj fakt, że osoby, które chcą ukraść lub skompromitować dane biometryczne, mogą mieć ten sam poziom wiedzy technicznej, co projektanci i programiści systemów biometrycznych.
W rzeczywistości czytniki linii papilarnych można z powodzeniem oszukać, dołączając silikonowe plastry do opuszków palców danej osoby, a także przeszczepiając plastry skóry z innych części ciała na opuszki palców. Co najważniejsze, system logowania odciskiem palca Apple został zhakowany wkrótce po oficjalnym uruchomieniu za pomocą fałszywego odcisku palca wygenerowanego z czystego odcisku palca zdjętego z powierzchni. Systemy rozpoznawania twarzy i tęczówki oka mogą być również stosunkowo łatwe do oszukania. Odpowiedzią na te problemy było żądanie stosowania jeszcze większej liczby danych biometrycznych. Co więcej, obecne systemy biometryczne mogą określić, czy identyfikowana część ciała należy do żywego ciała, czy nie, aby uniknąć łatwego fałszowania. Jednak te odpowiedzi nie odstraszają potencjalnych oszustw. Raczej zmuszają hakerów do stosowania bardziej wyrafinowanych metod. Kolejny problem wynika z mnożenia się mobilnych urządzeń biometrycznych, od skanerów po e-paszporty, które wykorzystują komunikację bezprzewodową do przesyłania danych tam iz powrotem w systemie biometrycznym. Mogą one być szczególnie podatne na włamania za pośrednictwem swoich funkcji bezprzewodowych, które oferują możliwości zdalnego dostępu do ich danych. Hakerzy mogą złamać istniejące kody szyfrujące i skopiować ich zawartość bez wiedzy właściciela. Dane można następnie sklonować do nowego dokumentu elektronicznego lub urządzenia, aby podszywać się pod właściciela. Istotną wadą biometrii jest to, że nie zapewniają one 100% dokładności identyfikacji we wszystkich przypadkach. Oferują raczej wysokie statystyczne prawdopodobieństwo pozytywnego dopasowania części ciała do wcześniej przesłanej próbki części ciała. Niektóre kategorie ludzi, takie jak osoby starsze, Azjatki, niepełnosprawni i inni, często wykazują cechy fizyczne, które są trudne do zapisania w programach biometrycznych, takich jak pobieranie odcisków palców. Systemy biometryczne częściej zaznaczają członków takich grup, dyskryminując ich w ten sposób. Dodatkowe obawy dotyczą zabezpieczenia ogromnych baz danych biometrycznych, do których należałoby uzyskać dostęp w tysiącach lokalizacji na całym świecie. Jeśli zostaną włamani, szkody w życiu dotkniętych nimi osób mogą być nieobliczalne. Ważne jest, aby zdać sobie sprawę z tego rodzaju danych osobowych, że gdy zostaną utracone, ofiary poniosą konsekwencje przez resztę swojego życia. Nie można anulować danych biometrycznych. Ponieważ są to dane cielesne, nie można po prostu zadeklarować ich utraty i zlecić wydanie nowych. To trochę ironiczne, że najbardziej atrakcyjna cecha biometrii- wyjątkowość- jest jednocześnie jego największą słabością. Jednocześnie technologie biometryczne przesuwają kwestie identyfikacji i bezpieczeństwa głębiej w społeczeństwie, zamiast je rozwiązywać. Fakt, że biometria ludzi musi być wstępnie rejestrowana w e-dokumentach i bazach danych, aby systemy biometryczne działały, oznacza, że systemy biometryczne mogą być tylko tak bezpieczne, jak proces rejestracji biometrycznej. Zamiast fizycznie majstrować przy e-paszporcie lub palcami, skuteczniejsze staje się fałszowanie znacznie mniej skomplikowanych dokumentów wymaganych do ustalenia tożsamości biometrycznej, takich jak akty urodzenia czy dowód zamieszkania. W ten sposób znany terrorysta lub szpieg może uzyskać całkowicie autentyczną tożsamość biometryczną pod innym nazwiskiem.
Pod warunkiem, że rządowe bazy danych biometrycznych nie zawierają odcisków palców danej osoby ani skanów tęczówki, może ona płynnie poruszać się po systemach biometrycznych. Podsumowując, główny urok technologii biometrycznych polega na ich cielesnym charakterze i automatyzacji. Jednocześnie te cechy są również najbardziej polaryzujące. Bliski związek danych biometrycznych z ludzkim ciałem budzi uzasadnione obawy dotyczące prywatności w związku z ich używaniem i wywołuje poczucie nieuniknionej i przytłaczającej kontroli osobistej, która prowadzi do nieufności i wzbudza strach. Wyjątkowość danych cielesnych danej osoby nadaje nowe znaczenie wyrażeniom takim jak "kradzież tożsamości" i "kryzys tożsamości", biorąc pod uwagę obecny brak alternatyw dla zastąpienia takich danych. W przeciwieństwie do haseł i kluczy, kradzież danych biometrycznych jest podobna do kradzieży własnego ciała na zawsze. Obecnie istnieje pilna potrzeba dokładnych i nadrzędnych regulacji, jeśli biometria ma wnieść pozytywny wkład w życie społeczne w erze cyfrowej, a nie szkodzić mu. . Ważne jest, aby zrozumieć, że w ostatecznym rozrachunku biometria to tylko technologia; a tym samym nie byłyby w stanie rozwiązać problemów strukturalnych świata, takich jak brak bezpieczeństwa, niedofinansowane systemy opieki zdrowotnej czy oszustwa bankowe. Mogą tworzyć narzędzia do rozwiązywania problemów społecznych, ale nie mogą być odpowiedziami. Właśnie dlatego właściwe podejście do polityki biometrycznej i unikanie fetyszyzowania tych technologii jest niezbędne, aby upewnić się, że nie tworzymy bardziej opresyjnych narzędzi, zamiast używać ich do zwiększania swobód demokratycznych.
Bitcoin
Bitcoin to aplikacja oparta na blockchain, uruchamiana przez sieć peer-to-peer, implementująca reguły protokołu rozproszonego. Zaproponowany w artykule opublikowanym pod koniec 2008 roku przez pseudonimowego Satoshi Nakamoto (później ujawniono, że to Australijczyk Craig Steven Wright), Bitcoin miał być nową metodą płatności, mającą na celu przezwyciężenie problemu zabezpieczenia e-płatności niezależnie od gwarancji strony trzeciej. Gdy informacje są przesyłane przez Internet, ich kopia jest przechowywana na dysku twardym nadawcy. Jeśli wysyłane są pieniądze elektroniczne, odbiorca musi mieć pewność, że otrzymane przez niego pieniądze nie są bezwartościową reprodukcją. To sprawia, że fundamentalna jest gwarancja, że wydane pieniądze staną się niedostępne dla płatnika, utrudniając jakiekolwiek podwójne wydatkowanie. Celem Bitcoin jest zabezpieczenie płatności w sieci pseudonimowej, unikanie gromadzenia danych związanych z transakcjami fiducjarnymi, a tym samym dodanie wartości dla e-commerce. Ten wpis analizuje strukturę Bitcoin, omawia koncepcje "wydobycia" i "forków" Bitcoin oraz analizuje niektóre z weryfikacji, bezpieczeństwa, przechowywania i transferu oraz problemy z użytkowaniem wywołane wprowadzeniem Bitcoina jako formy waluty.
Definicja Bitcoina
Bitcoin zapewnia autentyczność informacji za pomocą technologii rozproszonej księgi o nazwie blockchain, połączonej struktury danych listy rejestrującej bloki danych. Blockchain to publiczny i ciągły rejestr, przechowujący pełną historię każdej transakcji Bitcoin, która kiedykolwiek miała miejsce. Struktura każdego bloku zawiera konkretne odniesienie do poprzedniego, skrót (łańcuch alfanumeryczny) uzyskany za pomocą algorytmu mieszającego (np. skrót wiadomości lub bezpieczny algorytm mieszający). Taka konstrukcja pozwala na odczytanie listy od ostatniego bloku do pierwszego, co umownie odnosi się do poprzedniego używając null jako wartości. Struktura Blockchain jest sformułowana w celu budowania księgi transakcji, będąc w międzyczasie
• system publiczny, dopuszczający węzły do sieci bez formalnych ograniczeń;
• zarządzany przez wiele interweniujących węzłów, obliczających i realizujących komunikację oprogramowanie wymagane do wdrożenia protokołu;
• ugruntowanie pełnej decentralizacji, tak aby system nie potrzebował władzy centralnej; i
• odporne na manipulacje, co gwarantuje, że transakcje nie mogą zostać zmienione.
Górnictwo
Sieć Bitcoin ma rozproszoną architekturę, w której każdy komputer, nazwany węzłem, ma identyczne uprawnienia i zadania. W tym systemie węzły różnią się od siebie tylko mocą sprzętową i zakres pasma, w zależności od konkretnego zastosowanego sprzętu, natomiast możliwości zarządzania są identyczne i każdy węzeł może wykonać dowolną operację. W produkcji Bitcoin, zwanej kopaniem, węzły sieciowe wykorzystują swoją moc obliczeniową do tworzenia i weryfikowania nowych bloków, które chcą dodać do łańcucha logicznego. Każdy uczestniczący górnik tworzy blok kandydacki, w tym transakcje z wyższymi opłatami oraz osoby na tyle stare, aby uzyskać pierwszeństwo w rejestracji (seniority). Obliczenia blokowe są potwierdzane przez dowód pracy, obliczenia matematyczne, które są skonstruowane zgodnie ze schematem wymyślonym przez Adama Backa w 1997 roku i są dość trudne do osiągnięcia. W Bitcoin ilość obliczeń wymaganych przez dowód pracy rośnie wprost proporcjonalnie do liczby uczestniczących węzłów. W ten sposób wydobycie produkuje blok co 10 minut, co jest konwencjonalnym czasem ustawionym na uniknięcie kolizji i widełki (vide infra). Dowód polega na znalezieniu liczby aleatorycznej o nazwie nonce (akronim od liczby użytej jednorazowo), która dodana do struktury danych bloku kandydującego generuje skrót skrótu niższy od danego piętra (tzn. zaczynający się od określonej liczby zer). Wynikiem jest blok Bitcoin, który zostaje przypisany pierwszemu górnikowi rozwiązującemu problem obliczeniowy i dodany do łańcucha bloków wraz ze wszystkimi powiązanymi transakcjami.
Widełki
Ponieważ węzły sieci działają niezależnie, może się zdarzyć, że dwa różne kandydujące bloki spełnią wymóg dowodu pracy i zostaną połączone z lokalnymi kopiami łańcucha bloków, tworząc do dwóch różnych jego gałęzi. Współpracownicy mogą nie być od razu świadomi tej sytuacji, która następnie rodzi rozwidlenie, w którym po obu stronach punktu podziału dodawana jest liczba bloków. Program mówi, że najdłuższy łańcuch będzie dominował nad krótszym: Operacja odbędzie się jak najszybciej ponieważ sytuacja jest obserwowana przez całą sieć. Czasami widełki są wynikiem aktualizacji oprogramowania, jak to miało miejsce w sierpniu 2010, kiedy oprogramowanie musiało zostać przepisane, aby poradzić sobie z przepełnieniem liczby całkowitej, błędem przedstawiającym blok n. 74,638 jako zawierający dwie transakcje o łącznej wartości ponad 184 miliardów Bitcoinów (wynik oczywiście nie mógł się pogodzić z podaną maksymalną liczbą monet). Niestety częściowe zastosowanie nowej wersji oprogramowania spowodowało rozwidlenie rozwiązane z odrzutem 53 bloków po 50 jednostek. Niemniej jednak bardzo ograniczona wartość i rozpowszechnienie Bitcoina w tamtym czasie ułatwiło zarządzanie tą konsekwencją. Podobny przypadek miał miejsce w marcu 2013 roku, kiedy miała miejsce kolejna aktualizacja. Oprogramowanie górnicze w wersji 0.8 zostało zainstalowane tylko przez część górników, podczas gdy pozostali pozostali przy wersji 0.7. Rozwidlenie trwało zaledwie 6 godzin: tym razem wydano 24 bloki Bitcoin oparte na oprogramowaniu w wersji 0.8. Bloki te stworzyły niezależną gałąź łańcucha logicznego, podczas gdy większość społeczności Bitcoin kontynuowała wersję oprogramowania 0.7, ignorując to, co się dzieje. Problem został rozwiązany, obniżając cały system do wersji 0.7: 6-godzinny widelec blockchain spowodował spadek wartości wymiany z dolarem o 24%, utratę 24 bloków po 25 bitcoinów wydobytych w wersji 0.8 i podwojenie wydatków wartość 10 000 $ na stronie okpay.com. Program nagradza każdy nowy blok dołączony do łańcucha logicznego określoną liczbą Bitcoinów. Algorytm pomocniczy zmniejsza o połowę nagrodę co 210 000 bloków, co 4 lata, wykonując przesunięcie w lewo z liczbą binarną poprzedniej nagrody wyrażoną w najmniejszej frakcji bitcoinów, satoshi (10-8 bitcoinów). Pierwotna konsystencja nagrody wynosiła 50 bitcoinów, zredukowana do 25 w 2012 roku i ponownie do 12,5 w 2016 roku. Algorytm o połowę, wraz z rosnącym poziomem trudności w generowaniu dowodu pracy, ma na celu utrzymanie stałej produkcji bitcoinów w czasie do 2140 roku, kiedy to zostanie osiągnięty limit 20 999 999,9769 jednostek. W miarę jak wydobycie trwa, wymaga coraz większej ilości czasu i energii oraz mocniejszego sprzętu. Na początku wymagany był tylko procesor (jednostka centralna); potem zaczęło być potrzebne GPU (jednostka przetwarzania grafiki), kolejne układy scalone specyficzne dla aplikacji, a teraz konkretne baseny wydobywcze są wykonywane przez kilku górników. Aby zrozumieć ilość wymaganej pracy obliczeniowej, przydatną lekturą może być post Hala Finneya z 2013 roku. Finney kopał kilka przecznic po numerze 70, gdy trudność wynosiła 1. Pamiętając, że czasami decydował o zakończeniu działalności, ponieważ jego komputer się rozgrzewał, a hałas wentylatora niepokoił go.
Weryfikacja transakcji
Obieg bitcoinów implikuje dalsze obliczenia przez węzły, weryfikację i potwierdzenie rozliczonych płatności, co zapewnia skuteczność transakcji. Wszystkie transakcje w bloku są walidowane, gdy po niej dołączonych zostanie sześć kolejnych bloków. Po umieszczeniu transakcji w bloku (czas, który zmienia się w zależności od opłat zawartych w tej transakcji i jej ewentualnego stażu), potwierdzenie wymaga 50 minut. Transakcje są widoczne dla sieci niezależnie od czasu wymaganego przez potwierdzenie. Algorytm mieszający jest stosowany do bloku przechowywania, dzięki czemu jego skrót może być używany w dowolnym momencie w celu sprawdzenia, czy doszło do manipulacji: ingerencja w transakcje w rzeczywistości dałaby inny wynik w ciągu. Wydobycie kończy się stemplowaniem czasu, przypisując blokom określoną datę i godzinę. Umożliwia to weryfikację, czy operacje miały miejsce w zadeklarowanej kolejności, zapobiegając podwójnemu wydawaniu przez przekazującego Bitcoinów, z których już skorzystał.
Bezpieczeństwo systemu
Jak wspomniano, każdy nowy blok zawiera skrót skrótu poprzedniego bloku. Tworzy to łańcuch wartości, w którym każda zmiana w danym bloku wymagałaby zmian we wszystkich kolejnych blokach. System jest odporny na ataki brute-force, próbując odszyfrować każdy możliwy klucz po kolei. Zastosowanie bezpiecznego algorytmu haszującego Algorytm 256 generuje skrót wyjściowy z tak dużą liczbą kluczy kryptograficznych, że superkomputer o mocy obliczeniowej około petaflopa/s (1015 operacji na sekundę) powinien obliczać przez wieki, aby go złamać. Transakcje bitcoinowe można odwrócić tylko od wewnątrz: gdyby węzły będące w zmowie miały przejąć kontrolę, w tak zwanym ataku 51%, cały system straciłby stabilność. Biała księga Bitcoin wyjaśnia, że transakcje są bezpieczne, gdy sieć jest kontrolowana przez uczciwe węzły. Co więcej, ogromna ilość procesora niezbędna do ataku może stanowić zachętę dla potencjalnego atakującego do zachowania uczciwości. W rzeczywistości może uznać tworzenie nowych monet za bardziej opłacalne niż podważanie "systemu i ważności własnego bogactwa".
Przechowywanie i transfer
Bitcoiny są przechowywane w "portfelach", zbiorach kluczy kryptograficznych, które można przechowywać w chłodniach (tj. urządzeniach offline) lub w magazynach gorących (tj. portfelach online). Oba rozwiązania są chronione kryptograficznie i mogą być obsługiwane przez klienta, oprogramowanie zarządzające operacjami transakcyjnymi. Hot storage są bardziej biznesowe, ale bardziej podatne na ataki hakerów. Chłodnie wymagają wdrożenia dłuższej procedury, ale są bezpieczniejsze: każde przywłaszczenie wymaga kradzieży zarówno urządzenia zawierającego portfel, jak i zastosowanych kluczy kryptograficznych. Ekspert informatyczny Finney, pierwszy odbiorca transakcji, zdecydował się przenieść swojego Bitcoina do zimnego portfela, gdy ich cena wzrosła do prawdziwych pieniędzy. Transfer Bitcoin opiera się na kryptografii kluczy asymetrycznych: Nadawca szyfruje wiadomość publicznym i rozproszonym kluczem odbiorcy, ciągiem alfanumerycznym, którego długość zależy od przyjętego algorytmu. Działa jak otwarta kłódka: gdy wiadomość jest zamknięta, można ją odszyfrować tylko za pomocą prywatnego klucza odbiorcy, tajnego ciągu generowanego wraz z pierwszym. Pieniądze otrzymane w transakcji mają być wydane jednolicie (np. otrzymując 1, trzeba wydać 1). Nadawca powinien określić, pod jakim adresem Bitcoin woli otrzymywać wszelkie należne zmiany. Każda transakcja może łączyć różne kwoty otrzymane w różnych poprzednich operacjach (sumując np. 0,10 + 0,20 + 0,30 w transakcji 0,60). Odwrotnie, płatność może zostać podzielona na kilka operacji (pozostając z naszym przykładem, płatność 0,60 może być dokonana w trzech różnych transakcjach 0,10, 0,20 i 0,30). Adresy Bitcoin mogą zmieniać się przy każdej transakcji, czyniąc anonimowość lub pseudonimowość ugruntowaną cechą tego systemu. Ponieważ każdy Bitcoin można podzielić na 100 000 000 Satoshi, istnieje konkurencyjne dopasowanie do zmian wartości. Pieniądze można generować w blokach, korzystając z procedury, którą opisaliśmy powyżej, lub kupować na rynku, gdzie można wydać wszystkie jednostki i ich ułamki.
Praktyczne zastosowania
Twierdzi się, że pierwsza płatność w Bitcoinie została dokonana przez Laszlo Hanyecza, jednego z pierwszych twórców projektu, który kupił dwie pizze w Papa John′s w Jacksonville na Florydzie za 10 000 Bitcoinów w dniu 21 maja 2010 r. W rzeczywistości Hanyecz wysłał Bitcoiny dla angielskiego kupca, który użył swojej karty kredytowej, aby zapłacić pizzerii posiadane pieniądze wcześniej wynegocjowane dla Bitcoinów. Przy wyższej wartości wymiany z 6 grudnia 2013 r. obie pizze byłyby warte ponad 12,5 miliona dolarów. Główne zastosowanie Bitcoina jest związane z technologią finansową, tzw. Fintech, i powstały setki systemów płatności opartych na blockchain. Poza płatnościami istnieje kilka innych aplikacji, które wspierają łańcuchy bloków. Wśród nich znaczące wyniki osiągnięto już w dziedzinie systemów głosowania, dowodu pochodzenia, certyfikacji dokumentów i inteligentnych umów, które to ostatnie sprawiają, że prawnicy stają w obliczu nowej granicy klauzul samoegzekwowania. Z drugiej strony, zarządzanie dalszymi informacjami wymaganymi przez te aplikacje sprawi, że blockchain będzie cięższy, problem, z którym Bitcoin Whitepaper już się zajmował do standardowego użytku. To sprawia, że bardzo wskazane jest stosowanie alternatywnych struktur, takich jak soft fork, które powielają strukturę Bitcoina, tworząc nowy system. Inną ciekawą opcją są sidechainy, równoległe struktury, które wymieniają bitcoiny na lokalne pieniądze po stałym kursie i rejestrują kolejne operacje we własnym osobnym logu, dzięki czemu blockchain Bitcoina rejestruje tylko transakcje przychodzące i wychodzące.
BITNET, pierwotnie znany jako "Because It's There Network", a później jako "Because It's Time Network", był wczesnym, rozległym, współpracującym międzyuczelnianym systemem komputerowym. Poprzedziła World Wide Web, ale umożliwiała transmisję poczty elektronicznej i dostęp do 3000 grup dyskusyjnych (w szczytowym momencie). Początkowo koncentrował się na zagadnieniach akademickich, ale później został rozszerzony o popularne zainteresowania i tematy polityczne, które były badane głównie na tysiącach listservs BITNET. Rzeczywiście, listservs mogą być najtrwalszym dziedzictwem BITNET. Użytkownicy mogli również uzyskiwać pliki za pomocą serwerów FTP i zawierały funkcję wiadomości błyskawicznych, Bitnet Relay. Został zaprojektowany wyłącznie do zastosowań niekomercyjnych. Ten wpis analizuje pochodzenie BITNET, jego globalny wpływ i ewentualny upadek.
Początki BITNETU
David Alan Grier i Mary Campbell zauważają, że zanim BITNET był siecią fizyczną, był organizacją społeczną. Odnosi się to do tego stopnia, że przed utworzeniem BITNET, kilkanaście uniwersytetów Wschodniego Wybrzeża utworzyło spółdzielnię techniczną w celu poprawy komunikacji komputerowej. BITNET został założony w 1981 roku przez Irę Fuchsa z City University of New York i Greydona Freemana z Yale; pierwotny link łączył ich dwa kampusy. IBM zapewnił początkowe finansowanie wsparcia scentralizowanej sieci, w tym centrum operacyjnego i informacyjnego; później był wspierany ze składek członkowskich i opierał się w dużej mierze na wolontariuszach. Biorąc pod uwagę tę zależność, BITNET opierał się w dużej mierze na ogromnej wewnętrznej sieci IBM, VNET, co utrudniało doradztwo techniczne i naprawy. Obsługuje również systemy UNIX. Aby dołączyć, inne centra musiały zakupić modemy i wydzierżawić linię telefoniczną, a także służyć jako wejście dla jednego innego członka, zapewniając brak zbędnych ścieżek. BITNET był siecią magazynującą "punkt po punkcie" i przekazującą informacje, co oznacza, że rozprowadzała informacje z jednego węzła do drugiego, aż dotarła do miejsca docelowego, co jest zupełnie inne niż w przypadku systemu TCP/IP wdrożonego przez Internet. System rósł powoli, ale stabilnie przez pierwsze 3 lata. W 1982 roku obejmowała 20 instytucji w Kalifornii i Europie, gdzie stała się popularna w laboratorium CERN, które później dało początek World Wide Web. W 1984 roku University of Maine uruchomił elektroniczny magazyn BITNET, VM/COM. W tym samym roku BITNET dał początek pierwszym lochom dla wielu użytkowników, grze tekstowej o nazwie MAD. Pod koniec lat 80. tempo jej wzrostu wyraźnie przyspieszyło. Biorąc pod uwagę, jak podobny był BITNET do Usenetu, pod koniec lat 80. BITNET zaczął publikować listy mailingowe w Usenecie. BITNET osiągnął swój szczyt w 1991 roku, kiedy dotarł do 1400 organizacji w 49 krajach, w tym w Ameryce Północnej, Europie, Izraelu, niektórych państwach Zatoki Perskiej i Indiach. Był również popularny w niektórych częściach Ameryki Łacińskiej. Na krótką chwilę stała się największą akademicką siecią komputerową na świecie, umożliwiającą międzynarodową pocztę e-mail, przesyłanie plików, przesyłanie wiadomości w czasie rzeczywistym i listy mailingowe.
Globalny wpływ BITNET
Zarządzanie BITNET, a nawet jego nazwa, różniły się w zależności od kraju i regionu. W Stanach Zjednoczonych zarządzanie w dużej mierze przypadło BITNET Network Information Center, które połączyło się z Computer Science Network w 1988 roku, tworząc Corporation for Research and Educational Networking, konsorcjum non-profit złożone z ośrodków szkolnictwa wyższego i ośrodków badawczych. W Kanadzie odpowiedzialność spadła na NetNorth. W Europie zadanie to zostało podjęte przez Europejską Sieć Akademicką i Badawczą. W Japonii, AsiaNet wykonał zadanie. W Indiach nazywano go TIFR; w Zatoce Perskiej, GulfNet. W 1984 utworzono Komitet Wykonawczy, który w 1987 roku stał się organizacją non-profit. W 1987 roku powstał BITNET II, próba naśladowania sieci o dużej przepustowości NSFNET i przezwyciężenia problemów wynikających z braku jednorodności oprogramowania wśród hostów. W latach 90. rozwój sieci WWW i systemów TCP/IP oraz odejście od komputerów mainframe IBM. Platforma odnotowała stopniowy upadek BITNET. W 1996 roku Corporation for Research and Educational Networking zaprzestała wsparcia i zasugerowała, aby użytkownicy migrowali gdzie indziej. Po 1993 r. liczba użytkowników BITNET stale spadała, a do 2000 r. zasadniczo przestała funkcjonować.
Blockchain to rozproszona, rozszerzalna architektura obliczeniowa w Internecie, w której przechowywane są ewidencje aktywów lub wymiany. Łączy w sobie protokół BitTorrent, który umożliwia sieci peer-to-peer i kryptografię klucza publicznego. Został po raz pierwszy wprowadzony jako podstawowa technologia kryptowaluty Bitcoin, która została uruchomiona w 2009 roku, służąc jako cyfrowa księga rachunków pieniężnych. W związku z tym zwrócono początkową uwagę na przypuszczalny wpływ na świat finansowy, który sprawia, że pośrednicy, tacy jak banki, stają się przestarzałe. Ale nawet po dziesięciu latach od wprowadzenia, szeroki zakres zastosowań jest dopiero widoczny, a rozwój jest wciąż na wczesnym etapie. Potencjał technologii blockchain jest kwestionowany; niektórzy twierdzą, że jego sposób decentralizacji ma stać się kolejnym kamieniem milowym po sieci semantycznej, podczas gdy inni przyznają mu mniej znaczącą rolę. Jednak przedsiębiorstwa, agencje rządowe i organizacje non-profit wykazują duże zainteresowanie tym nowym paradygmatem organizacji, który umożliwia rejestrację zabezpieczoną przed manipulacją lub przekazywanie dowolnego rodzaju wartości. Oryginalny skrypt jest open source i zapewnia dostęp każdemu, projekt mający na celu wspieranie demokracji, ale obok publicznych blockchainów, takich jak Bitcoin i Ethereum, pojawiły się dozwolone blockchainy. Są one zarządzane przez dostawców rozwiązań i ograniczają udział w mechanizmie konsensusu blockchain. Ten wpis definiuje blockchain i omawia jego rozwój i zastosowania, zastosowania, zalety oraz postrzegane ograniczenia i zagrożenia.
Zdefiniowany łańcuch bloków
Dane osadzone w kodzie źródłowym pierwszego bloku, zwane blokiem genezy lub blokiem #0, definiują parametry łańcucha bloków, na których opierają się wszystkie kolejne bloki. Są one oznaczane czasem i dodawane w porządku chronologicznym i zawierają zaszyfrowane dane zakończonych procesów, transakcji, wraz z danymi determinującymi z poprzedniego bloku. Wszystkie kolejne bloki są połączone kombinacją ich danych szczegółowych z powrotem do początku sekwencji, co uniemożliwia manipulację, ponieważ jakiekolwiek odchylenie oznaczałoby ponowne obliczenie całego łańcucha bloków. Księga jest wspólnie tworzona przez uczestniczących użytkowników lub zaimplementowane urządzenia, zwane węzłami, z których wszystkie przechowują zapis łańcucha bloków w ich systemie komputerowym, który automatycznie aktualizuje się za każdym razem, gdy dodawany jest nowy blok. Każdemu węzłowi przypisywana jest tożsamość pseudonimowa, adres klucza publicznego złożony z 27 do 32 ciągów znaków alfanumerycznych. Głównym rewolucyjnym aspektem technologii blockchain jest to, że jej projekt rozwiązał problemy związane z podwójnymi wydatkami i bizantyńskimi generałami w systemach rozproszonych po dziesięcioleciach badań kryptograficznych. Każdy obiekt cyfrowy, na przykład utwór muzyczny, składa się z ciągu zer i jedynek, które można odtwarzać w nieskończoność i przekazywać dalej. Wcześniej można było temu zapobiec tylko w systemie hierarchicznym, w którym autoryzowane i zaufane źródło szyfruje dane materiałów chronionych prawem autorskim i wydaje odszyfrowane kopie do zakupu. Metodą szyfrowania technologii blockchain jest funkcja skrótu. Konwertuje dane aktywów lub wymiany na unikalny kod o ustalonej z góry długości, zwany hashem (skrót od wartości hash), który jest jednocześnie identyfikatorem bloku. Łatwo jest obliczyć hash, ale praktycznie niemożliwe jest odwrócenie go z powrotem do oryginalnych danych. Aby rozpocząć transakcję na blockchainie, każda ze stron musi wygenerować klucze publiczne i prywatne za pomocą hashowania. Klucze publiczne są współdzielone, klucze prywatne są przechowywane jako osobiste, a tylko kombinacja obu umożliwia utworzenie podpisu cyfrowego, za pomocą którego właściciel potwierdza przeniesienie obiektu cyfrowego, czy to zasobu, czy usługi, na inny. Aby zakończyć proces bez centralnego organu administracyjnego, minimalna liczba innych węzłów, tzw. górników, musi prześledzić transakcję i dojść do konsensusu co do jej odpowiedzialności. Osiąga się to poprzez rozwiązanie zagadki matematycznej, która jest tak złożona, że jej rozwiązanie służy jako kryptograficzny dowód ważności transakcji, zwany "dowodem pracy". Potwierdza również, że określona wartość, identyfikowana przez 64-znakowy hash, opuściła portfel poprzedniego właściciela, zapobiegając w ten sposób podwójnym wydatkom. Blockchain to również system o wysokiej bizantyjskiej odporności na błędy, ponieważ "zgodę między dobrymi aktorami" osiąga większość górników, którzy pracują nad rozwiązaniem i obliczają ten sam wynik. W tym momencie transakcja jest gotowa do połączenia z inną, dopóki nie zostaną wydane w ramach nowego bloku. W grudniu 2016 r. średni czas pomiędzy blokami wyemitowanymi na blockchainie Bitcoina wynosił niecałe 9 minut. Wydobycie jest niezbędne, aby łańcuch bloków działał, rozwijał się i aktualizował, ale wymaga znacznego wysiłku obliczeniowego i mocy obliczeniowej. Aby wygenerować dowód pracy, przemysł wydobywczy Bitcoin wykonał 600 bilionów obliczeń SHA256 na sekundę (liczba z 2013 r.). Eksperymenty z przekształceniem całości lub części tych bezużytecznych obliczeń na wartość praktyczną lub naukową, np. badania nad rakiem, nie przyniosły zadowalających wyników. Dodatkowo potrzebny jest specyficzny sprzęt, który często jest utrzymywany w tajemnicy ze względu na rosnącą presję konkurencji. W związku z tym twórcy nowych bloków są nagradzani zachętą, która składa się częściowo z przydzielonych tokenów w korelacji z generowaniem bloku (określonego w protokole blockchain) oraz opłat transakcyjnych, niewielkiego procentu wartości wymiany, wpłacanych przez właściciel transakcji. W przeciwieństwie do początków, kiedy ludzie wydobywali mniej więcej jako hobby, praca jest obecnie wykonywana w dużych centrach danych, z których wiele znajduje się w Chinach, gdzie energia jest wciąż tania.
Rozwój i zastosowanie
Osoba pod pseudonimem Satoshi Nakamoto skonceptualizowała technologię blockchain dla Bitcoin w białej księdze z 2008 roku, która jest również określana jako Blockchain 1.0. Chociaż wydawało się, że jedynym celem jest decentralizacja pieniędzy i zakłócenie systemu bankowego, Nakamoto napisał w czerwcu 2010 r., że przewiduje się, że rozwój i rozwidlenie kodu źródłowego Bitcoina umożliwi obsługę każdego możliwego typu transakcji. W 2013 roku pojawił się nowy poziom technologii blockchain, nazwany Blockchain 2.0. Jest zbudowany na szablonie Bitcoin Core, ale zawiera nowe aplikacje, zdecentralizowane aplikacje, które wykraczają poza zwykłe modele kupna/sprzedaży kryptowaluty, takie jak inteligentne kontrakty, DAO (zdecentralizowane organizacje autonomiczne) i DAC (zdecentralizowane autonomiczne korporacje). Dowolna wartość, czy to aktywa twarde, takie jak ziemia, dom, samochód; aktywa miękkie, takie jak dokumenty (np. akt urodzenia, paszport, prawo jazdy); lub własność intelektualną, taką jak prawa autorskie, patent lub nazwa handlowa, można przekształcić w inteligentną własność, zapewniając jej kodowanie blockchain, a następnie przetwarzać w celu rejestracji, inwentaryzacji lub wymiany za pośrednictwem inteligentnych kontraktów. Inteligentne kontrakty to protokoły komputerowe, które działają jak kontrakty analogowe. Jest to w zasadzie określenie i rozliczenie umowy między dwiema lub więcej stronami, aczkolwiek z tą różnicą, że jest ona egzekwowana przez kodeks, pod warunkiem spełnienia wcześniej sformułowanych warunków. Gdy węzły sieci w całym łańcuchu bloków osiągną konsensus, późniejsza mediacja lub unieważnienie teoretycznie nie jest możliwe, co jest jednym z powodów, dla których inteligentne kontrakty nie są objęte obecnymi ramami prawnymi. Największy udział w rozwoju można przypisać Ethereum, drugiemu po Bitcoinie znanym publicznym blockchainie, zainicjowanemu przez Vitalika Buterina, byłego badacza i programisty Bitcoina. Służy nie tylko jako sieć wydobywcza dla już z powodzeniem ustanowionej kryptowaluty Ether, ale także zapewnia platformę do tworzenia zdecentralizowanych aplikacji i generowania łańcuchów bloków poprzez ułatwienie zdecentralizowanej, podobnej do Turinga maszyny wirtualnej, maszyny wirtualnej Ethereum, która istnieje na każdym komputerze użytkownika, który jest częścią sieci. Pierwsza wersja Frontier (Beta) została uruchomiona w lipcu 2015 r. Pierwsze stabilne wydanie, Homestead, na początku 2016 r. odznaczało się twardym rozwidleniem w celu wyeliminowania zagrożeń bezpieczeństwa i dorozumianych aktualizacji technicznych, takich jak dalszy rozwój najczęściej stosowanego języka programowania Ethereum Solidity, który jest przeznaczony do pisania inteligentnych kontraktów. Szybki rozwój Ethereum został chwilowo zatrzymany przez "hack DAO" w czerwcu 2016 roku. DAO to firma inwestycyjna, która działa w ramach łańcucha bloków Ethereum. Jego struktury zarządzania są określane wyłącznie przez inteligentne kontrakty, a transakcje rozliczane są automatycznie, dzięki czemu działają autonomicznie, bez konieczności ingerencji człowieka. Nieznana strona wykorzystała lukę w inteligentnym kontrakcie i zdołała wykorzystać około jednej trzeciej z szacowanego wówczas na 50 milionów dolarów funduszu Ether. Społeczność Ethereum potrzebowała szybkiej odpowiedzi, aby powstrzymać hakerów przed wycofaniem Etheru, więc najgłośniejsza większość zdecydowała się na hard fork, co unieważniło pierwotną kradzież. Wielu innych poczuło się zdradzonych przez to działanie, ponieważ naruszyło etos konsensusu społeczności i kontynuowało oryginalną gałąź o nazwie "Ethereum Classic", która jest używana od tego czasu wraz z nowszym łańcuchem. Oprócz zapewnienia silnego partnera biznesowego z firmą Microsoft, Ethereum przygotowuje grunt pod dwie ostatnie fazy, aby uzupełnić swój ekosystem blockchain. Kolejna wersja, Metropolis, która ma zostać wydana pod koniec 2017 r., zapewni przyjazny interfejs użytkownika, który umożliwi dostęp konsumentowi końcowemu, co oznacza wejście na główny nurt rynku. Najwięcej zaprezentuje ostateczna wersja Serenity trudny hard fork poprzez zastąpienie proof-of-work bardziej zdecentralizowanym algorytmem proof-of-stake (PoS). Kryptowaluta Peercoin jako pierwsza wdrożyła PoS, wykorzystując wersję hybrydową w połączeniu z dowodem pracy. Chociaż PoS wygląda na kolejny najbardziej obiecujący mechanizm konsensusu, nadal wykazuje szereg słabości. W tym podejściu nowe bloki są wykuwane, metaforycznie w sensie kowalstwa, a nie wydobywane, a ich twórcy określani są na podstawie proporcji bogactwa (udziału) jakie posiadają w sieci blockchain. Ponieważ oznaczałoby to ryzyko centralizacji, podczas testowania są różne sposoby randomizacji, na przykład "wiek monety", w którym kwota kredytu interesariusza jest mnożona przez czas od ostatniego ruchu kredytowego. Główną korzyścią z przyjęcia PoS jest eliminacja wydobycia czynnika marnotrawstwa energii. Generowanie nowych bloków stanie się znacznie bardziej przyjazne dla środowiska i bez konieczności wykonywania ciężkich obliczeń, cykle tworzenia bloków przyspieszą z minut do sekund. Blockchain nowej generacji, Blockchain 3.0, jest przeznaczony do zastosowań poza walutami, finansami i rynkami. Nieograniczona ilość możliwości aplikacyjnych będzie się rozwijała, jeśli transakcję będziemy rozumieć bardziej jako naturalny proces - czyli pozyskiwanie i odprowadzanie zasobów.
Przykłady użycia
Duże firmy i agencje rządowe wykazują rosnące zainteresowanie technologią blockchain i wykorzystują ją w praktyce - na przykład jako rejestr lub usługa notarialna. W przeciwieństwie do Stanów Zjednoczonych i Europy Zachodniej większość ludności świata nie ma tytułu prawnego do swoich aktywów; na przykład do 90% gruntów w Afryce nie jest zarejestrowanych (stan na 2016 r.). Bez żadnego zarejestrowanego, uznanego dowodu własności właściciele ziemscy są narażeni na oszustwa związane z tytułem gruntu i nie są w stanie zastawić hipoteki na swojej nieruchomości. Technologia Blockchain może nie tylko zapewnić bezpieczeństwo mniej uprzywilejowanym, ale także zminimalizować długotrwałe i kosztowne procesy rejestracji, które można obsłużyć za pomocą smartfona. Oznacza to brak podróży lub okresów oczekiwania w rejestrze i natychmiastowe widoczne tytuły dzięki audytom w czasie rzeczywistym za ułamek zwykłych kosztów. Kraje takie jak Ghana, Grecja, Honduras i Gruzja poprosiły firmy takie jak Bitland, BitFury i Factom o dostarczenie technologii określania tytułów gruntów opartej na blockchain. Niektóre rządy próbowały już wstrzymać projekty ze względu na ich polityczny charakter. Ponadto własność intelektualna może być chroniona w łańcuchu bloków, dzięki czemu ludzie mogą wykazać własność pomysłów, patentów, pism lub dzieł sztuki, na przykład na podstawie Dowodu istnienia. Rząd Wielkiej Brytanii zlecił dostawcy infrastruktury blockchain Credits przeprojektowanie zarządzania danymi w sektorze publicznym, takim jak National Health Service. Instytucje medyczne nie mogą łatwo i bezpiecznie udostępniać poufnych danych pacjentów, ponieważ cyfrowa elektroniczna dokumentacja medyczna jest różnie organizowana przez różnych świadczeniodawców. Jednak we wspólnej księdze pełna historia medyczna pacjentów, w tym dane demograficzne, leki, alergie i wyniki laboratoryjne, może być przechowywana w jednolity sposób, co może skutkować postawieniem dokładniejszych diagnoz i ratowaniem życia, ponieważ nie będzie marnowania czasu przesyłając dane tam iz powrotem. Według urzędników klucze publiczne zapewniają jedynie dostęp do metadanych i lokalizacji plików osobistych; w ten sposób chronione są najbardziej prywatne dane ludzi. W sektorze rolniczym, który stanowi 40% światowej siły roboczej, zarówno rolnicy, jak i konsumenci mogą korzystać z technologii blockchain. Filament, na przykład, tworzy koncepcje dla inteligentnych farm, łącząc i decentralizując obiekty fizyczne i komunikację w rozległych sieciach; ułatwia śledzenie zapasów, maszyn i warunków pogodowych; i obiecuje niższe koszty, wydajność i połączenie globalnego rynku. Pochodzenie umożliwia konsumentom weryfikację informacji o pochodzeniu, składnikach i datach wydarzeń w łańcuchu dostaw żywności. Ta przejrzystość pozwala na dokonywanie wyborów wspierających zrównoważony rozwój i może pomóc w zabezpieczeniu istnienia mniejszych przedsiębiorstw w rolnictwie ekologicznym lub sprawiedliwym handlu. Ogólnie rzecz biorąc, obecna infrastruktura sieciowa jest nie zaprojektowana, aby sprostać wymaganiom przyszłych wysoce złożonych struktur, regulujących całe środowiska, takie jak inteligentne sieci (sieci energetyczne) lub inteligentne miasta w czasie rzeczywistym. Internet rzeczy stale się rozwija; eksperci szacują, że do 2020 r. liczba podłączonych inteligentnych urządzeń wzrośnie do 50 miliardów. Zarządzanie tym ogromnym kwantem za pomocą tradycyjnych metod stanie się niewykonalne, nawet utrzymanie scentralizowanych serwerów w celu wykonywania najbardziej podstawowych zadań, takich jak dystrybucja regularnych aktualizacji oprogramowania. Każde urządzenie będzie wymagało unikalnego identyfikatora, ale protokół internetowy IPv4, który obecnie kieruje większość ruchu (90%), staje się coraz mniej dostępnych adresów IP. IPv6, opracowany pod koniec lat 90., może je przydzielać; wykazuje jednak poważne problemy z bezpieczeństwem, ponieważ zintegrowany protokół bezpieczeństwa internetowego nie jest automatycznie włączany, a monitorowanie nadchodzącej niezliczonej liczby adresów IP i eliminowanie uszkodzonych urządzeń jest oczywiste. Urządzenia wymagają ponadto częstej wymiany czujników lub baterii, ale interwencja człowieka, zwłaszcza na obszarach oddalonych, nie zawsze lub natychmiast jest możliwa i nie jest zgodna z ogólnym celem ograniczenia jej do minimum. Z biegiem czasu coraz bardziej ekonomiczne staje się montowanie nawet prostych elementów sterujących, takich jak klamki i żarówki, z komputerami ogólnego przeznaczenia, a nie wbudowanymi aplikacjami, tak aby możliwości przetwarzania były wystarczająco wydajne, aby ułatwić współpracę oprogramowania i sprzętu, dzięki czemu urządzenia stają się samoczynne. zrównoważony. Blockchain wraz z inteligentnymi kontraktami umożliwi węzłom organizowanie własnych zasobów - na przykład płacenie za energię elektryczną lub wykorzystanie magazynowania w zamian za świadczenie usług lub wydawanie kapitału.
Cnoty i niebezpieczeństwa
Pojawienie się technologii blockchain w głębi globalnego kryzysu finansowego z 2008 roku dało nową nadzieję na demokratyczny projekt, darmowy tryb wymiany peer-to-peer, który działa poza kontrolą agencji rządowych, banków czy prywatnych korporacji i ich potężne interesy. Zamierzona rola Internetu była podobna, ale jak widać wyraźnie w epoce post-Snowdena, odwrócona. Chociaż natychmiastowy dostęp do uniwersalnych informacji jest za dotknięciem przycisku, ogół społeczeństwa pozostaje w niepewności co do konsekwencji własnego istnienia i działania. Dane użytkowników są gromadzone i wykorzystywane przez nielicznych skoncentrowanych, gdyż jedynym rozwiązaniem umożliwiającym działanie Internetu wydaje się wdrożenie scentralizowanych systemów rzekomo zaufanych partnerów, co daje im znaczną przewagę wiedzy nad monitorowanym obywatelem i konsumentem. Big data i ich interpretacja dają wgląd w każdą możliwą działalność człowieka i jej prawdopodobny rozwój, stając się w ten sposób w coraz większym stopniu najcenniejszą klasą aktywów. Bez drastycznych zmian systemowych korporacje i rządy prawdopodobnie zapewnią, że łagodniejsza ochrona prywatności dotyczy również łańcucha bloków, ponieważ jego poszczególne zasady zależą przede wszystkim od projektu i kodowania. Jak dotąd publiczny blockchain jest przejrzysty, ale zapewnia anonimowość. Ujawniane są tylko kwestie merytoryczne, a nie tylko zaangażowane strony, co chroni przed cenzurą lub represyjnymi środkami regulujących reżimów politycznych i kontroli kapitału. Warstwy publiczne można śledzić w Internecie - na przykład pod adresem https://etherscan.io/. Każda wymiana, która ma miejsce na blockchainie, opiera się na dowodach, a nie na zaufaniu i bez możliwości sporu lub odwrócenia, uczestnicy nie muszą ujawniać zbyt wielu informacji na swój temat ani uważać na swojego odpowiednika. Silnik blockchain zawiera historię transakcji każdego przedmiotu w obiegu i dostarcza dowodu na to, kto, pod pseudonimem lub nie, jest w danym momencie właścicielem, co otwiera utopijną wizję przejrzystego zarządzania - na przykład odkrycie handlu bronią. Pomimo swojej otwartości okazuje się być bezpieczny, ponieważ blockchain jest rozproszony we wszystkich urządzeniach węzłów zamiast posiadania centralnego serwera jako podatnego punktu ataku. Teoretycznie możliwe jest, że pojedynczy podmiot przejmie kontrolę, a tym samym będzie w stanie skompromitować księgę, biorąc pod uwagę raczej mało prawdopodobny przypadek, że czyjaś moc obliczeniowa jest wystarczająco duża, aby osiągnąć większość (51%) wskaźnika hashowania wydobycia. Co więcej, bezproblemowe i natychmiastowe transakcje po niższych kosztach sprawiają, że technologia ta pobudza gospodarkę i pozwala na większą wymianę handlową. Wyeliminowanie mediacji obiecuje znaczne oszczędności. Po pierwsze, obowiązują tylko opłaty transakcyjne, które są proporcjonalne do kwoty lub wartości transakcji. Po drugie, mamy do czynienia z przemieszczeniem personelu przez automatyzację i zmniejszeniem złego zarządzania z powodu błędu ludzkiego. Z drugiej strony, najpopularniejszy obecnie sposób osiągania konsensusu, dowód pracy, nie jest trwały. Chrupanie dowolnych liczb metodą prób i błędów pochłania ogromną ilość energii, która rośnie wraz ze wzrostem zapotrzebowania na transakcje. Fakt, że zapisy raz zapisane w blockchain nie podlegają modyfikacji, wyklucza możliwość późniejszej zmiany zdania i koliduje z "prawem do bycia zapomnianym". Technologia Blockchain w połączeniu z inteligentnymi kontraktami to paradygmat radykalnej automatyzacji. Zapewnia techniczne rozwiązanie "słabości" modelu opartego na zaufaniu, czyli możliwości zdrady, ryzyka nieodłącznie związanego z każdą praktyką społeczną od początku interakcji międzyludzkich. Zaufanie zostaje zastąpione hermetycznym dowodem, wykonywanym przez zaprogramowany kod. Po zainstalowaniu i uruchomieniu bardzo trudno będzie uciec z systemu. Natychmiastowość i sztywność autonomicznych, samoegzekwujących się inteligentnych kontraktów oferują wyraźne korzyści w stosunku do ludzkiego, czasem "irracjonalnego" podejmowania decyzji, ale wykluczają jakąkolwiek szansę na indywidualne rozważenie lub negocjacje. Zwykle pionierskie technologie, takie jak Internet, ewoluują powoli z długotrwałych badań wojskowych i akademickich i są upubliczniane dopiero po dokładnym rozważeniu i poprawieniu. Biorąc to pod uwagę, technologia blockchain o dość tajemniczym pochodzeniu i nagłym pojawieniu się może wydawać się ryzykowna. Mimo że wyrosła z anarchistycznego korzenia i protestu dobrej woli przeciwko systemowi bankowemu, można słusznie założyć, że oczekiwany rozwój odwróci się i będzie działał na korzyść neoliberalizmu, ponieważ jego antyregulacyjna polityka jest skazana na dalszą prywatyzację.
Dzienniki internetowe lub blogi to jedna z najwcześniejszych form mediów społecznościowych w Internecie. Blogi należy rozumieć jako platformy typu narrowcasting, na których treści są tworzone przez osobę lub grupę osób. Są one również przeznaczone dla określonych segmentów lub grup demograficznych w społeczeństwie. Można je również rozumieć jako platformy zorientowane na zainteresowanie, w których blogerzy skupiają się na określonych interesujących tematach i przyciągają czytelników zainteresowanych tymi samymi tematami. Ten wpis analizuje historię blogów, sposób, w jaki wspierają one formowanie się powstańczej publiczności oraz niektóre z ich konkretnych zastosowań.
Historia blogów
Pierwsze blogi, które pojawiły się w latach 90., nie posiadały wszystkich cech, jakie można spotkać dzisiaj. Wczesne blogi wyglądały bardziej jak strony internetowe, które były regularnie aktualizowane i pisane jak internetowe pamiętniki, a najwcześniejsi blogerzy opisywali siebie jako dziennikarzy obywatelskich lub pamiętnikarze online i pisali o wszystkim, co wydarzyło się w ich życiu lub ich dotyczyło. Dopiero w 1998 roku, wraz z uruchomieniem Open Diary, wprowadzono funkcję komentowania. W 1999 roku uruchomiono LiveJournal i Blogger, które dodały blogrolle i trackbacki jako dodatkowe funkcje. Kiedy blogi zostały po raz pierwszy wprowadzone przed 1998 r., były używane przez wielu jako osobiste dzienniki lub pamiętniki w Internecie. Jednak ludzie szybko zdali sobie sprawę z potencjału społecznego, jaki umożliwia sieć sieciowa Internetu i dodali funkcje, które ułatwiały interakcje wiele-do-jednego i wiele-do-wielu, uzupełniając interakcje z jedną osobą, które już istniały w formie wpisu na blogu. napisany przez osobę, rozpowszechniany wśród odbiorców docelowych. Na przykład funkcja komentowania umożliwia czytelnikom zostawianie komentarzy dla blogera (wiele do jednego), ale komentarze mogą być również czytane przez innych czytelników (wielu do wielu), chyba że bloger je usunie. Kiedy Twitter po raz pierwszy pojawił się jako platforma do mikroblogowania w 2006 roku, był uważany za usługę krótkich wiadomości w Internecie, ale szybko stał się usługą sieci społecznościowej, wykorzystującą takie funkcje, jak śledzenie. Koncepcja obserwowania pozwalała użytkownikom na prowadzenie wspólnego dialogu na tematy, które ich interesowały, ale wkrótce okazało się, że próby organizowania różnych tematów lub różnych rozmów na ten sam temat mogą być chaotyczne. Tak więc w 2008 roku Twitter wprowadził hashtagi, które stały się skutecznym sposobem organizowania rozmów i tweetów na te same tematy. Hashtagi wkrótce stały się częścią innych platform mediów społecznościowych, takich jak Facebook i Instagram. W metaanalizie badań nad mediami społecznościowymi w latach 2007-2013 Marko M. Skoric i współpracownicy odkryli, że większość badań blogów koncentrowała się na uczestnictwie w życiu politycznym i że korzystanie z blogów generowało również większy wpływ na uczestnictwo w życiu politycznym w porównaniu z korzystaniem z innych portali społecznościowych. platformy medialne, takie jak serwisy społecznościowe (np. Facebook). Istnieje wiele powodów, dla których istnieje potrzeba wyróżnienia blogów jako platformy mediów społecznościowych w Internecie. W ostatnich latach dominującą platformą badawczą były serwisy społecznościowe, więc dane empiryczne dotyczące korzystania z blogów są skąpe. Ta luka może wynikać z trudności w znalezieniu uczestników, którzy korzystają i śledzą blogi, ponieważ są to platformy typu narrowcasting, które skupiają się na tworzeniu, rozpowszechnianiu lub śledzeniu treści przeznaczonych dla określonych segmentów populacji. Nawet jeśli takich użytkowników i producentów treści można łatwo zidentyfikować, nie zawsze chętnie uczestniczą w wywiadach lub ankietach. Ale poza względnym brakiem badań na temat blogów w szerszym kontekście badań mediów społecznościowych w Internecie, blogi są ważnymi i odrębnymi platformami mediów społecznościowych, ponieważ są często wykorzystywane do generowania i uczestniczenia w dyskursie na temat zagadnień interesu publicznego. W swojej analizie postów na blogach wygenerowanych podczas wyborów powszechnych w Singapurze w 2011 r. Natalie Pang i Debbie Goh stwierdzili, że blogi nie tylko generowały dyskusje na tematy poruszane przez media głównego nurtu i inne wiarygodne źródła, ale także generowały dyskusje na tematy, które nie były przez nich poruszane. . Ponadto funkcje komentarzy na blogach umożliwiają czytelnikom łatwe i publiczne uczestniczenie w dyskusjach i debatach, co wzmacnia blogi jako platformy, które mają duży potencjał jako witryny do debat publicznych i zbuntowanej publiczności. Z pojawieniem się prac naukowych w tej dziedzinie wiąże się rosnąca popularność szczególnego podejścia do badania Internetu, opisanego przez Johna Bargha i Katelyn McKenna jako podejście, które koncentruje się na "interakcji między cechami otoczenia komunikacji internetowej a szczególnymi celami i potrzebami osób, które się komunikują, a także kontekstem społecznym otoczenia interakcji" . Podejście to uwzględnia zarówno cechy strukturalne technologii, jak i kontekst społeczny jej użytkowników.
Blogi jako Powstańcza Publiczność
Uczeni pisali o społeczno-politycznym wpływie blogów, zwłaszcza jako witryn do kształtowania opinii i debat, prowadzenia kampanii na rzecz najistotniejszych kwestii oraz kwestionowania/przesuwania granic mediów. Blogi są również wykorzystywane przez ekspertów obywatelskich jako platforma do dzielenia się swoją wiedzą na różne tematy, takie jak podróże, uroda, moda, jedzenie, edukacja, marketing cyfrowy itd., więc nie ograniczają się one do tematów społeczno-politycznych. Od czasu ich powstania blogi znacznie się rozrosły, a Technorati zgłosiło łącznie 1,3 miliona blogów na całym świecie w lutym 2014 r. (Technorati zakończyło swoją usługę jako wykaz blogów i katalog w maju 2014 r., stąd brak najnowszych statystyk). Blogi istniały przed pojawieniem się popularnych serwisów społecznościowych, takich jak Facebook i Myspace, chociaż z pewnością możliwe jest również tworzenie i utrzymywanie sieci społecznościowej poprzez interakcje na blogach.
Blogi jako zbuntowana publiczność: cztery uwarunkowania kontekstowe
Warunki technologiczne
Warunki technologiczne odnoszą się do cech strukturalnych technologii. W 1994 r. Gerardine DeSanctis i Marshall Scott Poole opisali cechy strukturalne jako "specyficzne typy reguł i zasobów lub możliwości oferowane przez system", i interpretacyjne), ale przede wszystkim ważne jest zrozumienie wszystkich uwarunkowań technologicznych, ponieważ praktyki korzystania z blogów dotyczą w równym stopniu zrozumienia, które cechy są zawłaszczane, a które porzucane. W przeciwieństwie do osobistych dzienników, które są prywatne, blogi są zasadniczo aplikacjami społecznościowymi, a funkcja komentarzy ułatwia odpowiedzi i interakcje na podstawie postów na blogu. Taka jest społeczna natura blogów, która pozwala blogerom tworzyć i utrzymywać sieć społecznościową z ich obserwatorami i czytelnikami. Wiele blogów zawiera również listę blogów, która odnosi się do listy innych blogów połączonych z blogiem. Wpływowe blogi (i blogerzy) są zwykle umieszczane w takich blogrollach. Ponadto istnieją trackbacki, opcja, która pozwala autorom być powiadamianym, gdy inni blogerzy zamieszczają linki do ich postów. Te dwie cechy wspierają komunikację między blogami i odzwierciedlają luźny rodzaj sieci społecznościowej wśród blogerów. Chociaż w demokratycznym potencjale pojawiły się cechy blogów, te same cechy, które wzmacniają, mogą również osłabiać demokratyczne uczestnictwo, ponieważ korzystanie z nich może w dużym stopniu zależeć od zdolności i chęci korzystania z tych funkcji. Na przykład, nawet jeśli post otwarcie zachęca czytelników do odpowiedzi i rozważań, ci, którzy komentują, są zazwyczaj chętni i przyzwyczajeni do takich interakcji online. Narracyjny styl wpisów na blogu może również odzwierciedlać etos kulturowy, który jest autentyczny i odrębny dla każdego bloga. W rezultacie posty, które zwykle zawierają tekst i obrazy, prezentują określone funkcje i style, dzięki którym obserwujący mogą komentować i wchodzić w interakcje. Innymi słowy, same warunki techniczne blogów nie wyjaśniają, w jaki sposób są one wykorzystywane ani jaki jest ich potencjał w każdym społeczeństwie; ale współdziałają z kulturowymi, władzy i warunkami interpretacyjnymi, aby funkcjonować jako zbuntowana publiczność.
Warunki kulturowe
Aby zrozumieć uwarunkowania kulturowe wpływające na korzystanie z blogów, konieczne jest omówienie idei demokracji, ponieważ jest to przekonanie i wartość, która ma najbardziej bezpośredni wpływ na sposób postrzegania przez użytkowników blogi. Chociaż istnieje wiele form demokracji, istnieją pewne wartości, które obecnie postrzegane są jako fundamentalne i uniwersalne w społeczeństwach demokratycznych. Larry Diamond podsumowuje je jako cztery elementy. Pierwszym z nich jest istnienie systemu politycznego, który obejmuje wolne i uczciwe wybory odbywające się w regularnych odstępach czasu, aby umożliwić obywatelom wybór swojego rządu. Drugi dotyczy zarówno obywatelskiego, jak i politycznego udziału obywateli, takiego jak wolontariat, głosowanie i wyrażanie opinii. Trzecia to prawa człowieka wszystkich obywateli bez względu na ich demografię, a czwarta to rządy prawa, co oznacza, że wszyscy obywatele w równym stopniu podlegają i mają prawo do wszystkich praw i procedur. Spośród tych elementów, drugi element -aktywny udział - jest pod wieloma względami najistotniejszą wartością i motywacją do korzystania z blogów. Mówiąc prościej, solidność blogów i aktywne uczestnictwo w blogach w dużym stopniu zależy od stopnia, w jakim obywatele wierzą w społeczeństwo i uczestniczą w nim. Zasada ta dotyczy nie tylko blogów, które koncentrują się na kwestiach społeczno-politycznych; w przypadku blogów o innej tematyce dzielenie się doświadczeniami i opiniami eksperckimi jest również formą dawania i partycypacji obywatelskiej. Solidność i przekonania kształtują sposób postrzegania blogów przez użytkowników. Na przykład Pang i Goh zauważyli podczas wyborów powszechnych w Singapurze w 2011 r., że wielu blogerów przebudziło się politycznie i obywatelsko dzięki pisaniu i kontaktom z obserwującymi na swoich blogach. Padały pytania o system demokracji w Singapurze, jego system wyborczy i równe szanse dla partii opozycyjnych; wiele z tych pomysłów nie pojawiło się wcześniej w mediach głównego nurtu. Ze względu na strukturę narracyjną zapewnianą przez blogi jako platformę, blogerzy byli w stanie tworzyć bogate, różnorodne, a czasami przekonujące argumenty na temat poruszanych przez nich kwestii. Ci, którzy są zaangażowani w post (nie muszą być zgodni), mogą następnie skorzystać z funkcji komentarzy na blogach, aby wziąć udział w dyskusji i obradach na ten temat. W ten sposób formuje się publiczność powstańcza, zwłaszcza gdy na blogach piszą lub komentują te, które mają różne opinie. To samo zjawisko zaobserwowano również w wielu innych społeczeństwach, takich jak Malezja, a także społeczeństwach Bliskiego Wschodu i Afryki Północnej (której kulminacją była Arabska Wiosna), gdzie media społecznościowe były wykorzystywane do komunikacji i mobilizowania innych aktywistów oraz podnoszenia świadomości na temat bieżące problemy i wydarzenia. Takie interakcje prawdopodobnie mają trwałe konsekwencje. Kulturowo mogą z czasem kształtować charakter partycypacji demokratycznej, sprzyjając bardziej bezpośredniej partycypacji, niezależnie od stylu demokracji w społeczeństwie. W wielu społeczeństwach urzędnicy polityczni również odpowiedzieli na takie bezpośrednie uczestnictwo, angażując się w rozmowy z obywatelami i prowadząc z nimi rozmowy online. Dla każdej celebrytki, osoby politycznej lub osoby publicznej posiadającej konto w mediach społecznościowych stało się to normą.
Warunki zasilania
Wytwarzanie władzy obejmuje tworzenie i wykorzystywanie zasobów materialnych i niematerialnych. Na przykład ci, którzy mają duże bogactwo lub aktywa (które są materialne) są zwykle kojarzeni z większą władzą. Same blogi w Internecie są rodzajem niematerialnego zasobu, ponieważ przewidują, że pewne wirtualne interakcje powinny być możliwe w społeczeństwie. Ustanawiają również podstawowe protokoły rozwoju zasobów materialnych, takich jak obrazy, posty i filmy, które można udostępniać i wykorzystywać. Większa władza wiąże się ze zdolnością do wywierania wpływu i dominacji nad innymi poprzez korzystanie z zasobów materialnych i niematerialnych. Innymi słowy, blogerzy mogą mieć duży wpływ na swoich obserwujących lub zdecydować się na dystrybucję swojej władzy innym blogerom lub obserwującym, przydzielając im zasoby. Korzystając ze swoich blogów, blogerzy stają się liderami opinii w swoich wąskich kręgach odbiorców; ale kiedy na dany temat mówi więcej niż jedna publiczność, temat ten staje się istotny i czasami kończy się ruchem społecznym. W ten sposób kształtowana jest uwaga i wysiłki organizacji państwowych i społecznych w najistotniejszych kwestiach społecznych, a każdy, kto uczestniczy w społecznym dialogu online, może zyskać lub stracić wpływ w społeczeństwie i/lub społeczności. Poprzez takie interakcje władzy, blogi (za pośrednictwem blogerów i ich komentatorów lub obserwatorów) twierdzą, że są buntownikami na dwa sposoby: (1) ujawnianie i kształtowanie najistotniejszych kwestii oraz (2) wzmacnianie lub ograniczanie jednostek jako liderów opinii, którzy kształtują dyskurs na te same kwestie . Jednak takie warunki zasilania należy również rozumieć w kontekście regulacji i zarządzania Internetem jako całością. Różne społeczeństwa wymyśliły własne sposoby regulowania i zarządzania Internetem poprzez zapory ogniowe, wymagania licencyjne, zakazy i filtry. Przepisy te zapewniają władzę nad sposobem, w jaki blogerzy wykorzystują i realokują zasoby, a także wzmacniają je lub ograniczają. Ważne jest, aby rozumieć ten proces jako interakcję rekurencyjną i refleksyjną, ponieważ działania regulacyjne nie są niezależne od działań blogerów i ich centrycznych odbiorców i vice versa. Jednym ze sposobów zrozumienia tego jest przyjrzenie się ruchom, które pojawiły się w odpowiedzi na próby uregulowania Internetu. Na przykład w Singapurze, w odpowiedzi na ogłoszenia o wymaganiach licencyjnych dla wybranych blogów i stron internetowych, pojawił się ruch o nazwie #FreeMyInternet. Zainteresowanie i poparcie dla neutralności sieci na całym świecie, a zwłaszcza w Stanach Zjednoczonych, również odzwierciedlają opór wobec prób regulacji lub kontroli Internetu.
Warunki interpretacyjne
Warunki interpretacyjne odnoszą się do sposobów, w jakie ludzcy aktorzy przypisują znaczenia swoim środowiskom, problemom i wydarzeniom wokół nich. Takie warunki interpretacyjne napędzają i są napędzane przez komunikację między ludzkimi aktorami i wpływają na znaczenia, które przypisują technologii, ich wiedzę i postawy wobec technologii. Warunki interpretacyjne wchodzą w interakcję z innymi warunkami technologicznymi, kulturowymi i energetycznymi. Blogerzy często publikują treści z innych źródeł (które mogą obejmować platformy informacyjne i innych blogerów), uwzględniają własne perspektywy i rozważania dotyczące republikowanych treści oraz wzywają do odpowiedzi od swoich obserwujących. Ponownie, ich obserwatorzy mogą odpowiedzieć, korzystając z funkcji komentowania, aby wziąć udział. Na podstawie tych komunikatów blogerzy i ich obserwatorzy przypisują znaczenie omawianym tematom i wspólnie rozwijają poczucie tego, co jest istotne i istotne. W tym procesie rozwijają również wspólną wiedzę na temat czynników i motywacji, które sprawiają, że pewne kwestie są mniej lub bardziej istotne. Chociaż przeprowadzono wiele badań i wyciągnięto wnioski dotyczące powiązań między częstotliwością korzystania z blogów a wynikami, takimi jak uczestnictwo w życiu politycznym i wiedza, niewiele badań koncentrowało się na zrozumieniu interpretacyjnego aspektu korzystania z blogów i interakcji z nimi. Jest to ważny element, którego nie można przeoczyć; jak wspomniano wcześniej, te interpretacje oddziałują na siebie i mogą również kształtować inne stany. Na przykład bloger może napisać post z określoną opinią na temat problemu, ale poprzez swoje interakcje z innymi osobami zmienić swoje poglądy na ten sam problem i zainspirować się do ponownego publikowania i pisania nowych postów.
Blogi jako powstańcza publiczność: epizody użycia
Epizodyczne spojrzenie na technologię pomaga zrozumieć, dlaczego i jak blogi ewoluują w różnych społeczeństwach z powodu kluczowych epizodów użytkowania. Aby to zilustrować, posłużono się przypadkiem blogów w Singapurze. Blogi pojawiły się na całym świecie pod koniec lat 90., a ich popularność rozszerzyła się na użytkowników w Singapurze. Ich użycie miało bardziej osobisty charakter, a użytkownicy spisywali refleksje na temat ich codziennego życia. Było to podobne do innych części świata, ale w połowie 2000 roku stały się ważnymi platformami dyskursu politycznego i debaty obywateli. Podczas wyborów powszechnych w Singapurze w 2006 r. blogi stały się znaczącą platformą, na której obywatele mogą uczestniczyć i zastanawiać się nad kwestiami, które ich dotyczą, mimo że przepisy dotyczące kampanii zabraniają tego blogerom. Jednak działania i argumenty wysuwane przez aktywistów blogerów skłoniły rząd do zmiany przepisów i są już dobrze postrzegane jako część społeczeństwa.
Dyskurs i miejsca do dyskusji
W każdych wyborach i ważnych momentach społeczno-politycznej historii Singapuru od tamtej pory blogi stały się częścią krajobrazu, nie tylko prezentując alternatywne perspektywy, ale także kwestionując te z głównego nurtu. Jak widać w tym przypadku, kluczowe wydarzenia miały znaczenie, takie jak indywidualni blogerzy, którzy przesunęli granice i stali się bardzo ważni w wywieraniu wpływu na innych użytkowników, aby rozwijali i używali blogów jako zbuntowanych odbiorców. Wpis ten rozpoczął się od wprowadzenia blogów jako dwóch rodzajów platform: (1) platform narrowcastingowych i (2) platform zorientowanych na zainteresowania, które nie wykluczają się wzajemnie. Poprzez dyskusję na temat warunków i epizodów wpływających na korzystanie z blogów, omówiono, w jaki sposób blogi funkcjonują jako zbuntowana publiczność w społeczeństwie. Biorąc pod uwagę wzrost badań nad mediami społecznościowymi, badania nad blogami są stosunkowo ograniczone. Wiele badań dotyczących mediów społecznościowych koncentruje się na serwisach społecznościowych, poszczególnych platformach i rozróżnieniach między domenami użytkowania, takimi jak partycypacja relacyjna, obywatelska i polityczna. Podejście do rozumienia blogów jako powstańczych i wielorakich odbiorców w społeczeństwie przedstawia pogląd, że są one wieloaspektowe: Cechy technologiczne są ważne, ale inne uwarunkowania kulturowe, władzy i interpretacyjne również odgrywają rolę w tym, jak blogi są odgrywane w praktykach i epizodach użytkowników korzystania z interakcji i masy krytycznej w sieci społecznościowej mają kluczowe znaczenie. Przykład: badania wpływu mediów społecznościowych podczas Arabskiej Wiosny przyniosły mieszane i nierówne skutki w różnych krajach. Same warunki techniczne mediów społecznościowych nie wystarczą, aby wyjaśnić lub przewidzieć skutki; Inne czynniki (kulturowe, władza i interpretacyjne) są również ważne do rozważenia.
W ostatnich latach botnety stały się popularnym, wręcz niezbędnym narzędziem lub "pojazdem" dla szerokiej gamy przestępstw w Internecie. Botnety są ogólnie definiowane jako sieci komputerów zaatakowanych przez złośliwe oprogramowanie lub "zniewolonych" komputerów połączonych z Internetem pod kontrolą jednej lub więcej osób zwanych intruzami lub botmasterami. Bot, termin wywodzący się od słowa robot, to pojedynczy skompromitowany komputer w sieci zainfekowanych komputerów. Złośliwe oprogramowanie (oznaczane również jako złośliwe oprogramowanie), które jest hostowane na maszynach, zasadniczo pozwala botmasterom kontrolować je zdalnie i automatycznie. Chociaż botnety są obecnie uważane za złośliwe sieci, historycznie nie miały one przestępczego celu. Były one używane głównie do kontrolowania interakcji w pokojach rozmów w Internet Relay Chat (IRC), który pojawił się od 1989 roku. Obejmowało to interpretację prostych poleceń, zapewnienie wsparcia administracyjnego i oferowanie usług użytkownikom czatu. Pierwszym znanym botem jest Eggdrop, który służył do zarządzania i ochrony kanałów IRC przed przejęciami. Po jego wydaniu w 1993 roku pojawiły się różne złośliwe boty IRC, które działały na tej samej zasadzie scentralizowanego zdalnego zarządzania. Od tego czasu botnety są coraz częściej wykorzystywane do przestępstw związanych z Internetem i z czasem stają się coraz bardziej wyrafinowane. Ze względu na ich destrukcyjne i destrukcyjne możliwości są obecnie uważane za jedno z największych zagrożeń bezpieczeństwa w Internecie. Badania naukowe nad botnetami koncentrują się głównie na charakterystyce, zachowaniu i wykrywaniu botnetów. Kryminolodzy, politycy i prawnicy dopiero niedawno zaczęli teoretyzować i badać botnety oraz sposoby im przeciwdziałania. W związku z tym wciąż pozostaje wiele kwestii i pytań, na które należy odpowiedzieć i zbadać, jeśli chodzi o zjawisko botnetów. Ten wpis wprowadza pojęcie botnetu poprzez zbadanie poszczególnych elementów botnetu, sposobu działania botnetów i ich wzajemnych interakcji. Wpis kończy się analizą niektórych znanych środków zaradczych.
Natura i skala problemu botnetów
Należy podkreślić, że złośliwe działania botnetowe mogą być prowadzone zarówno przeciwko "botom wewnątrz botnetu (ataki wewnętrzne), jak i przeciwko botom poza botnetem (ataki zewnętrzne)". Pierwszy przypadek dotyczy na przykład kradzieży danych wrażliwych (np. danych logowania, numerów kart kredytowych) i manipulacji transakcjami bankowości internetowej, podczas gdy drugi obejmuje rozproszone ataki typu "odmowa usługi" (np. zniekształcanie firmy) oraz rozprzestrzenianie spamu. Botnety są również kojarzone z innymi nielegalnymi działaniami, takimi jak wydobywanie bitcoinów i oszustwa związane z kliknięciami. Botnety są wykorzystywane nie tylko przez osoby kierujące się motywami finansowymi, ale także przez inne podmioty, takie jak cyberterroryści, aktywiści i agencje rządowe. Jeśli chodzi o szkody, botnety są odpowiedzialne za poważne szkody na całym świecie i duże straty finansowe dla użytkowników komputerów, firm i rządów, chociaż trudno jest znaleźć wiarygodne liczby. W ostatnich latach wykrywanie i przeciwdziałanie botnetom stało się głównym priorytetem zarówno dla organów ścigania, jak i przedsiębiorstw. Usunięcie botnetu jest jednak złożonym problemem. Wymaga podjęcia środków przeciwko wszystkim kluczowym elementom botnetu: (a) botmasterowi, (b) infrastrukturze dowodzenia i kontroli oraz (c) poszczególnym botom.
Podmiot kontrolujący botnet: Botmaster
Pierwszym głównym składnikiem botnetu jest botmaster - jedna lub więcej osób odpowiedzialnych za tworzenie, kontrolowanie i utrzymywanie sieci zainfekowanych komputerów. Zasadniczo jest on aktorem, który wydaje botom polecenia wykonania pewnych (złośliwych) działań i ma "możliwość pobierania, aktualizowania i uruchamiania złośliwych plików binarnych na zainfekowanych systemach". Ze względu na szerokie zastosowanie i anonimowość, jaką zapewniają, botnety są cennymi zasobami na rynku cyberprzestępczym. Botmaster zazwyczaj wynajmuje botnet lub jego części stronom trzecim (np. spamerom lub phisherom) na zasadzie tak zwanej zasady pay-per-install. Oznacza to, że klienci mogą zainstalować własne złośliwe oprogramowanie (np. złośliwe oprogramowanie, które może "pobrać" dane karty kredytowej z komputerów ofiar) na wybranych botach, które kupują w internetowym "sklepie botnetowym" botmastera. Innymi słowy, botnet można rozumieć jako mechanizm dystrybucji złośliwego oprogramowania, który jest sprzedawany jako usługa innym przestępcom. Sprzedaż instalacji to lukratywny biznes, zwłaszcza gdy instalacje są nadal "czyste", nieużywane ani zanieczyszczone złośliwym oprogramowaniem przez żadnego klienta. Jednak "kłopotanie się" i "przetrwanie w biznesie" wymaga sporo wysiłku i poświęcenia. Na przykład utworzenie botnetu wymaga czasu i pieniędzy; botmasterzy muszą upewnić się, że botnet pozostanie online tak długo, jak to możliwe i nie zostanie wykryty. W rzeczywistości botnety są tak cennym towarem, że botmasterzy starają się wzajemnie anektować swoje botnety. Dlatego organy ścigania i firmy ochroniarskie nie są jedynym zagrożeniem dla botmasterów.
Infrastruktura dowodzenia i kontroli botnetu
Drugim elementem botnetu jest obsługująca go infrastruktura dowodzenia i kontroli, która zasadniczo składa się z jednostki kontrolującej i botów. Mechanizm kontrolujący umożliwia osobie przeszkadzającej komunikowanie się z zniewolonymi komputerami, wydawanie im poleceń i koordynowanie działań, które powinien wykonać. Sposób, w jaki zaprojektowano ten mechanizm, jest powszechnym sposobem, w jaki badacze klasyfikują lub taksonomizują botnety. Istnieją architektury, które są scentralizowane, zdecentralizowane (peer-to-peer [P2P]) lub zawierają kombinację obu (hybrydowe). W scentralizowanej infrastrukturze dowodzenia i kontroli wszystkie boty łączą się z co najmniej jednym serwerem dowodzenia i kontroli. Z tych centralnie zlokalizowanych serwerów osoba przeszkadzająca wydaje polecenia dużej liczbie botów jednocześnie. Z kolei zdecentralizowana infrastruktura opiera się na samopropagacji poleceń. Niepokojący wyda polecenia kilku losowym botom, które z kolei dotrą do wszystkich innych botów. Większość botnetów łączy jednak elementy z obu skrajności. Oprócz różnych typów infrastruktur można również rozróżnić różne protokoły, które umożliwiają osobom przeszkadzającym komunikację z botami. Najpopularniejszymi protokołami są IRC, HTTP i P2P. IRC (niezależnie od tego, czy jest własnością publiczną, czy prywatną) umożliwia osobom przeszkadzającym wysyłanie poleceń do botów indywidualnie lub zebranie wszystkich botów w jednym czacie i publikowanie poleceń, które są w stanie zobaczyć. Chociaż botnety IRC są dość przyjazne dla użytkownika, są jednocześnie łatwiejsze do wykrycia w ruchu sieciowym. Jest to jeden z powodów, dla których botmasterzy przeszli na internetowe kanały komunikacji HTTP. Podobnie jak IRC, HTTP również ma scentralizowaną konfigurację, ale ma kilka innych zalet. Na przykład umożliwia szyfrowanie ruchu między botami a serwerem dowodzenia i kontroli, co utrudnia ich wykrycie. W wielu przypadkach w tej konfiguracji wykorzystywane są zhakowane serwery internetowe, które zapewniają jeszcze większą anonimowość. Przykładami dużych botnetów korzystających z tego protokołu są Zeus (2007), Bredolab (2009) i Conficker (2008). W przeciwieństwie do IRC i HTTP, botnety P2P nie działają w sposób scentralizowany, a zatem są mniej narażone na usunięcie. Boty w zasadzie odbierają od siebie polecenia, co oznacza, że sam botnet staje się systemem dowodzenia i kontroli. Robak Slapper (2002) i botnet Nugache (2006) to przykłady botnetów P2P. Botnet Storm (2007) można sklasyfikować jako hybrydowy botnet P2P, ponieważ łączy P2P ze scentralizowanymi funkcjami. W dzisiejszych czasach zaawansowane botnety wykorzystują również "własne protokoły", które są oparte na TCP, ICMP lub UDP. Bez względu na to, jaka infrastruktura zostanie wykorzystana, głównym interesem osoby przeszkadzającej jest utrzymanie płynnego działania botnetu oraz ukrycie jak największej części infrastruktury przed światem zewnętrznym. Jeśli chodzi o to drugie, osoby przeszkadzające mogą użyć kilku innych technik, aby ukryć swoje ślady lub adres protokołu internetowego, takich jak wirtualna sieć prywatna lub schematy fast-flux.
Boty
Trzecim elementem jest sieć zainfekowanych komputerów, zwanych także botami, komputerami zombie lub podatnymi hostami. Rozmiar tej sieci może wahać się od kilkuset do milionów zainfekowanych komputerów. Im większy rozmiar botnetu i im większa przepustowość zaatakowanych maszyn, tym wyższa jest wielkość wektora ataku. Większa liczba maszyn oznacza również, że można zebrać więcej informacji o ofiarach, co ma znaczenie w przypadku ataków na boty wewnątrz botnetu. Wadą dużych botnetów jest to, że są one łatwiejsze do wykrycia, dlatego niektórzy użytkownicy intruzów decydują się na posiadanie wielu mniejszych botnetów. Utworzenie botnetu, zarówno małego, jak i dużego, wymaga zainstalowania części złośliwego oprogramowania (po cichu) na wielu zaatakowanych maszynach. Można to przeprowadzić na różne sposoby, zwykle poprzez połączenie socjotechniki (wprowadzanie w błąd) i wykorzystywania luk w oprogramowaniu. Najbardziej znaną metodą jest dystrybucja wiadomości e-mail ze złośliwymi załącznikami, która jest zwykle wysyłana w imieniu znanych firm, takich jak firmy spedycyjne lub portale społecznościowe. Ofiary są kuszone, aby kliknąć łącze lub załącznik, a tym samym (nie zdając sobie z tego sprawy) instalować złośliwe oprogramowanie na swoim komputerze. Inną powszechnie stosowaną metodą jest "drive-by downloads", co oznacza, że użytkownicy zostają zainfekowani po odwiedzeniu zainfekowanej witryny lub kliknięciu banera reklamowego zawierającego złośliwe oprogramowanie. Inne metody obejmują (automatyczne) wykorzystywanie systemów i umieszczanie złośliwego oprogramowania na dysku flash USB. Następnie infekcja nie tylko zawsze wymaga działania ofiary, ale także zależy od tego, czy maszyna jest podatna na infekcję i czy atakujący wykorzystuje lukę firmy, która ledwo naprawia luki w swoim oprogramowaniu.
Przeciwdziałanie botnetom
Naukowcy i inne osoby mają do czynienia ze zjawiskiem botnetów, badając je i badając, lub odgrywając rolę w ich usuwaniu. Podmioty prywatne, takie jak na przykład firmy ochroniarskie, aktywnie zakłócają działanie botnetów, ponieważ uważają, że niszczenie ich jest bardziej efektywne niż inwestowanie dużych sum pieniędzy w bezpieczeństwo komputerowe. Dostawcy usług internetowych również odgrywają rolę w ograniczaniu botnetów. Z dotychczasowych badań wynika, że przeciwdziałanie botnetom to niezwykle skomplikowana operacja. Czynniki związane ze złożonością techniczną, anonimowością, szyfrowaniem oraz różnymi strefami czasowymi, językami i jurysdykcjami stanowią poważne wyzwanie. Timo Schless i Harald Vranken podsumowali różne możliwe środki zaradcze przeciwko botnetom, w tym przejęcie serwera dowodzenia i kontroli za pomocą konfiskaty, powiadomienia i usunięcia lub hakowania, przy czym to ostatnie jest najbardziej kontrowersyjne. Inne środki, które można podjąć przeciwko botnetom, to manipulowanie botami lub komunikacja za pośrednictwem kanałów dowodzenia i kontroli lub aresztowanie osoby przeszkadzającej. Jak podsumowują, żadna organizacja nie jest w stanie samodzielnie skutecznie radzić sobie z botnetami, co sprawia, że współpraca między kilkoma agencjami jest niezbędna.
Internet, a zwłaszcza jego komponent mediów społecznościowych, odegrał znaczącą, choć nieznaną dotąd rolę w badaniach etnograficznych. Reorientacja ludzkich sieci, która nastąpiła za pośrednictwem sieci, sprawiła, że zarówno dane etnograficzne, jak i informatorzy są dostępni w sposób, który byłby nie do pomyślenia trzy dekady temu. Rozprzestrzenianie się stron internetowych, blogów (blogów), czatów, grup użytkowników, forów dyskusyjnych i innych formatów społeczności wirtualnej głęboko zmieniło metodologie i ogólne praktyki etnografii. Jednak różne metody badań online pozostają nieznane w wielu zakątkach akademickich ze względu na ukryte piętno pieszego ruchu i nieprofesjonalizmu związane z witrynami takimi jak Facebook, Instagram, Snapchat i podobne platformy. Ten wpis bada, w jaki sposób Internet wpłynął na badania etnograficzne; historia badań internetowych; jak zmieniły się badania etnograficzne online wraz z pojawieniem się nowych platform, w tym platform mobilnych; i etyka badań internetowych.
Ułatwianie dostępu
Dwa główne wkłady, jakie Internet wniósł do badań etnograficznych, dotyczyły zarówno zwiększenia, jak i przyspieszenia dostępu dla badaczy. Pierwszym jest rozszerzenie dostępu do informatorów. Drugim było rozszerzenie publicznie dostępnych, zachowanych danych etnograficznych. Oba te wkłady fundamentalnie zmieniły dynamikę badań etnograficznych, jednak oba przywołują tradycyjne tezy ontologiczne i epistemologiczne, które istniały od wieków. W podobny sposób, w jaki Internet zakłócił istniejące modele obiegu i konsumpcji muzyki, Internet zakłócił tradycyjne wzorce interakcji i badań między człowiekiem a podmiotem. Zrozumiałe jest, że zdecydowana większość przełomowej literatury na temat badań etnograficznych została opublikowana przed rozpowszechnieniem się Internetu, więc podstawy ontologiczne i metodologiczne każdego badacza byłyby w dużej mierze oparte na klasycznych modelach sprzed Internetu. Jak na ironię, badacze akademiccy na ogół gromadzą większość tej literatury etnograficznej ze wszystkich epok, korzystając z kanałów internetowych, takich jak Academic Search Premiere, Google Scholar i sieci bibliotek uniwersyteckich. Nawet mając podstawy ontologiczne XXI wieku, badania etnograficzne nie mogą istnieć poza strukturą sieci. Właśnie dlatego naukowcy społeczni w ciągu ostatnich 20 lat zajmowali się nieuniknioną rolą Internetu w badaniach etnograficznych. Nawet badania, które koncentrują się na przestrzeniach i miejscach bez dostępu do Internetu (które znikają), są nadal zapośredniczone przez kanały internetowe. Na przykład pierwotni "strażnicy" w usankcjonowanych przez uniwersytet badaniach nad ludźmi, instytucjonalne komisje rewizyjne, przekształcili się głównie w całkowicie cyfrowe interfejsy, aby zmniejszyć bałagan i usprawnić procesy zatwierdzania. Nawet badacz, którego gromadzenie danych opiera się wyłącznie na odręcznych notatkach w hipotetycznej odległej społeczności bez elektryczności ani kanalizacji w pomieszczeniach, musiałby złożyć swoje dane uwierzytelniające za pomocą środków cyfrowych. Podobnie uniwersyteckie magazyny ukończonych prac dyplomowych i rozpraw przyjęły portale cyfrowe; wiele bibliotek nie drukuje już nawet papierowych kopii tych dokumentów.
Początki badań internetowych w środowisku akademickim
Pierwsze prace naukowe dotyczące komunikacji za pośrednictwem Internetu, przynajmniej w obrębie nauk humanistycznych, pojawiły się na początku lat 90. XX wieku. W połowie tej dekady e-mail stał się już główną formą komunikacji asynchronicznej. Pojawiły się prace jakościowe i analityczne dotyczące rozwoju technologii i późniejszej mutacji w platformę wielozadaniową. Tradycyjne fizyczne formaty korespondencji, nadal powszechnie używane przez starszych członków akademii, zostały wyśmiane jako "poczta ślimakowa" w kulturze popularnej (bez wątpienia podżegane przez dział public relations Microsoftu). Chociaż nie było to pierwsze pojawienie się terminu "snail mail", po raz pierwszy korzystanie z usługi pocztowej było kategorycznie mniej wydajne niż alternatywa cyfrowa. Jako medium do prowadzenia badań etnograficznych poczta elektroniczna miała wiele zalet i wad. Korzyściami, być może najbardziej ewidentnymi na początku, były niższe koszty, zarówno finansowe, jak i pod względem zasobów. E-mail wymagał uiszczania miesięcznej opłaty za połączenie, chociaż indywidualne konta e-mail Uniwersytetu były wliczone w koszt czesnego dla studentów i opłaty za udogodnienia dla wydziału. Dla prywatnych badaczy strony takie jak Hotmail, Yahoo i Lycos ustandaryzowały dostępność bezpłatnych kont e-mail. Po zarejestrowaniu badacz mógł wysłać e-mail na dowolne inne konto na świecie bez dodatkowych opłat. Z ekonomicznego punktu widzenia wyeliminowało to rachunki za połączenia międzymiastowe oraz koszty wysyłki. E-mail umożliwił również niemal natychmiastowe dostarczanie wiadomości, niewyobrażalne dla tych, którzy rozpoczęli badania za pomocą poczty. Wady badań etnograficznych za pośrednictwem poczty elektronicznej były jednak nieodłącznie związane z mechaniką. Choć było to bezsprzecznie szybsze i tańsze niż korzystanie z usług pocztowych lub telefonicznych w celu przeprowadzania wywiadów (zwłaszcza międzynarodowych), nie mogło uniknąć ukrytej "niezgrabności" komunikacji za pośrednictwem Internetu. Stanowiło to opłacalny gambit dla badań jakościowych, ponieważ niezdolność badacza do "bycia tam" osobiście lub w rozmowie telefonicznej uniemożliwiała rozpoznanie niereprezentatywnych danych (np. Wyrażenia, pauzy) od informatora. Dodatkowo, podobnie jak korespondencja pocztowa, poczta elektroniczna dawała informatorom czas i możliwości poprawienia swoich odpowiedzi, zasadniczo odsuwając ich od dynamiki spotykanej w wywiadach osobistych. Spowodowało to wygenerowanie nowego zestawu pytań etycznych w zakresie gromadzenia i raportowania danych etnograficznych.
Smartfony, media społecznościowe i dostęp w badaniach etnograficznych
Kolejnym zaburzeniem w rozprzestrzenianiu się danych etnograficznych i dostępie do źródeł etnograficznych była rosnąca popularność przenośnych urządzeń komputerowych (smartfonów). W 2000 roku firmy takie jak Blackberry dostrzegły potencjał zamiany telefonów komórkowych na urządzenia przenośne, które oprócz wykonywania połączeń i wysyłania SMS-ów mogą uzyskiwać dostęp do poczty e-mail, robić zdjęcia i przesyłać pliki. Firmy takie jak Apple i Samsung zaangażowały się w cyfrowy i mechaniczny wyścig zbrojeń z produktami takimi jak odpowiednio iPhone i Galaxy. Badacze etnograficzni, zwłaszcza wywodzący się z klasy średniej w krajach rozwiniętych, najczęściej noszą je ze sobą. Kiedy w latach 90. uruchomiono America Online i inne publiczne wyszukiwarki, telefony komórkowe stawały się coraz mniejsze, tańsze i coraz bardziej wszechobecne. Na początku XXI wieku większość osób zaangażowanych w życie obywatelskie w rozwiniętym świecie posiadała telefony komórkowe, dzięki czemu ludzie byli bardziej dostępni i pozbawieni przywiązania do miejsca. Aby jednak skontaktować się z informatorem, nadal trzeba było znać jego numer telefonu i polegać na dostępie do osób, które mogłyby udzielić informacji kontaktowych. Ta dynamika była podobna do poczty e-mail we wczesnej erze Internetu, ponieważ nie było dostępnej bazy danych prywatnych numerów telefonów ani adresów e-mail. Smartfony, w połączeniu z kanałami internetowymi, sprawiły, że osoby są praktycznie dostępne przez cały czas za pomocą wielu środków. Jeśli badacz ma bezprzewodowy dostęp do Internetu, może skontaktować się z dowolnym informatorem za pośrednictwem swojego konta w mediach społecznościowych w dowolnym miejscu na świecie. Wiele restauracji sieciowych, takich jak McDonald′s, zapewnia Wi-Fi za darmo bez zakupu, a coraz więcej publicznych miejsc spotkań ma Wi-Fi dostępne dla płacących klientów. Przeprowadzono niewiele badań na temat roli konsumpcji jako środka do osiągnięcia celu w badaniach etnograficznych, czy to angażowania informatorów za pośrednictwem laptopów, smartfonów, czy kupowania jedzenia i napojów dla informatora w sytuacji wywiadu osobistego. Biorąc pod uwagę stosunkowo niedawne rozpowszechnienie Internetu, nauki społeczne wciąż analizują jego wpływ na muzykę, media i ogólną kulturę. Wielu zwracało uwagę na to, że dostęp do Internetu jest wciąż na wagę złota dla większości krajów rozwijających się, co pogłębia nierówności rozwojowe. Chociaż prędkość łącza internetowego sprawiła, że wymiana plików audio i wideo w krajach rozwiniętych stała się niemal natychmiastowa, znaczna część globalnego Południa wciąż pozostaje w tyle. To samo można powiedzieć o wszystkich kwestiach związanych z dostępem do technologii, zwłaszcza smartfonów. Rosnąca wykładniczo pula dostępnych danych etnograficznych musi być rozumiana epistemologicznie. W przypadku każdego nowego kanału lub forum, za pośrednictwem którego badacz może zbierać dane, musi wziąć pod uwagę ograniczenia i specyficzną dynamikę każdego z nich. Działania społeczne zawsze mają miejsce w jakimś miejscu, więc kiedy miejsce w klasycznym sensie euklidesowym jest zagrożone, musi to również dotyczyć pozycji badacza. Chociaż może to nie było ich wytyczne dotyczące zakładania witryny w 2004 r., Facebook nieświadomie stworzył generowane przez użytkowników publiczne archiwum etnografii kulturowej. Niezależnie od prywatnych kont poszczególnych użytkowników, użytkownicy nadal często zamieszczają anegdoty i opinie (o wątpliwej prawdziwości lub zgodności) w witrynach z wiadomościami i sekcjach komentarzy powiązanych z Facebookiem. Na samym Facebooku wiele tematów godnych badań akademickich, takich jak historie scen muzycznych, jest kategorycznie archiwizowanych przez integracyjne grupy użytkowników, w których ludzie mogą przesyłać stare zdjęcia, pokazywać ulotki i dzielić się refleksjami na temat kontekstowych miejsc i wydarzeń.
Wideo internetowe i etnografia
Być może najgłębszy wpływ, jaki Internet wywarł na dostępność ponadreprezentatywnej / niereprezentatywnej etnografii, wywarło udostępnianie wideo. Należą do nich zarówno interfejsy komunikacji użytkownika z użytkownikiem, takie jak Skype i Oovoo, jak i publiczne interfejsy strumieniowego przesyłania wideo, takie jak YouTube, Vimeo, oraz mechanizmy oferowane przez Facebook i Twitter. Skype i inne usługi wideorozmów poszerzyły dostępną pulę danych etnograficznych, jednocześnie zmniejszając odległość niezbędną do przebycia synchronicznych wywiadów etnograficznych. Najwyraźniej komunikacja wideo umożliwia etnografowi odnotowanie mimiki twarzy, zachowania ciała i innych niuansów procesu osobistego wywiadu, które unikają uchwycenia za pomocą komunikacji pisemnej lub dźwiękowej. Chociaż interakcje przez Skype nadal bledną pod względem połączenia sensorycznego w porównaniu z rozmowami osobistymi (zwłaszcza w częstych przypadkach niedoskonałej łączności internetowej), oferują wiele korzyści dla badań etnograficznych. Przede wszystkim wywiady wideo znacznie zmniejszają potencjalne koszty wywiadów osobistych na całym świecie, czyniąc te interakcje bardziej dostępnymi dla naukowców, którzy nie mają funduszy lub czasu aby odwiedzać swoich informatorów osobiście, ale wciąż pragną kontaktów twarzą w twarz. Chociaż wszystkie mają opcje zakupu i subskrypcji, usługi wideo, takie jak Skype, zwykle oferują swoje programy do bezpłatnego pobrania, a także opcję tylko audio, która może zastąpić drogie międzynarodowe rozmowy telefoniczne. Jeśli chodzi o publiczną (i prywatną) pamięć podręczną strumieniowych filmów wideo dostępnych dla etnografów, YouTube, Vimeo i DailyMotion uruchomiono pod koniec 2000 roku, a socjologowie szybko podeszli do ich "znaczenia" dla nauk humanistycznych. Geografowie, tacy jak Robyn Longhurst, postawili poważniejsze pytania o to, jak zmieniały się ludzkie metody komunikowania doświadczeń miejscowych wraz z masowo publikowanymi mediami audiowizualnymi i co to może oznaczać dla etnografii. Gdy zarówno YouTube, jak i Vimeo rozszerzyły swoje pojemności i zezwoliły na długość filmów, otworzyły się bramy dla ogromnej ekspansji łatwo i natychmiastowo dostępnych nagrań wydarzeń i materiałów kulturalnych. Obejmowały one między innymi pełne występy muzyczne na żywo, filmy pełnometrażowe, zarówno wyprodukowane niezależnie, jak i pirackie od właścicieli praw autorskich, oraz obszerne surowe materiały z wydarzeń, które nie zostały opublikowane w formie przedprodukcyjnej. Wszystkie one oferują szeroki wachlarz reprezentacji etnograficznych dla badaczy, którzy nie mogli "być tam", czy to z powodu braku funduszy, dostępu, czy też nie urodzeniu się w czasie przedstawionych wydarzeń. W ten sposób strumieniowe przesyłanie archiwów wideo stało się dobrodziejstwem dla historycznie zorientowanych badaczy. Jednak w miarę jak YouTube rozwija się pod kontrolą Google i powiązanych interesów korporacyjnych, "publiczny" charakter lub własność tych filmów może zostać naruszona. Własność określonych nagrań wideo i audio związanych z badaniami etnograficznymi wymknęła się kontroli oryginalnych producentów, ponieważ strumieniowe wideo można łatwo pobrać, ponownie edytować i ponownie przesłać z sprzecznym lub ocenzurowanym przesłaniem. Wszystkie te usługi mają zbyt wielu użytkowników, aby indywidualnie monitorować wszystkie przesłane filmy pod kątem jakości, praw autorskich lub treści. Wytyczne społeczności, które są sporadycznie egzekwowane, mogą również uniemożliwiać dostęp do danych etnograficznych prawowitym badaczom zajmującym się kontrowersyjnymi tematami, takimi jak grupy nienawiści czy pornografia. Etnograficzne badania mediów społecznościowych przedstawiły dyskusyjne dylematy etyczne. Wprowadzając ich opinie, myśli i wspomnienia do publicznego rejestru, Myspace, Facebook i Twitter uczyniły z milionów użytkowników nieświadomych informatorów etnografów. Jednak w zależności od tematyki i przynależności komentatorów do określonej sieci, przez którą przeszukuje badacz, ci informatorzy mogą nigdy nie dowiedzieć się o ich wkładzie. Taka jest płynność publicznych rejestrów i plastycznych danych w mediach społecznościowych. Nadal toczą się debaty na temat tego, co stanowi "publiczne" i "prywatne" w Internecie, a badacze i ich informatorzy mogą nie zgadzać się co do tego, co jest dokładnie uczciwą grą. To, czy anonimizować tych informatorów, należy do badacza; instytucjonalna komisja rewizyjna nie może łatwo złagodzić tych sytuacji, ponieważ badania etnograficzne online nie odbywają się osobiście. Biorąc pod uwagę fakt, że śledczy nie pozyskał tych danych osobiście, odpowiedzialność za wszelkie niefortunne skutki publikacji ich słów nie może spoczywać całkowicie na barkach jednego aktora. Ostatecznie rola Internetu w badaniach etnograficznych stanie się jeszcze bardziej wszechobecna, gdy sam Internet stanie się bardziej wszechobecny w życiu i codziennych interakcjach badaczy i ich informatorów. Tempo, w jakim Internet się rozprzestrzenia, obejmując więcej aspektów życia codziennego w większej liczbie miejsc na całym świecie, jest znacznie szybsze niż tempo, w jakim technologie wpłynęły na dynamikę badań etnograficznych w przeszłości. Dlatego naukowcy społeczni mają proroczą i rosnącą odpowiedzialność za zachowanie wiedzy i czujności wobec wyzwań związanych z tymi zmianami.
Niektórzy uważają związek między bibliotekami a Internetem za rywalizację, i to dość niedawną, w której wyszukiwarki takie jak Google zastępują biblioteki. W rzeczywistości biblioteki miały bliski związek z Internetem, który sięga prawie 50 lat wstecz, na długo przed pojawieniem się Google lub sieci. Ten wpis opisuje wieloletnie relacje między bibliotekami a Internetem oraz omawia materiały biblioteczne dostępne online, Internet jako narzędzie obsługi czytelników, repozytoria instytucjonalne oraz sposoby poprawy wyszukiwalności.
Historia
Chociaż World Wide Web powstał w 1989 roku, Internet jest znacznie starszy, a biblioteki korzystają z niego od zarania dziejów. We wczesnych latach korzystania z zasobów bibliotecznych online ograniczano do określonych lokalizacji, a czasem nawet do określonych komputerów. Rozpoznawanie adresów protokołu internetowego i dostęp za pośrednictwem uwierzytelniania proxy rozszerzyły dostęp. Brak zdalnego dostępu jest obecnie raczej wyjątkiem niż regułą, a duża część baz danych, czasopism i innych zasobów elektronicznych jest dostępna zdalnie dla użytkowników bibliotek. Dla dużych uniwersytetów, których badacze podróżują po świecie, globalny dostęp do zasobów ich bibliotek, kiedyś niespotykany, jest teraz normą. Specjalne biblioteki w firmach i laboratoriach badawczych, chociaż mogą już nie mieć dużych bibliotek fizycznych, jak kiedyś, mają badaczy, którzy mają taką samą potrzebę takiego dostępu. Współcześni klienci bibliotek mogą przeglądać stronę internetową biblioteki, katalog online lub listę baz danych, aby dowiedzieć się, co ich biblioteka ma do zaoferowania. Odpowiedź na to pytanie wymagała kiedyś wycieczki do biblioteki (i przed Internetem, korzystanie z drukowanych katalogów, indeksów i abstraktów). Niektóre eksperymentalne, skomputeryzowane katalogi na małą skalę istniały we wczesnych dniach Internetu. Internet zyskał na popularności, a wiele bibliotek stworzyło katalogi online na dużą skalę, z akademickimi i większymi bibliotekami publicznymi, takimi jak The Ohio State University Libraries i Dallas Public Library w połowie lat 70. XX wieku. Zaczęły się od katalogów tekstowych i ostatecznie przeniosły się do interfejsów internetowych, które umożliwiały łączenie się z rosnącą kolekcją treści online biblioteki. Wymagało to przystosowania się do nowych metod katalogowania materiałów niefizycznych i zajęcia się zupełnie nową dziedziną problemów (w tym problemów technicznych zarówno po stronie biblioteki, jak i dostawcy) związanych z wykrywalnością i dostępem do zasobów, których biblioteka nie kontrolowała bezpośrednio. Oprócz katalogu, inne popularne narzędzia do wyszukiwania w bibliotekach to udostępniane przez nie bazy danych. Już od lat sześćdziesiątych XX wieku bazy danych dostępne przez Internet obejmowały bibliotekarza działającego jako pośrednik w wyszukiwaniu i pobieraniu informacji za pośrednictwem usług takich jak Dialog, częściowo ze względu na koszty i wiedzę specjalistyczną związaną z korzystaniem z tych narzędzi. Wiele indeksów drukowanych i źródeł abstraktów używanych do wyszukiwania treści, zwłaszcza seriali, takich jak czasopisma, gazety i czasopisma, stało się dostępnych w formie elektronicznej. Chociaż początkowo dostęp był przeznaczony do użytku na określonych maszynach (które bibliotekarze nazywali "samodzielnymi"), obecnie są dostępne rzadko takie ograniczenie. Zamiast tego dostęp jest powszechnie dostępny na wielu komputerach jednocześnie, a dostęp online do biblioteki jest prawie zawsze możliwy zdalnie. Użytkownicy mogą uzyskać dostęp do bazy danych swojej biblioteki z domu, szkoły, podczas podróży lub z dowolnego miejsca z dostępem do Internetu. Zdalny dostęp online przekłada się na ciągłą dostępność dużej części zbiorów nowoczesnej biblioteki, niezależnie od godzin otwarcia. Nawet gdy katalog i niektóre bazy danych stały się dostępne w Internecie, wiele zasobów informacyjnych nadal wymagało od użytkowników korzystania z druku (lub innego formatu fizycznego) w celu uzyskania dostępu do rzeczywistych informacji. Wczesny dostęp do Internetu przez osoby fizyczne nadal opierał się głównie na tekście. Interfejsy Gopher i przeglądarki internetowe obsługujące wyłącznie tekst, takie jak Lynx, umożliwiały dostęp do informacji tekstowych, ale ograniczone opcje formatu i obrazów oznaczały, że wiele źródeł albo nie działałoby jako zasoby internetowe, albo było dostarczanych jako rozwodnione, wyłącznie tekstowe wersje wersji drukowanej. Obrazy i ilustracje, takie jak wykresy, wykresy, tabele, fotografie i grafiki renderowane w formacie tekstowym, były w najlepszym razie prymitywne i stanowiły kiepski substytut druku. Narodziny sieci World Wide Web, z interfejsem bardziej przyjaznym dla grafiki i formatami takimi jak PDF, umożliwiły udostępnianie informacji online w formacie wysokiej jakości. Ponadto sieć i jej rosnąca baza użytkowników rozszerzyły opcje dostępu i otworzyły drzwi do nowych funkcji. Chociaż biblioteki nadal odgrywały rolę w zapewnianiu dostępu do informacji, nie kładziono nacisku na przechowywanie tych informacji w formie fizycznej, a coraz większa liczba wydawców i sprzedawców udostępniała swoje materiały w formie elektronicznej.
Dostęp do czasopism
Istnieje wiele rodzajów seriali, ale czasopismo jest głównym źródłem literatury naukowej dla większości badaczy akademickich. Chociaż użytkownicy mogli uzyskiwać dostęp do niektórych czasopism za pośrednictwem baz danych obsługiwanych przez bibliotekarzy, inne czasopisma elektroniczne zaczęły pojawiać się na początku lat 90., często jako treści przesyłane pocztą elektroniczną. Niektóre z nich nie miały odpowiednika drukowanego i były dostępne wyłącznie w formie elektronicznej. Ogólnie rzecz biorąc, czasopisma elektroniczne były wyjątkiem, a nie regułą. Jednak dzisiaj większość bibliotekarzy uważałaby czasopisma przeznaczone wyłącznie do druku za wyjątek, a nie regułę. Większość wydawców prasy komercyjnej, społecznej i uniwersyteckiej udostępnia treści swoich czasopism online. Często wiele z nich umożliwia przeszukiwanie ich treści przez każdego, ale pełny dostęp nadal wymaga zapłaty. Wiele z nich zdigitalizowało również całe archiwa swoich czasopism i/lub współpracowało ze źródłami takimi jak JSTOR, aby je udostępnić. Dokładna liczba czasopism naukowych jest trudna do określenia, ale według raportu Marka Ware'a i Michaela Mabe z 2015 r. "The STM Report: An Overview of Scientific and Scholarly Journal Publishing" istnieje ponad 34 000 aktywnych recenzowanych czasopism z wielu dziedzin i języki. Duża część tego dostępu pozostaje płatna. Biblioteki muszą płacić za dostęp, a indywidualni użytkownicy muszą płacić za artykuły, aby uzyskać dostęp. Jednak czasopisma o otwartym dostępie, które zapewniają bezpłatny dostęp do całej ich zawartości, niegdyś rzadkie, są teraz powszechne. Niektórzy wydawcy pozwalają nawet autorom uiścić opłatę za udostępnienie ich poszczególnych artykułów (w tradycyjnym czasopiśmie z płatną subskrypcją), podczas gdy reszta treści czasopisma nadal wymaga dostępu do biblioteki lub indywidualnego zakupu. Czasopisma o otwartym dostępie (niektóre z nich zaczęły się jako wczesne czasopisma elektroniczne dostarczane za pośrednictwem poczty elektronicznej) są coraz bardziej powszechne, a dostępnych jest wiele modeli otwartego dostępu. Gazety są głównym źródłem informacji od setek lat. Wiele bibliotek odpowiedziało na zapotrzebowanie na dostęp do treści starszych gazet, gromadząc wieloletnie mikrofilmy gazet. Chociaż wygodne do przechowywania, mikrofilm jest niewygodny w wyszukiwaniu i odzyskiwaniu. Biorąc pod uwagę liczbę gazet produkowanych na świecie, większość bibliotek musiała, ze względu na miejsce i budżet, bardzo selektywnie wybierać liczbę tytułów, które były w stanie udostępnić. Po debiucie sieci niektóre gazety umieściły niektóre (ale niekoniecznie wszystkie) swoje aktualne treści w Internecie. Biblioteki w końcu zaczęły współpracować z dostawcami baz danych w celu zakupu dostępu online do najnowszych treści, aw niektórych przypadkach do całych nakładów gazet, z których większość nie była dostępna bezpłatnie. Umożliwiło im to wykroczenie poza selektywność wymaganą przez fizyczne przechowywanie. z całego świata i w dużo szybszy sposób. Biblioteki akademickie, które wspierają programy dotyczące języków innych niż angielski oraz te, które badają kultury międzynarodowe, mają dostęp do dziesięcioleci lub więcej gazet z całego świata. Wiele bibliotek publicznych również subskrybuje takie bazy danych gazet, a biblioteki obsługujące zróżnicowaną społeczność mogą również subskrybować bazy danych z gazetami w szerszym języku i kraju. Oprócz dostępu, możliwość wyszukiwania w wielu gazetach uprościła wyszukiwanie i pobieranie. Po przeszukaniu wielu narzędzi do wyszukiwania dostępnych w bibliotekach użytkownik często musi zweryfikować dostęp do zawartości elementu. Sprawdzanie dostępu jest również znacznie prostsze niż w początkach sieci. Bazy danych i dostęp bibliotek do treści zostały odłączone, co wymagało od użytkowników osobnego sprawdzania dostępu w katalogu biblioteki. Teraz biblioteki mogą korzystać z programów do rozpoznawania linków w celu sprawdzania dostępu do bibliotek. Jest to ważne, ponieważ dostęp może odbywać się wieloma kanałami, na przykład bezpośrednio z wydawcą, za pośrednictwem agregatora wielu wydawców lub za pośrednictwem pełnotekstowej bazy danych. Możliwość przeszukiwania bazy danych, kliknięcia przycisku i sprawdzenia dostępu eliminuje kilka kroków wymaganych w czasach drukowania lub wczesnych dni internetowych. Korzystanie z narzędzi do rozpoznawania linków jest tak ważne, że można je nawet aktywować w ustawieniach Google Scholar. Korzystanie z Google Scholar jest bezpłatne, ale wyniki wyszukiwania nie zawsze są bezpłatne. Przeszukuje więcej zasobów naukowych i choć obfituje w artykuły z czasopism, zawiera także artykuły konferencyjne, książki i inne źródła. Zawiera elementy niektórych bibliotek baz danych, które od dawna są przydatne. Umożliwia dostęp zarówno do bezpłatnej, jak i płatnej literatury naukowej. Podaje informacje o wskaźnikach cytowań znalezionej literatury, podobnie jak płatne bazy danych Web of Science i Scopus. Chociaż znajduje trochę bezpłatnych treści, ważne jest, aby użytkownicy skonfigurowali swoje narzędzie do rozpoznawania linków, aby zagwarantować dostęp do jeszcze większej ilości treści, które zapewnia ich biblioteka.
Dostęp do książek
Bazy danych, czasopisma i inne czasopisma są dostępne online od pewnego czasu, ale książki stały się dostępne w formie elektronicznej dla użytkowników bibliotek dopiero po dłuższym czasie. Podręczniki, takie jak encyklopedie, słowniki i podręczniki, to zasoby rzadko czytane od deski do deski. Pozycje drukowane i biblioteki były zwykle głównymi klientami wielu z tych tytułów, które czasami mogły być specyficzne tematycznie. Ich producenci zaczęli udostępniać je online bibliotekom, czasem jako część wielotytułowych baz danych. Książki niereferencyjne udostępnione jako e-booki ostatecznie zyskały na popularności, ponieważ popyt na dostęp online skłonił wielu wydawców do udostępnienia swoich książek (lub ich wybranych książek). Jednak dostęp jest często zupełnie inny w przypadku książek niż w przypadku czasopism i baz danych i różni się znacznie w zależności od platformy i wydawcy. Na przykład nierzadko zdarza się, że biblioteka publiczna ma e-książki, które "potwierdzają" użytkownikom, podobnie jak książka drukowana. Książka jest wtedy niedostępna dla innych czytelników biblioteki, dopóki nie zostanie "zwrócona". Niektórzy wydawcy ograniczają liczbę wypożyczeń e-booków, zanim pobiorą opłaty od bibliotek za kolejne zakupy. Biblioteka akademicka może posiadać pozycje o podobnym modelu, ale może też zapewniać użytkownikom nieograniczony dostęp do niektórych tytułów i ograniczony dostęp użytkowników do innych. Dostęp może odbywać się za pośrednictwem agregatora, który umożliwia zakup częściowy lub pakietowy, za pośrednictwem pełnotekstowej bazy danych e-booków z wieloma wydawcami lub bezpośrednio do własnej biblioteki e-booków wydawców. Wielu wydawców, którzy produkują zarówno czasopisma, jak i książki, często umieszcza je razem na platformie, dzięki czemu można je przeszukiwać i używać w tym samym miejscu. Niektóre biblioteki korzystają z pozyskiwania e-booków na żądanie, aby umożliwić użytkownikom decydowanie, które książki staną się częścią zbiorów bibliotecznych. W niektórych przypadkach niektóre książki w ogóle nie są udostępniane bibliotekom jako e-booki - częstym przykładem są podręczniki. Niektóre przedsięwzięcia związane z digitalizacją książek, zwłaszcza tych, które nie są już objęte prawami autorskimi, zwiększyły dostępność treści. Projekt Gutenberg, Internet Archive i Google Books to cenne zasoby, z których można korzystać bezpłatnie. Niektóre projekty digitalizacji e-booków mają na celu sprzedaż starszych (ale często wciąż chronionych prawem autorskim) tomów bibliotekom i osobom fizycznym. Wysiłki te kierowały przede wszystkim duże prasy komercyjne, społeczne i uniwersyteckie. Niektóre biblioteki zrealizowały własne projekty digitalizacji lub współpracowały przy większych wysiłkach, takich jak HathiTrust, aby udostępnić starsze materiały swoim wyborcom (aw wielu przypadkach każdemu na świecie, kto chce z nich korzystać).
Materiały audiowizualne
Materiały audiowizualne są również kluczowymi zasobami bibliotecznymi i od dłuższego czasu są dostępne w formatach fizycznych. Internet umożliwia obecnie bibliotekom zapewnianie dostępu do takich materiałów drogą strumieniową. Muzyka, audiobooki, filmy przesyłane strumieniowo i obrazy są dostępne dla bibliotek za pośrednictwem wielu różnych dostawców. Nie ogranicza się to tylko do starych lub nowych treści. Wielu dostawców udostępnia strumieniowo wideo (zarówno kinowe, jak i instruktażowe/dokumentalne), muzykę, obrazy (fotografie, diagramy, mapy) i inne media. Duża ilość zdigitalizowanych treści z poprzednich formatów stała się dostępna jako treści przesyłane strumieniowo. Niektóre z nich należą do domeny publicznej, ale większość treści udostępnianych przez biblioteki jest objęta prawami autorskimi i nie jest legalnie dostępna do bezpłatnego dostępu online (chociaż niektóre zasoby opłacane przez użytkowników mogą być opcjami dostępu).
Zamawianie materiałów z innych bibliotek
W przeszłości, jeśli biblioteka nie miała tego, czego ktoś potrzebował, mogło to spowodować rozczarowanie czytelnika lub prośbę o wypożyczenie międzybiblioteczne, z odpowiednim czasem oczekiwania na wysłanie potrzebnej pozycji pocztą. Zwiększone możliwości Internetu i innego oprogramowania przyspieszyły wypożyczanie międzybiblioteczne, a krótsze pozycje, takie jak artykuły i rozdziały książek, można nawet dostarczać elektronicznie w formacie PDF. Wiele bibliotek współpracuje w formie konsorcjum, łącząc swoje treści we wspólnym katalogu związkowym, który umożliwia użytkownikom żądanie dostarczenia fizycznych elementów w ramach konsorcjum, zamiast konieczności składania oddzielnego wniosku o wypożyczenie międzybiblioteczne. W ten sposób pozyskiwanie treści, które nie są własnością biblioteki, może być łatwe, odbywać się zdalnie i często skutkuje dostawą online artykułów i rozdziałów książek.
Repozytoria instytucjonalne
Biblioteki zajmują się nie tylko materiałami informacyjnymi tworzonymi przez innych, ale także treściami tworzonymi lokalnie. Obejmuje to treści tekstowe i audiowizualne. Wiele bibliotek akademickich i specjalnych albo współpracuje z innymi w swoich instytucjach, albo samodzielnie zarządza instytucjonalnymi repozytoriami, aby zapewnić dostęp online do prac swoich badaczy i informacji związanych z ich instytucją. Może to obejmować pozycje, które mogą być trudno dostępne w formie drukowanej poza instytucją, takie jak raporty techniczne, zbiory archiwalne, biuletyny wewnętrzne i inne komunikaty, dokumenty i prezentacje z lokalnych spotkań, a nawet prace studentów (prace magisterskie, dysertacje i produkty na poziomie licencjackim) ). Wpływ jest tak szeroki, że wielu wydawców czasopism ustaliło zasady dotyczące przesyłania przez autorów prac do repozytorium ich instytucji. Zasady mogą zawierać określone zasady dotyczące tego, kiedy coś można przesłać i czy autor może przesłać zaakceptowany manuskrypt, wersję próbną przeddruku lub ostateczną opublikowaną pracę. Niektórzy wydawcy w ogóle nie zezwalają na przesyłanie do repozytoriów. Działy zbiorów specjalnych, archiwa, muzea i inne instytucje mogą współpracować z repozytoriami instytucjonalnymi lub tworzyć własne repozytoria lub kolekcje cyfrowe, aby zapewnić dostęp i możliwość wyszukiwania materiałów, które często nie były dostępne w ramach wypożyczeń międzybibliotecznych i wymagały wizyty w bibliotece będącej właścicielem .
Wykrywalność
Bibliotekom łatwiej jest radzić sobie z formatami fizycznymi pod względem odkrywania ich przez użytkowników. Kiedy biblioteka nabywa pozycję, zostaje ona skatalogowana. Płatne pozycje elektroniczne można również udostępniać za pośrednictwem katalogów bibliotecznych lub przeszukując bazy danych, które subskrybuje biblioteka. Biblioteki mogą również dodawać bezpłatne zasoby internetowe, które uznają za szczególnie przydatne, do katalogu bibliotecznego, do swojej listy baz danych lub w innych miejscach na swojej stronie internetowej. Bibliotekarze próbowali kilku sprawdzonych "katalogowania" sieci, w tym prób masowego wykorzystania w ramach przedsięwzięć takich jak Internet Public Library i Librarians' Internet Index (które połączyły się, a później stały się starszą witryną - innymi słowy, nie są już aktualizowane). Takie przedsięwzięcia były próbą weryfikacji źródeł, dając internautom bardziej naukowe podejście do wyszukiwanych źródeł niż ogólne narzędzia wyszukiwania, takie jak Google. Biblioteki (zwłaszcza akademickie) mogą korzystać z internetowych pomocy wyszukiwania (podobnych do materiałów informacyjnych, które mogły kiedyś udostępniać, a czasem nadal udostępniają w formie drukowanej), takich jak LibGuides lub nawet zwykłe strony internetowe, które kierują użytkowników do określonej biblioteki lub bezpłatnych zasobów przydatnych w danym temacie lub Tematyka.
Usługi biblioteczne
Poza zbiorami usługi biblioteczne są udoskonalane dzięki wykorzystaniu Internetu. Pomoc czytelnikom w wyszukiwaniu informacji jest podstawową usługą większości bibliotek. Kiedy dana osoba utknie w procesie badawczym, wcześniej wymagało to fizycznej wizyty w bibliotece, rozmowy telefonicznej, a nawet listu. Internet pozwala na korespondencję e-mailową, a biblioteki mogą również korzystać z systemów internetowych do przyjmowania i kierowania pytań użytkowników do odpowiedniej osoby. Bibliotekarze i klienci mogą również korzystać z narzędzi czatu do przeprowadzania zdalnych transakcji synchronicznych. Tym samym bibliotekarze są dostępni osobiście i wirtualnie w niektórych bibliotekach. Jest to ważna usługa, zwłaszcza że wielu użytkowników uzyskuje zdalny dostęp do zasobów. Umożliwia udostępnianie linków do zasobów, co nie jest łatwe do zrobienia przez telefon lub osobiście. Biblioteki akademickie i niektóre biblioteki specjalne, zwłaszcza począwszy od 2010 roku, były bardzo zaangażowane w przetwarzanie danych tworzonych przez ich badaczy. Są zainteresowani tym, jak obchodzić się z tymi danymi w perspektywie krótko- i długoterminowej w świetle mandatów rządowych związanych z finansowaniem grantów, a także potrzeb ich instytucji i jej badaczy. Chociaż większość bibliotek nie jest w stanie przechowywać bardzo dużych zbiorów danych, mogą one współpracować z odbiorcami grantów, aby jak najlepiej spełnić te wymagania. Może to obejmować tradycyjną wiedzę biblioteczną, taką jak opis, dostęp, wykrywalność i konserwacja. Wraz z rozwojem Internetu biblioteki musiały dostosować nie tylko format, w jakim kupują lub subskrybują materiały, ale także swoje nauczanie. Przy tak dużej ilości dostępnych informacji biblioteki nie są już jedynym źródłem informacji na terenie kampusu lub w społeczności. Próżność prasy pozwalają ludziom publikować własne książki (a w rzadszych przypadkach artykuły w czasopismach). Internet może pozwolić ludziom być ich własnym wydawcą. Proste zasady, takie jak unikanie witryn .com jako źródeł, są często zbyt proste. Na przykład, chociaż wiele informacji pozanaukowych pojawia się na stronach komercyjnych, podobnie jak ogromna część literatury w czasopismach, ponieważ duzi wydawcy czasopism, tacy jak Elsevier, Sage, Springer, Taylor & Francis i Wiley, są komercyjni. Bibliotekarze musieli dostosować swoje nauczanie, aby wskazać niuanse oceny tego, co jest naukowe; te niuanse się skomplikowały. Dyplomowani uczeni w danej dziedzinie, uczeni-samouki i laicy z opinią, ale bez doświadczenia w danej dziedzinie, mogą publikować strony internetowe, współtworzyć blogi, a nawet umieszczać całe książki w Internecie. Nauczanie użytkowników o kwestiach takich jak autorytet, stronniczość i ocena źródeł jest ważną częścią umiejętności korzystania z informacji w środowisku online. Materiały szkoleniowe będące własnością lub subskrybowane przez biblioteki, w które biblioteki akademickie są zaangażowane od dziesięcioleci, są teraz czasami osadzone w treściach kursów online za pośrednictwem systemów zarządzania nauczaniem (LMS), takich jak Blackboard, Canvas i Desire2Learn, umożliwiając studentom dostęp do treści bibliotecznych, których oczekuje ich profesor wyświetlić dla klasy bez konieczności wizyty w fizycznej bibliotece. E-książki, artykuły z czasopism, media strumieniowe, a czasami bazy danych są połączone w LMS, aby uczniowie mogli je przeglądać w dowolnym czasie z dowolnego miejsca. Dostęp do bibliotekarzy i pomocy, takich jak LibGuides, może być również osadzony w treści kursu za pośrednictwem LMS. Jednak wiele pozycji celowo wyprodukowanych jako podręczniki może mieć ograniczony dostęp do bibliotek, chociaż niektóre biblioteki współpracują z wydawcami i sprzedawcami, aby udostępniać je również w formie elektronicznej. Biblioteki mogą również oferować szereg innych usług za pośrednictwem Internetu. Mogą go używać do komunikowania się z użytkownikami za pośrednictwem poczty elektronicznej i mediów społecznościowych. Biblioteki publiczne mogą oferować uczniom z danej społeczności opcje pomocy w odrabianiu zadań domowych. Biblioteki publiczne są również ważnymi zasobami dla szkół, które zostały zmuszone do zmniejszenia lub wyeliminowania swoich bibliotek z powodu niedoborów finansowych. Biblioteki publiczne mogą zapewniać dostęp do zasobów dotyczących kariery i kształcenia ustawicznego, umożliwiając użytkownikom doskonalenie umiejętności w wielu dziedzinach. Biblioteki nie są już jedynymi, dominującymi dostawcami zasobów informacyjnych dla swoich społeczności. Masowy dostęp do Internetu i narzędzi, takich jak smartfony i laptopy, oznacza łatwy dostęp do szerokiej gamy zasobów bez konieczności korzystania z biblioteki. Informacje naukowe są jednak nadal bardzo poza zasięgiem ze względu na prosty fakt, że twórcy dużej części informacji naukowych dostępnych online wymagają zapłaty za dostęp. Kupując lub subskrybując te zasoby, biblioteki udostępniają je swoim wyborcom, aby nie musieli płacić za dostęp do każdego potrzebnego artykułu, książki lub elementu audiowizualnego. Ze względu na bariery kosztowe i możliwość zapewnienia szerokiej gamy opcji treści, biblioteki są nadal głównym źródłem informacji dla badaczy wymagających dostępu do źródeł naukowych, nawet jeśli osoby te nie muszą przechodzić przez fizyczne drzwi bibliotek.
Jedną z najważniejszych branż, na które ma wpływ Internet, jest bankowość, zwana także bankowością internetową, bankowością elektroniczną lub bankowością mobilną. Bankowość internetowa to system płatności elektronicznych, który umożliwia klientom banków dokonywanie transakcji finansowych z poziomu komputera lub urządzenia mobilnego za pośrednictwem zabezpieczonej strony internetowej ich banku. Bankowość internetową można sklasyfikować na podstawie rodzajów usług świadczonych klientom, w tym informacyjnych, komunikacyjnych i transakcyjnych. Bankowość internetowa ma charakter informacyjny, gdy bank prezentuje na swojej stronie internetowej informacje o swoich produktach. Bank kontroluje zawartość strony internetowej, które są zabezpieczone przed zewnętrznymi manipulacjami. Komunikacyjna bankowość internetowa oznacza dwukierunkowy interfejs między klientami a bankiem; jest to platforma, na której klienci mogą przekazywać swoje potrzeby bankowe, takie jak wnioski kredytowe i zapytania o saldo. Transakcyjna bankowość internetowa oznacza usługi, w ramach których klient może przetwarzać transakcje bankowe na zabezpieczonej stronie internetowej lub w aplikacjach banku, w tym płacić rachunki, przekazywać środki i uzyskiwać dostęp do rachunków. Banki wcześniej rozliczały czeki, dokonywały płatności i zbierały depozyty ręcznie. Ręczne przetworzenie czeku przez kasjera kosztuje szacunkowo 1,10 USD; Internet znacznie zmniejszył lub wyeliminował te koszty. Tymczasem klienci banków również czerpią korzyści z korzystania z bankowości internetowej. Na przykład klienci mają znacznie większy dostęp do swoich rachunków finansowych w bankowości internetowej w porównaniu z bankowością tradycyjną, gdzie transakcje można wykonywać tylko w godzinach otwarcia oddziału banku. Bankowość internetowa zapewnia klientom banków jednoznaczny dostęp do swoich pieniędzy. Aby korzystać z bankowości internetowej, klienci banku muszą posiadać dedykowany dostęp do Internetu. Klient musi zalogować się do zabezpieczonej witryny lub aplikacji banku, wprowadzając osobiste dane uwierzytelniające, czyli nazwę użytkownika i hasło. W przypadku dokonywania transakcji, takiej jak płatność lub przelew, klienci zobowiązani są do uzyskania kodu autoryzacyjnego. Kod autoryzacyjny nie jest tożsamy z numerem konta klienta, ale kod jest powiązany z kontem klienta. Klient wprowadza kod na zabezpieczonej stronie internetowej lub w aplikacji, aby uzyskać dostęp w celu dokonania transakcji. Ten wpis omawia historię i przyczyny bankowości internetowej; jego korzyści i wyzwania; oraz w jaki sposób firmy i klienci zarządzają nieodłącznym ryzykiem.
Adopcja bankowości internetowej
Bankowość internetowa została po raz pierwszy wprowadzona przez cztery główne banki (Citibank, Chemical Bank, Chase Manhattan i Manufacturers Hanover) na początku lat 80. w Stanach Zjednoczonych. Banki te świadczyły usługi internetowe, które umożliwiały klientom małych i średnich przedsiębiorstw oraz klientom indywidualnym banków zarządzanie elektronicznymi książeczkami czekowymi, sprawdzanie sald na rachunkach oraz dokonywanie przelewów. Bankowość internetowa została następnie zapoczątkowana przez Wielką Brytanię i Francję. W latach 90. banki dostrzegły wzrost korzystania przez klientów z bankowości internetowej i wykorzystały to do reklamowania swoich produktów i innych usług na portalach bankowości internetowej. Wells Fargo był pierwszym bankiem, który dodał usługi konta do swojej strony internetowej. Bank Prezydencki jako pierwszy umożliwił klientom otwieranie rachunków bankowych na portalu bankowości internetowej przed innymi bankami , Stany Zjednoczone poszły w ich ślady.
Korzyści z bankowości internetowej
Korzyści z bankowości internetowej są nie do przecenienia. Kilku badaczy zwróciło uwagę na ogromne ulepszenia, jakie bankowość internetowa zapewniła sektorowi bankowemu. Bankowość internetową można sklasyfikować jako przełom, ponieważ jej powstanie zapewniło bankom opłacalny mechanizm działania. Na przykład banki nie potrzebują dużej liczby pracowników, ponieważ Internet sprawia, że klienci prowadzą swoją działalność na zasadzie samoobsługi za pośrednictwem portalu bankowości internetowej. Obniżeniu uległy koszty obsługi administracyjnej i logistyki biurowej, ponieważ większość usług świadczona jest online. Bankowość internetowa ograniczyła praktyki klientów podróżujących do banków i stojących tam w kolejkach, ponieważ Internet daje im możliwość dokonywania transakcji z domu. Badania wykazały, że koszt prowadzenia bankowości internetowej jest niższy niż koszt budowy budynku do prowadzenia tradycyjnych operacji bankowych. Banki wydają średnio 25 000 USD na stworzenie strony internetowej i nieco ponad 20 000 USD rocznie na jej utrzymanie. Koszt ten jest wciąż znacznie niższy niż prowadzenie tradycyjnego oddziału banku. Klienci również korzystają z zalet bankowości internetowej. Bankowość internetowa umożliwia klientom wygodne przetwarzanie transakcji, takich jak weryfikacja listy ostatnich transakcji, uzyskiwanie sald na rachunkach, elektroniczne opłacanie rachunków, przelewy środków czy pobieranie wyciągów bankowych. Bankowość internetowa zapewnia klientom dostęp do rachunków 24 godziny na dobę, 7 dni w tygodniu, praktycznie z każdego miejsca. A więc zwyczaj mogą cieszyć się większą autonomią w zarządzaniu swoimi pieniędzmi. Wyzwania bankowości internetowej .O ile bankowość internetowa zapewnia liczne korzyści zarówno klientom, jak i bankom, jest również obarczona problemami i pułapkami. Przerwa w świadczeniu usług internetowych może spowodować niedostępność platformy bankowości internetowej, co wiąże się z niedogodnościami. Bankowość internetowa naraża klientów banku na kilka zagrożeń bankowych, w tym kradzież tożsamości, oszustwa kredytowe i hakowanie. Dzięki dostępowi do osobistych numerów identyfikacyjnych klientów i innych danych uwierzytelniających inna osoba może przeprowadzać transakcje biznesowe w imieniu klienta, ponieważ dalsze uwierzytelnianie, takie jak dowody osobiste i podpisy, nie są wymagane. Bezpieczeństwo ma zasadnicze znaczenie dla bankowości internetowej. Klienci są przekonani do korzystania z usług bankowości internetowej, gdy czują, że ich transakcje w portalu bankowości internetowej są bezpieczne. Jednak bankowość internetowa stwarza ryzyko dla sektora bankowego, w tym ryzyko kredytowe, ryzyko transakcyjne, ryzyko cenowe i inne. Ryzyko kredytowe jest określane jako ryzyko związane z udzielaniem kredytów klientom. Klienci mają możliwość ubiegania się o pożyczkę lub kredyt niezależnie od swojego położenia geograficznego. Tym samym banki nie są w stanie uwierzytelnić danych kontaktowych klientów, co może prowadzić do braku spłaty zadłużenia. Ryzyko cenowe to ryzyko związane z kursem walutowym. Ryzyko transakcyjne to ryzyko związane z zyskami i transakcjami kapitałowymi, które wynikają z oszustw, błędów i braku zarządzania informacjami. Tendencje do upraszczania obsługi i łatwo dostępnego systemu bankowości internetowej stwarzają luki dla oszustów.
Zarządzanie Ryzykiem Bankowości Internetowej
Bezpieczeństwo informacji powierniczych klientów ma kluczowe znaczenie. Naruszenie protokołów bezpieczeństwa uczyniłoby bankowość internetową bezużyteczną i nadszarpnęłoby reputację banku. W związku z tym banki zastosowały kilka strategii ograniczających ryzyko nieuprawnionego dostępu do systemu. Na przykład w przelewach bankowych banki wprowadziły kod dostępu do transakcji, w którym kody są wysyłane na telefon komórkowy klienta w celu uwierzytelnienia autoryzacji. Kod dostępu do transakcji wysyłany jest na numer telefonu komórkowego podany przez klienta podczas wstępnej rejestracji. Informuje to klienta o zamierzonej transakcji. Następnie klient musi wprowadzić ten kod do systemu przed przetworzeniem przelewu. Ponadto banki wprowadziły bankowość internetową opartą na podpisach, w ramach której klienci proszeni są o cyfrowy podpis przed udzieleniem dostępu do rachunku bankowego. Klienci proszeni są o podanie unikalnej nazwy, która może być używana jako podpis przy dostępie transakcyjnym.
Czynniki cenzury, które prowadzą
Klienci do korzystania z bankowości internetowej
Mimo, że bankowość internetowa jest kojarzona z pewnym poziomem ryzyka, zyskała znaczną popularność ze względu na swoje ogromne zalety. Pewne czynniki wpływają na to, że klienci korzystają z bankowości internetowej. Czynniki te mogą obejmować zaufanie do bezpieczeństwa i integralności systemu bankowości internetowej. Zaufanie klientów do korzystania z systemu wzrasta, gdy jest on uznawany za godny zaufania, czyli gdy czują, że ich transakcje i informacje są bezpieczne przed oszustwami i manipulacjami. Klienci czują się bezpiecznie korzystając z bankowości internetowej, gdy widzą, że ich zaangażowanie w korzystanie z systemu nie jest równoznaczne z utratą środków i ważnych informacji.