Bezpieczeństwo AI



Bezpieczeństwo sztucznej inteligencji (AI) to wyłaniająca się interdyscyplinarna dziedzina nauki zajmująca się zapewnianiem bezpieczeństwa i ochrony sztucznie inteligentnych systemów. Inżynierowie, informatycy, filozofowie, ekonomiści, kognitywisty i eksperci z wielu innych dziedzin zaczynają zdawać sobie sprawę, że pomimo różnic w terminologii i podejściach wszyscy pracują nad wspólnym zestawem problemów związanych z kontrolą niezależnych inteligentnych agentów. Historycznie rzecz biorąc, takie badania były prowadzone pod różnymi etykietami, takimi jak etyka sztucznej inteligencji, przyjazna sztuczna inteligencja, badania osobliwości, kontrola superinteligencji, weryfikacja oprogramowania, etyka maszyn i wiele innych. Doprowadziło to do nieoptymalnej wymiany informacji między praktykami, dezorientującego braku wspólnej terminologii, a w rezultacie do ograniczonych możliwości uznania, publikacji i finansowania. Internet i media społecznościowe są domem dla wielu inteligentnych agentów (tzw. botów), które udając ludzi, mogą odpowiadać na pytania, angażować użytkowników lub stwarzać zabawnych przeciwników w grach. Tacy agenci należą do szerszej domeny sztucznie inteligentnego oprogramowania, które stanowi podstawę wielu zasobów internetowych, w tym wyszukiwarek, systemów rekomendacji, globalnych systemów pozycjonowania i komunikacji e-mailowej. Rzeczywiście, prawie niemożliwe jest znalezienie oprogramowania nie korzystającego z jakiegoś aspektu sztucznej inteligencji. Tradycyjne badania nad sztuczną inteligencją miały na celu zwiększenie możliwości inteligentnego oprogramowania. Bezpieczeństwo SI to dziedzina badań na styku SI i cyberbezpieczeństwa, której celem jest uczynienie SI korzystną; w szczególności badacze bezpieczeństwa sztucznej inteligencji starają się, aby inteligentne oprogramowanie było bezpieczne i chronione przed awariami i włamaniami. Roman Yampolskiy, ekspert ds.bezpieczeństwa cybernetycznego z University of Louisville, został uznany za twórcę wyrażenia inżynieria bezpieczeństwa sztucznej inteligencji i jej skrótowego zapisu Bezpieczeństwo AI w 2010 r., aby nadać nazwę nowemu kierunkowi badań, którego propagował, aby uczynić sztuczną inteligencję korzystną. Wcześniej najczęstszymi nazwami odpowiednich pojęć były etyka maszyn lub przyjazna sztuczna inteligencja, ale dziś termin bezpieczeństwo sztucznej inteligencji jest szeroko stosowany do identyfikacji dziedziny, a sama dziedzina staje się głównym nurtem. W pozostałej części tego wpisu omówiono pracę badaczy zajmujących się bezpieczeństwem SI, awarie techniczne sztucznej inteligencji oraz metody testowania systemów SI.

Obszary badań nad bezpieczeństwem AI

Prace badaczy zajmujących się bezpieczeństwem SI koncentrują się na tym, aby systemy AI były korzystne na wszystkich etapach rozwoju. Bezpieczeństwo sztucznej inteligencji jest wykorzystywane w wielu praktycznych zastosowaniach, takich jak ograniczanie dostępu botów do zasobów obliczeniowych, takich jak bezpłatne konta e-mail, ankiety do głosowania online i gry wideo. Boty mogą nadużywać wielu bezpłatnych usług, wysyłając spam lub przeprowadzając ataki socjotechniczne przeciwko legalnym użytkownikom. Algorytmy CAPTCHA (Całkowicie zautomatyzowany publiczny test Turinga w celu rozróżnienia komputerów i ludzi) są używane do ograniczania dostępu tylko do użytkowników, którzy mogą udowodnić, że są ludźmi, za pomocą testu typu wyzwanie-odpowiedź. Innym praktycznym zastosowaniem jest wykrywanie i usuwanie uprzedzeń rasowych lub płciowych z algorytmów podejmowania decyzji. Jeśli takie algorytmy zostaną przeszkolone w zakresie zanieczyszczonych danych, wynikowy klasyfikator sam zostanie zanieczyszczony, co może skutkować niekorzystną decyzją wobec niektórych grup, na przykład odmową kredytów hipotecznych mniejszościom. Niepokój budzi też wrogie wykorzystywanie sztucznej inteligencji do popełniania przestępstw. Oprogramowanie takie jak wirusy komputerowe powoduje miliardy dolarów szkód. Wraz z pojawieniem się coraz bardziej wydajnych programów sztucznej inteligencji można zautomatyzować wiele różnych przestępstw i zorganizować bardzo potężne ataki socjotechniczne. Źli aktorzy mogą uzyskać zdolność do popełniania zaawansowanej cyberprzestępczości, uzyskując dostęp do oprogramowania AI typu open source i odpowiednio je modyfikując. Wraz z postępem technologicznym do przeprowadzania wyrafinowanych ataków będą potrzebne bardzo niewielkie umiejętności programowania, dlatego badacze bezpieczeństwa sztucznej inteligencji szukają sposobów na zintegrowanie mechanizmów bezpieczeństwa z produktami sztucznej inteligencji.

Awarie techniczne AI

Techniczne awarie sztucznej inteligencji są bezpośrednio związane z błędami wywoływanymi przez inteligencję, które takie systemy są zaprojektowane. Takie niepowodzenia można ogólnie podzielić na (a) błędy w fazie uczenia się i (b) błędy w fazie wydajności. System może nie nauczyć się tego, czego chcą jego ludzcy projektanci, a zamiast tego nauczyć się innej, ale skorelowanej funkcji. Często przytaczanym przykładem jest komputerowy system wizyjny, który miał klasyfikować zdjęcia czołgów, ale zamiast tego nauczył się rozróżniać tła takich obrazów. Inne przykłady obejmują problemy spowodowane źle zaprojektowanymi funkcjami użytkowymi nagradzającymi tylko częściowo pożądane zachowania agentów, takie jak jazda na rowerze w kółko wokół celu, wstrzymywanie gry w celu uniknięcia przegranej lub wielokrotne dotykanie piłki w celu uzyskania uznania za posiadanie. W fazie wydajności istnieje wiele możliwych przyczyn, które mogą prowadzić do awarii AI. System prawny stoi za możliwościami technologicznymi, a dziedzina moralności maszyn jest w powijakach. Problem sterowania inteligentnymi maszynami jest obecnie uznawany za poważny problem, a wielu badaczy wciąż sceptycznie odnosi się do jego przesłanek. Od 2017 r. Tylko około 100 osób na całym świecie pracowało nad rozwiązaniem obecnych ograniczeń w naszym zrozumieniu i umiejętnościach w tej dziedzinie. Szacuje się, że tylko kilkanaście z nich ma formalne przeszkolenie w zakresie informatyki, cyberbezpieczeństwa, kryptografii, teorii decyzji, uczenia maszynowego, weryfikacji formalnej, informatyki śledczej, steganografii, etyki, matematyki, bezpieczeństwa sieci, psychologii i innych odpowiednich dziedzin. Nietrudno zauważyć, że problem stworzenia bezpiecznej i sprawnej maszyny jest znacznie większy niż problem wykonania tylko sprawnej maszyny. Jednak tylko około 1% naukowców jest obecnie zaangażowanych w ten problem, a dostępne poziomy finansowania są nawet poniżej tej granicy. Jako stosunkowo młody i niedofinansowany kierunek studiów, bezpieczeństwo sztucznej inteligencji mogłoby skorzystać na przyjęciu metod i pomysłów z bardziej ugruntowanych dziedzin nauki. Podjęto próby wprowadzenia technik, które zostały po raz pierwszy opracowane przez ekspertów ds. cyberbezpieczeństwa, aby zabezpieczyć systemy oprogramowania w tej nowej dziedzinie zabezpieczania inteligentnych maszyn. Inne dziedziny, które mogą służyć jako źródło ważnych technik, obejmują inżynierię oprogramowania i weryfikację oprogramowania.

Testowanie systemów AI

Podczas iteracyjnego testowania i debugowania tworzenia oprogramowania, tworzenie niezawodnego i bezpiecznego kodu ma fundamentalne znaczenie. Chociaż zakłada się, że każde skomplikowane oprogramowanie będzie miało pewne błędy, z wieloma zaawansowanymi technikami dostępnymi w zestawie narzędzi inżynierów oprogramowania, najpoważniejsze błędy można wykryć i naprawić, w wyniku czego produkt będzie odpowiedni do zamierzonych celów. Modułowe techniki programowania i testowania stosowane w branży oprogramowania mogą być wykorzystywane podczas opracowywania inteligentnych agentów, ale jest mało prawdopodobne, aby metody testowania gotowego pakietu oprogramowania można było przenosić w ten sam sposób. Testy alfa i beta, które polegają na udostępnianiu zaawansowanym użytkownikom prawie ukończonego oprogramowania w celu zgłaszania problemów napotkanych w realistycznych sytuacjach, nie byłyby dobrym pomysłem w dziedzinie testowania / debugowania superinteligentnego oprogramowania ze względu na nieprzewidywalność konsekwencji. Podobnie samo uruchomienie oprogramowania, aby zobaczyć, jak działa, nie jest wykonalne w przypadku superinteligentnego agenta. W informatyce teoretycznej powszechnym sposobem wyodrębnienia istoty trudnego problemu jest metoda redukcji do innego, czasem lepiej przeanalizowanego problemu. Jeśli taka redukcja jest możliwa i jest wydajna obliczeniowo, oznacza to, że jeśli lepiej analizowany problem zostanie w jakiś sposób rozwiązany, będzie to również działające rozwiązanie problemu. Problem bezpieczeństwa AI można sprowadzić do problemu upewnienia się, że dany człowiek jest bezpieczny, czyli nie wyrządzi krzywdy. Nazywa się to bezpiecznym problemem ludzkim. Formalnie takiej redukcji można dokonać za pomocą ograniczonego testu Turinga w dziedzinie bezpieczeństwa w sposób identyczny z tym, jak można ustalić kompletność problemu przez sztuczną inteligencję. (Problem jest uważany za kompletny AI, jeśli rozwiązanie wymaga sztucznej inteligencji ogólnej). W obu przypadkach mamy przynajmniej ludzkiego inteligentnego agenta zdolnego do wpływania na jego otoczenie i chcielibyśmy się upewnić, że agent jest bezpieczne i kontrolowane. Podczas gdy w praktyce zmiana projektu człowieka poprzez manipulację DNA nie jest tak prosta, jak zmiana kodu źródłowego sztucznej inteligencji, teoretycznie jest to tak samo możliwe. Jeśli system cyberbezpieczeństwa zawiedzie, szkody są nieprzyjemne, ale w większości przypadków można je tolerować: ktoś traci pieniądze, ktoś traci prywatność, a może ktoś traci życie. W przypadku wąskich sztucznych inteligencji awarie w zakresie bezpieczeństwa mają takie samo znaczenie, jak w przypadku ogólnego cyberbezpieczeństwa, ale w przypadku ogólnej sztucznej inteligencji jest zasadniczo inny. (Wąska sztuczna inteligencja odnosi się do pojedynczej domeny sztucznej inteligencji [np. Może grać w szachy, ale nic poza tym], podczas gdy ogólna sztuczna inteligencja jest zdolna do działania i uczenia się w różnych domenach). Pojedyncza awaria superinteligentnego systemu może spowodować zdarzenie związane z ryzykiem egzystencjalnym. Jeśli mechanizm bezpieczeństwa AI zawiedzie, każdy może stracić wszystko, a całe życie biologiczne we wszechświecie zostanie potencjalnie zniszczone. Dzięki systemom bezpieczeństwa będzie kolejna szansa, aby zrobić to dobrze lub przynajmniej zrobić to lepiej. Z systemem bezpieczeństwa AI jest jedna szansa na sukces, więc uczenie się na błędach nie wchodzi w grę. Co gorsza, typowy system bezpieczeństwa może w pewnym stopniu zawieść, tak że na przykład naruszona zostanie tylko niewielka ilość danych. W przypadku systemu bezpieczeństwa AI porażka lub sukces jest opcją binarną: albo ktoś ma bezpieczną i kontrolowaną superinteligencję, albo nie. Celem cyberbezpieczeństwa jest zmniejszenie liczby skutecznych ataków na system; Celem bezpieczeństwa sztucznej inteligencji jest upewnienie się, że ataki zerowe skutecznie obejdą mechanizmy bezpieczeństwa. Z tego powodu możliwość oddzielenia wąskich projektów SI od potencjalnie ogólnych projektów SI jest otwartym problemem o fundamentalnym znaczeniu w dziedzinie bezpieczeństwa SI. Dodatkowe komplikacje wynikną z interakcji między inteligentnym oprogramowaniem a mechanizmami bezpieczeństwa zaprojektowanymi w celu zapewnienia bezpieczeństwa sztucznej inteligencji. Będziemy też musieli przetestować wszystkie opracowywane obecnie mechanizmy bezpieczeństwa sztucznej inteligencji. Podczas gdy sztuczna inteligencja jest na poziomie ludzkim, niektóre testy można przeprowadzić z ludzkim agentem odgrywającym rolę sztucznego agenta. Na poziomach przekraczających ludzkie możliwości testy kontradyktoryjne nie wydają się być możliwe do zrealizowania w przypadku technologii z 2017 roku. Co ważniejsze, tylko jeden przebieg testowy byłby kiedykolwiek możliwy.


Powrót

Biura zaplecza, centra telefoniczne i Internet



Jednym z licznych skutków, jakie Internet wywiera na globalną gospodarkę, jest decentralizacja usług o niskim wynagrodzeniu i niskiej wartości dodanej, takich jak wprowadzanie danych i obsługa klienta, do regionów oddalonych od siedziby firmy. Znaczące postępy w mikroelektronice i telekomunikacji, w tym rozwój Internetu, umożliwiły zlokalizowanie tych usług w różnych regionach świata. W tym wpisie omówiono przenoszenie zaplecza do lokalizacji oddalonych od siedziby firmy i otwieranie rozległych centrów telefonicznych oraz niektóre konsekwencje tych zmian.

Back Offices

Chociaż termin back office jest definiowany na wiele sposobów, biura te zazwyczaj wykonują zadania administracyjne, które nie obejmują bezpośrednich kontaktów z klientami. Ta praca obejmuje wprowadzanie danych związanych z dokumentacją biurową, książkami telefonicznymi, katalogami bibliotecznymi, listami płac i rozliczeniami, czekami bankowymi, roszczeniami ubezpieczeniowymi i prenumeratą czasopism. Zadania te obejmują niewykwalifikowaną lub średnio wykwalifikowaną siłę roboczą, są często wykonywane głównie przez kobiety i często są wykonywane 24 godziny na dobę. W przeciwieństwie do centrali firmy, back office ma niewiele połączeń z klientami lub dostawcami; raczej dane wejściowe są wysyłane bezpośrednio przez firmę. Podstawowe wymagania przy lokalizowaniu back office to niezawodna energia elektryczna, sprzęt komputerowy i sieci telekomunikacyjne o dużej przepustowości. Biura zaplecza znajdowały się kiedyś zazwyczaj w sąsiedztwie siedziby głównej (tj. poza biurem) w obszarach śródmiejskich, często w tym samym budynku. Pozwoliło to na ścisły nadzór kierownictwa i szybką zmianę informacji. W latach 80. i 90. XX wieku, gdy czynsze w centralnych miastach rosły, a firmom brakowało pracowników z obsługą komputera, wiele firm przeniosło funkcje biurowe do tańszych lokalizacji na przedmieściach. Telekomunikacja cyfrowa umożliwiła to rozdzielenie funkcji centrali i zaplecza. W biurach zaplecza, które przeniosły się na przedmieścia, często znajdowały się kobiety chętne do pracy w niepełnym wymiarze godzin, zwykle zamężne kobiety z małymi dziećmi. Ponadto przedmieścia oferowały dużo miejsc parkingowych, niższe wskaźniki przestępczości oraz tańsze podatki i elektryczność. Przeniesione zaplecze przyczyniło się do boomu handlowego na przedmieściach. Dlatego większość przeprowadzek zaplecza dotyczyła przedmieść; 95% wszystkich przeniesień miejsc pracy związanych z wprowadzaniem danych ma miejsce w obszarach metropolitalnych, a nie między nimi. Na szerszą skalę wiele amerykańskich firm zaczęło przenosić swoje zaplecze poza duże obszary metropolitalne, opuszczając Nowy Jork, San Francisco i Los Angeles do mniejszych miast na południu i środkowym zachodzie. Beneficjentami tego trendu były Phoenix, Arizona, Atlanta, Georgia i Kansas City w stanie Missouri. Omaha w stanie Nebraska stworzyła tysiące telemarketingowych i biurowych miejsc pracy ze względu na swoje położenie na skrzyżowaniu krajowej infrastruktury światłowodowej. Podobnie z obfitą tanią siłą roboczą, San Antonio w Teksasie i Wilmington w Delaware, stały się znanymi ośrodkami telemarketingu. Boulder w Kolorado, Albuquerque, Nowy Meksyk i Columbus w Ohio również przyciągnęły wiele takich miejsc pracy. Wraz z pojawieniem się transoceanicznych linii światłowodowych i Internetu wiele firm obniża koszty pracy, przenosząc funkcje biurowe za granicę. Back office na ogół nie wymaga inwestycji w wyrafinowany sprzęt, więc firmy mogą wybierać spośród lokalizacji w oparciu o niewielkie różnice w lokalnych płacach lub rentowności. Ubezpieczenia, wydawnictwa i linie lotnicze należą do branż, w których wiele firm przeniosło zaplecze za granicę. Na przykład kilka nowojorskich towarzystw ubezpieczeniowych na życie przeniosło zaplecze biurowe do Irlandii przy aktywnym wsparciu irlandzkiego Urzędu Rozwoju Przemysłu (obecnie IDA Ireland). W większości zlokalizowane w pobliżu lotniska Shannon, głównego międzynarodowego węzła transportowego, biura te wysyłają dokumenty za pomocą Federal Express i eksportują zdigitalizowane rekordy z powrotem przez satelitę lub jedną z wielu linii światłowodowych łączących Nowy Jork i Londyn. Firmy przeniosły również swoje zaplecze do krajów karaibskich. American Airlines przeniosły swoje centrum przetwarzania danych z Tulsa w Oklahomie na Barbados w 1981 roku. Poprzez swoją spółkę zależną Caribbean Data Services, American Airlines rozszerzyły działalność na Jamajkę i Dominikanę. Brytyjskie firmy przeniosły swoje biura do Manili na Filipinach, podczas gdy firmy niemieckie przeniosły je do Maroka. Badacze zauważyli, że chociaż praca w zapleczu może być najbardziej obiecującą opcją dla pracowników w określonej społeczności, rola zaplecza jako eksportera informacji i generatora miejsc pracy budzi wiele obaw. Beverley Mullings zbadała strategie stosowane przez kobiety zatrudnione na zapleczu Jamajki, aby radzić sobie z niskimi płacami, uciążliwymi warunkami pracy i brakiem mobilności zawodowej, a jednocześnie stawić im opór.

Call Centers

Praca wykonywana w call center to kolejna forma niskopłatnej usługi o niskiej wartości dodanej. Madeline Bodin i Keith Dawson definiują centra obsługi telefonicznej jako "miejsca, w których wykonywane lub odbierane są duże ilości połączeń w celu sprzedaży, marketingu, obsługi klienta, telemarketingu, wsparcia technicznego lub innej wyspecjalizowanej działalności biznesowej". Funkcje call center obejmują telemarketing, pomoc dla klientów i zamówienia telefoniczne, często z wyznaczonymi numerami 0800. Call center zatrudnia od pięciu do nawet kilku tysięcy pracowników. Centra obsługi telefonicznej, podobnie jak back office, działają głównie w oparciu o ekrany i nie wymagają bliskości klientów. Głównym kosztem jest praca, chociaż siła robocza składa się głównie z kobiet o niskich kwalifikacjach, a wskaźniki rotacji są powszechne. Miasta, które ustanowiły konkurencyjne nisze w tej dziedzinie, to Omaha, Nebraska, San Antonio, Teksas, Wilmington, Delaware, Albuquerque, Nowy Meksyk i Columbus w Ohio. Centra obsługi telefonicznej, podobnie jak back office, stają się coraz bardziej zglobalizowane. Według The Economist, od 2014 r. Połowa wszystkich pełnoetatowych miejsc pracy w call center była zlokalizowana na Filipinach iw Indiach. Wiele centrów obsługi klienta w Indiach znajduje się w pobliżu stolicy oprogramowania, Bangalore (obecnie Bengaluru); Pracownicy call center są szkoleni, by brzmieć jak Amerykanie i mogą plotkować z klientami o popkulturze. Centra telefoniczne tworzą węzły w sieciach, które obejmują firmy z Pierwszego Świata, pracowników Trzeciego Świata, firmy telekomunikacyjne, klientów i ogromne, jeśli niewidoczne, przepływy informacji.


Powrót

Baidu



Baidu Inc. (Baidu) to jedna z największych firm internetowych w Chinach. Została założona przez Robina Yanhong Li i Erica Yong Xu 18 stycznia 2000 roku. Jej siedziba znajduje się w kampusie Baidu w Zhongguancun, największym centrum technologicznym w Pekinie i jednej z największych stref rozwoju zaawansowanych technologii w Chinach. Jej flagowy produkt, Baidu.com, jest największą chińską wyszukiwarką, która w 2016 roku zajmuje 79,07% udziału w rynku w Chinach i zajmuje czwarte miejsce na świecie pod względem udziałów w rynku po Google, Bing i Yahoo. Często nazywany "Google of China", Baidu opracował szereg usług internetowych oprócz wyszukiwarki zarówno dla chińskich, jak i globalnych użytkowników, w tym mapy online, media strumieniowe, platformy społecznościowe i przechowywanie w chmurze. 5 sierpnia 2005 r. Baidu dokonał swojej pierwszej oferty publicznej na NASDAQ i pozyskał 109,09 mln USD. W ostatnich latach Baidu stało się jedną z najszybciej rozwijających się firm internetowych na świecie.
W 2015 r. Baidu Inc. odnotowała łączny roczny przychód w wysokości 10,25 mld USD, co stanowi 250-krotny wzrost w porównaniu z 2005 r. (39,56 mln USD). W marcu 2016 r. Baidu zatrudniało 43 500 pracowników. Razem z Alibaba i Tencent, Baidu jest członkiem tzw. BAT (Baidu, Alibaba i Tencent), w skład którego wchodzą trzy największe firmy internetowe w Chinach i jest uważana za jedną z największych firm internetowych na świecie. Jednak Baidu był również zaangażowany w kilka kontrowersji, a czasami jego odpowiedzialność społeczna była kwestionowana z powodu skandali biznesowych i innych sporów w Chinach.
Nazwa Baidu pochodzi od słynnego wiersza z czasów dynastii Song autorstwa Xin Qiji, Zhongli Xunta Qianbaidu, co dosłownie tłumaczy się jako "Ale w tłumie raz po raz szukam jej na próżno", co oznacza dążenie do poszukiwania wiedzy i informacji . Baidu używa łapy niedźwiedzia jako znaku towarowego, odnosząc się do chińskiego idiomu lieren xunji xiongzhua, przetłumaczonego jako "Łowcy znajdują niedźwiedzia według odcisków jego łap". Od 2016 roku, wraz z siedzibą w Zhongguancun, Baidu ma oddziały w Szanghaju, Kantonie, Dongguan, Shenzhen i Suzhou. Posiada również biura międzynarodowe w Brazylii, Egipcie, Indiach, Indonezji, Japonii, Tajlandii i Stanach Zjednoczonych. Ten wpis analizuje historię, produkty i kontrowersje Baidu.

Historia

Li i Xu założyli Baidu w 2000 roku z początkowym kapitałem wysokiego ryzyka w wysokości 1,2 miliona USD od amerykańskich inwestorów. W sierpniu 2001 r. uruchomili chińską wyszukiwarkę internetową Baidu.com. W listopadzie 2002 r. wprowadzili wyszukiwarkę muzyki i piosenek w formacie MP3 o nazwie Baidu MP3. Dodali funkcję wyszukiwania wiadomości i zdjęć do Baidu.com w czerwcu 2003 r. W listopadzie 2003 r. Baidu uruchomiło internetową platformę dyskusyjną Baidu Tieba, która następnie stała się największym chińskim systemem tablic ogłoszeniowych i ważną postacią dla rozwoju chińskiej cyberkultury. Pod koniec 2003 roku Baidu, wyprzedzając Google, stała się najczęściej używaną wyszukiwarką w Chinach pod względem udziału w rynku. W 2005 roku, w tym samym roku Baidu dokonało swojej pierwszej oferty publicznej na NASDAQ, Baidu Zhidao (lub Baidu Knows), pierwsza chińska witryna z pytaniami i odpowiedziami oraz Baidu Map zostały udostępnione w chińskim Internecie. W 2006 roku zadebiutowała internetowa encyklopedia Baidu, Baidu Baike. Baidu wszedł na światowy rynek, uruchamiając w 2006 r. japońską wyszukiwarkę Baidu Japan. W 2011 r. Baidu wszedł na rynek arabski, zakładając Baidu Egypt, świadczącego usługi przeglądarek i portali w języku arabskim. Baidu uruchomił swoją wyszukiwarkę w języku portugalskim i wszedł na rynek brazylijski w 2014 roku. Od 2010 roku Baidu odgrywa aktywną rolę na rynku venture firm internetowych, ponieważ zainwestował i przejął kilka profesjonalnych firm internetowych w Chinach w celu dywersyfikacji swojej działalności. W 2011 roku Baidu zainwestował 300 milionów dolarów, aby stać się największym udziałowcem Qunar.com, największej wyszukiwarki turystycznej w Chinach. W 2013 r. Baidu kupił PPStream, największą firmę zajmującą się strumieniowaniem wideo peer-to-peer w Chinach, za 370 mln USD i stworzył największą internetową platformę wideo pod marką Baidu iQiyi. W 2013 roku Baidu wkroczyła również na zaciekle konkurencyjny chiński rynek e-commerce typu business-to-consumer, nabywając za 160 mln USD witrynę zakupów grupowych Nuomi.com.

Produkty

Baidu oferuje użytkownikom Internetu w Chinach szereg usług internetowych i mobilnych w języku chińskim. Niektóre z nich weszły na światowy rynek internetowy od 2010 roku. Do głównych produktów, które mają największe udziały w rynku w Chinach, należą wyszukiwarka Baidu .com, usługa map Baidu Map, internetowa encyklopedia Baidu Baike oraz dyskusje i portale społecznościowe. platforma Baidu Tieba.

Baidu.com

Baidu.com to wyszukiwarka i pierwszy produkt opracowany przez Baidu. Według statystyk Alexa z 2017 roku jest to najczęściej odwiedzana strona internetowa w Chinach i czwarta najczęściej odwiedzana w sieci. Baidu.com, wyszukiwarka oparta na strukturze wyszukiwania dokumentów związanych z zapytaniem, indeksuje dokumenty zgodnie z hiperłączami prowadzącymi do tych dokumentów, co jest własnym patentem Li. Baidu twierdzi, że jest największą chińską wyszukiwarką na świecie i zapewnia najskuteczniejsze chińskie wyniki wyszukiwania dla internautów. Obsługuje 95% chińskich internautów i przetwarza ponad 6 miliardów zapytań dziennie.

Mapa Baidu

Baidu Map oferuje swoim użytkownikom mapy online, zdjęcia satelitarne i usługi nawigacyjne. Posiada również własny portal API (interfejs programowania aplikacji) dla programistów. Od grudnia 2016 r. Baidu Map obejmuje międzynarodowe mapy ulic Ameryki Północnej, Ameryki Południowej, Australii, Azji Południowo-Wschodniej, Azji Południowej, Korei Południowej i Japonii. Baidu Map uruchomiła usługę Street View w 2013 roku i rozszerzyła się do 175 miast w Chinach, a także Hongkongu i Makau do końca 2015 roku. Baidu opracował Baidu Heatmap, wykorzystując analizę "dużych danych" na Baidu Map w styczniu 2014 roku w celu wizualizacji przepływ ruchu podczas Chunyun (sezon podróżniczy Święta Wiosny). Usługa mapy popularności służy również do zademonstrowania wielkości tłumów i przepływu ludzi w miastach. Baidu Map ma kilka tematycznych funkcji mapowania, takich jak te przeznaczone na przykład do mapowania wędrówek, zanieczyszczenia powietrza i kampusów uniwersyteckich. Baidu Map posiada również własne API, które pozwala użytkownikom na tworzenie własnych, dostosowanych do potrzeb geowizualizacji lub programów geoprzestrzennych z geobazą z Baidu Map. Baidu Map jest dostępna zarówno na platformach stacjonarnych, jak i mobilnych.

Baidu Baike

Baidu Baike to oparta na współpracy, bezpłatna, internetowa encyklopedia w języku chińskim. Do grudnia 2016 r. Baidu Baike zindeksował ponad 13 milionów artykułów stworzonych przez ponad 6 milionów autorów. W porównaniu z Wikipedią, która twierdzi, że jest internetowym źródłem non-profit dla internautów, Baidu Baike jest encyklopedią internetową nastawioną na zysk, która pozwala na reklamę komercyjną. Od stycznia 2017 r. zapewniał członkostwo korporacyjne z roczną opłatą w wysokości 6998 CNY (1010 USD) dla firm i firm, co pozwala klientom na utworzenie oficjalnego wpisu dla swoich firm, marek i produktów. Ponadto Baidu Baike cenzuruje swoje treści i artykuły zgodnie z wymogami rządu chińskiego. Artykuły o charakterze politycznym są zakazane na Baidu Baike. Uważa się, że niektóre artykuły nie są obiektywne.

Baidu Tieba

Baidu Tieba to system tablic ogłoszeń (BBS), który jest obecnie największym internetowym forum dyskusyjnym w Chinach. Baidu Tieba odnotował średnio 300 milionów aktywnych użytkowników w styczniu 2016 roku, co czyni ją jedną z największych platform społecznościowych i dyskusyjnych na świecie. W odróżnieniu od tradycyjnego BBS lub platformy mediów społecznościowych, Baidu Tieba klasyfikuje użytkowników na grupy zorganizowane według różnych słów kluczowych zwanych "barami". Użytkownicy dołączają do różnych barów, aby brać udział w dyskusjach na temat paska. Na przykład Zhongguo Zuqiu (chiński futbol) Bar zawiera dyskusje na tematy związane z chińską piłką nożną, a Biancheng (Programming) Bar omawia różne tematy związane z programowaniem komputerowym. W przeciwieństwie do tradycyjnych witryn BBS z wstępnie ustawionymi forami dyskusyjnymi, użytkownicy mogą utworzyć nowy pasek z nowym słowem kluczowym, a następnie rozpocząć dyskusje pod tym nowym tematem. Ta funkcja pomaga Baidu Tieba być dynamiczną społecznością internetową, która zawsze śledzi najnowsze słowa kluczowe i tematy. Dzięki temu dynamicznemu podejściu Baidu Tieba stworzył szereg tematów internetowych i zainicjował kilka działań i ruchów online. Wiele haseł pochodzi z Baidu Tieba. Niektóre z nich stały się już nowymi idiomami w języku chińskim i są szeroko stosowane w życiu codziennym, np. diaosi ("przegrany"), jiecao ("zasady moralne") i xidapuben ("porywający"). Baidu Tieba, jako zbiór różnych grup użytkowników, odegrał również aktywną rolę w wielu kwestiach społeczno-politycznych. Na przykład w styczniu 2016 r., podczas wyborów prezydenckich na Tajwanie, jeden z największych barów z Baidu Tieba, Liyi Bar, liczący ponad 15 milionów członków, opowiedział się za wojną memową przeciwko internautom z Tajwanu, aby odpowiedzieć na poparcie chińskich internautów dla Jedynej Polityka Chin. Oddolna ekologia polityczna Baidu Tieba sprawia, że jest ona bardziej wpływowa niż tylko platforma społecznościowa czy forum dyskusyjne. Stała się ważną postacią kulturową w chińskiej cyberprzestrzeni, a także zróżnicowaną bazą do badania tożsamości społecznych i kulturowych w Internecie, zarówno dla badań chińskich, jak i globalnych.

Kontrowersje. Model płatności za rozmieszczenie Baidu

Baidu stosuje model płatności za miejsce docelowe jako główną strategię reklamową i źródło przychodów z obsługi swojej wyszukiwarki. Reklamodawcy i firmy płacące wyższą cenę za Baidu uzyska wyższą pozycję w rankingu lub wyróżnione promocyjne miejsce w wynikach wyszukiwania słów kluczowych. Baidu zazwyczaj umieszcza płatne linki promocyjne na pierwszym miejscu w wynikach wyszukiwania. Te linki promocyjne nie są filtrowane ani sprawdzane przez Baidu, więc niektóre fałszywe i nielegalne reklamy stają się źródłem mylących informacji dla użytkowników Baidu.com. Oficjalne media w Chinach, w tym telewizja przemysłowa (CCTV) i agencja informacyjna Xinhua, kilkakrotnie zgłaszały fałszywe wiadomości i spam dostarczane przez Baidu.com od 2008 roku. leczenie w oparciu o wynik wyszukiwania z Baidu.com, zmarł z powodu niewłaściwego leczenia zalecanego przez Baidu.com. Wykazano również, że informacje dostarczone przez Baidu.com pochodziły z linku promocyjnego spamu nielicencjonowanego dostawcy usług medycznych. Wydarzenie to podniosło świadomość społeczną na temat modelu payfor-placementu Baidu.com. W maju 2016 r. Baidu zostało zbadane przez kilku urzędników państwowych, w tym Chińską Administrację Cyberprzestrzeni, Państwową Administrację Przemysłu i Handlu oraz Narodową Komisję Zdrowia i Planowania Rodziny. Wreszcie, Baidu otrzymał polecenie zrewidowania swojego systemu płatności za rozmieszczenie, cenzurowania wszystkich promocji biznesowych od dostawców opieki zdrowotnej, dodania wyłączeń odpowiedzialności do wszystkich linków promocyjnych i ograniczenia liczby linków promocyjnych w wynikach wyszukiwania.

Cenzura Internetu w Chinach

18 maja 2011 r. Baidu wraz z chińskim rządem został pozwany przez ośmiu mieszkańców Nowego Jorku, którzy twierdzili, że Baidu spiskuje z chińskim rządem w celu cenzurowania przemówień prodemokratycznych. Sprawa została oddalona w amerykańskim sądzie okręgowym Southern District of New York w 2013 roku, ponieważ sędzia stwierdził, że oskarżonym nie doręczono należycie i że nie ma jurysdykcji w tej sprawie. Baidu zostało skrytykowane za system filtrowania i cenzurowania słów kluczowych przez internautów, ponieważ celowo blokuje treści wrażliwe politycznie. Tymczasem internauci mogą znaleźć strony internetowe wyświetlające treści pornograficzne i związane z seksem za pośrednictwem systemu reklam promocyjnych Baidu.

Naruszenie praw autorskich

W 2007 r. Biuro Przedstawicielstwa Handlowego Stanów Zjednoczonych umieściło wyszukiwarkę MP3 Baidu na liście rynków notorycznie naruszających prawa autorskie i zapewniających bezprawne pobieranie utworów MP3. W 2011 roku Baidu zakupił własną bibliotekę muzyczną i zaczął udostępniać swoim użytkownikom materiały chronione prawem autorskim i legalnym.


Powrót

Biometria



Ogólnie rzecz biorąc, dane biometryczne są definiowane jako pomiary unikalnych cech fizycznych osoby w celu weryfikacji lub ustalenia jej tożsamości w celu zapewnienia dostępu do lokalizacji niektórych zasobów i usług. Są to potężne technologie ery cyfrowej, które łączą kwestie tożsamości, cyfryzacji i przestrzeni, redefiniując te kategorie i relacje między nimi. Ponieważ codzienne życie staje się coraz bardziej połączone w sieć z powodu ludzi mieszkających i pracujących w wielu miejscach, potrzeba szybkiej, mobilnej i niezawodnej identyfikacji staje się bardziej krytyczna. W ciągu dekady biometria przekształciła się z marginalnych narzędzi do centralnego zarządzania identyfikacją i została szeroko przyjęta w rządzie, organach ścigania, bezpieczeństwie, opiece zdrowotnej, finansach i handlu. Ten wpis wprowadza pojęcie biometrii, analizuje jej historię i rozwój, omawia maszyny biometryczne i rozważa niektóre powszechne krytyki zastosowań biometrycznych.

Definicja biometrii

Jeszcze do niedawna w popularnej wyobraźni technologie biometryczne otaczała aura science fiction a jej zastosowanie pozostał w dużej mierze ograniczony do pracy policji i bezpieczeństwa. Obecnie doświadczają one znacznego tempa adopcji, do czego przyczyniła się ich integracja z różnymi popularnymi aplikacjami konsumenckimi, takimi jak logowanie na smartfony za pomocą odcisku palca i logowanie do bankowości osobistej oparte na rozpoznawaniu tęczówki. Ich szybki rozwój jest również napędzany przez szybko rosnących rynków bezpieczeństwa, a także przez rozwijające się zastosowania biometryczne w branży opieki zdrowotnej i rozrywki. . Wszystkie te okoliczności wskazują na technologię, która ma przeniknąć codzienne życie i odegrać kluczową rolę w kształtowaniu jego przyszłości. Jednocześnie biometria jest również otoczona wieloma kontrowersją i podejrzliwością. Skala opozycji była znaczna, obejmując spektrum polityczne, podziały społeczne i kraje. Wpływ tej opozycji stworzył problem wizerunkowy dla biometrii. Początkowy związek biometrii z egzekwowaniem prawa i przestępczością był czynnikiem oporu, z jakim się spotykają. Jednak opór to coś więcej niż problem z obrazem. W sercu znaczenie ma fakt, że biometria jest związana z pewnymi intymnymi aspektami istot ludzkich, takimi jak nasze ciała i nasze poczucie tożsamości, a zatem biometria budzi obawy o prawa do prywatności i wolności obywatelskie. Ta sytuacja otwiera zupełnie nowy zestaw pytań etycznych i politycznych dotyczących ich regulacji oraz kosztów i korzyści dla społeczeństwa.

Historia i rozwój biometrii

Biometria, jako praktyka mierzenia charakterystycznych cech ciała ludzi w celu ich identyfikacji, nie jest nowa. Zapisy historyczne wskazują na ich starożytność, w takich miejscach jak Chiny, gdzie odciski dłoni były używane do podpisywania dokumentów prawnych, i Egipt, gdzie przechowywano szczegółowe opisy wyglądu robotników budujących piramidy, aby zapewnić słuszny podział ich odszkodowań. Pod koniec XIX wieku wydziały policji w Argentynie i Stanach Zjednoczonych zaczęły wykorzystywać odciski palców do rozwiązywania przestępstw. W XX wieku dane biometryczne używane w dokumentach, takich jak paszporty przedcyfrowe i dowody osobiste, miały charakter opisowy i zwykle zawierały zdjęcia, podpisy, kolor oczu i wzrost. Nowoczesne technologie biometryczne wykorzystują cyfrowe urządzenia czujnikowe, takie jak aparaty fotograficzne i skanery, do automatycznego pozyskiwania unikalnych cech ciała, które są następnie algorytmicznie szyfrowane w danych i przechowywane w celu wyszukania w scentralizowanych bazach danych lub na chipach włożonych do osobistych e-dokumentów i na urządzeniach mobilnych, takich jak smartfony. Proces ten nazywa się rejestracją, ponieważ na tym etapie dane biometryczne ludzi są rejestrowane w systemie po raz pierwszy. W punkcie kontrolnym osoba musi przedstawić zarejestrowaną część ciała wraz z dokumentem elektronicznym cyfrowemu czytnikowi w celu identyfikacji. Tożsamość osoby zostanie następnie odczytana cyfrowo z jej ciała i porównana z danymi przechowywanymi w bazach danych lub na chipach. Jeśli zostanie znalezione dopasowanie, weryfikuje to ich tożsamość i zapewnia im dostęp do poszukiwanych przestrzeni, usług lub zasobów. Proces ten nazywany jest uwierzytelnianiem, ponieważ na tym etapie potwierdza się tożsamość osoby. W związku z tym cyfryzacja i automatyzacja wspomagana komputerowo stają się kluczowymi elementami nowoczesnej biometrii, które odróżniają je od przeszłości i kształtują ich rozwój. Dzisiejszą biometrię można wyprowadzić z odczytywania różnych części ciała, takich jak dłonie, palce, oczy i twarz, a także z interpretacji różnych ucieleśnionych czynności, takich jak pisanie na maszynie, pisanie, mówienie i chodzenie. Te ludzkie cechy chodzą w dwóch ogólnych kategoriach: (1) biometria fizjologiczna i (2) biometria behawioralna. W pierwszej kategorii są osobiste atrybuty, z którymi się rodzimy. Najczęstszymi rodzajami takich danych biometrycznych stosowanych obecnie są odciski palców, geometria dłoni, wzory żył, kształty twarzy, wzory tęczówki i wzory siatkówki (ryc. 1). W drugiej kategorii są cechy osobiste, które rozwijają się z biegiem czasu i które raz ukształtowane pozostają niezmienne przez całe nasze życie. Najczęstsze przykłady to podpisy, naciśnięcia klawiszy i głosy. Kilka innych rodzajów danych biometrycznych jest w trakcie opracowywania, takich jak rozpoznawanie chodu, bicie serca, zapachy ciała i kwas dezoksyrybonukleinowy (DNA). Niewątpliwie kod DNA jest najbardziej poszukiwaną biometryką, ponieważ jest to najbardziej unikalna i bogata w informacje biometryka. Jednocześnie jest też najbardziej kontrowersyjny. Niemniej jednak technologia automatyzacji analizy DNA nie nadaje się jeszcze do zastosowań na dużą skalę. Podkreśleniem atrakcyjności biometrii jest założenie nieomylnej identyfikacji osobistej, podsumowane wyrażeniem "Ciało nie kłamie". Uważa się, że im dokładniej można technicznie uchwycić i zinterpretować cechy cielesne, tym więcej ludzkiej podmiotowości można wyeliminować z tego procesu i tym bardziej niezachwianą staje się osobista identyfikacja. U podstaw tego założenia leży kilka atrybutów biometrycznych. Najważniejsza jest wyjątkowość. Dane biometryczne są unikalne dla każdej osoby, co oznacza, że są dokładne i trudne do sfałszowania lub odtworzenia. Druga to uniwersalność biometrii. Każdy ma je przez cały czas i jako takie mogą być używane w każdej sytuacji i miejscu. Po trzecie, są trwałe. Nie zmieniają się (za bardzo) w czasie; dzięki temu są bardzo spójne. Ostatnia to wygoda, ponieważ są łatwe do uchwycenia i zautomatyzowania oraz nie można ich zapomnieć ani zgubić. W konsekwencji wśród technologii identyfikacji biometrię uważa się za zapewniającą najwyższy możliwy poziom bezpieczeństwa. W kontinuum uwierzytelniania metalowe klucze lub identyfikatory magnetyczne używane przez długi czas do otwierania drzwi są urządzeniami, które posiadamy lub posiadamy. Musimy nosić je ze sobą, aby uzyskać dostęp. O krok dalej na kontinuum, hasła i kody PIN (osobiste numery identyfikacyjne) są czymś, co musimy wiedzieć, aby uzyskać dostęp. Jednak odciski palców i tęczówki reprezentują coś, czym jesteśmy i nie musimy nosić ani pamiętać. Innymi słowy, ciało działa podobnie jak hasło, zapewniając osobistą identyfikację w ruchu, aby uzyskać dostęp do różnych przestrzeni i usług. Z tego punktu widzenia biometria to po prostu zaktualizowane wersje poprzedniej technologii identyfikacji. Są szybsze, wydajniejsze i dokładniejsze niż ich poprzednicy. Uważa się również, że są praktycznie odporne na manipulacje. Nowoczesne technologie biometryczne były początkowo stosowane na małą skalę w latach 90., głównie w bankowości, aby zapewnić bezpieczny dostęp do pieniędzy, w operacjach nadzoru i zwalczaniu przestępczości oraz w instytucjach bezpieczeństwa do kontroli dostępu do budynków i innych przestrzeni. Na początku XXI wieku zostały one włączone do praktyk sekurytyzacji granic w Stanach Zjednoczonych i Europie, aby kontrolować imigrację i zarządzać zaufanymi programami podróżnymi. Pod koniec 2000 roku biometria stała się podstawą systemów sekurytyzacji granic od Tajlandii i Australii po Nigerię i Stany Zjednoczone. Obecnie są one wykorzystywane w zastosowaniach na dużą skalę, wpływając na setki milionów ludzi, w szczególności poprzez wydawane przez rząd paszporty biometryczne i dowody tożsamości, a także poprzez tworzenie licznych baz danych dotyczących granic. Równolegle w 2000 roku wzrosło wykorzystanie biometrii w nadzorze na dużą skalę i innych operacjach związanych z bezpieczeństwem, czemu sprzyjało m.in. włączenie systemów rozpoznawania twarzy w kamerach telewizji przemysłowej (CCTV) oraz postępy w miniaturyzacji, aby umożliwić włączenie biometrii do urządzeń mobilnych. Pomimo wykorzystywania danych biometrycznych w praktykach bezpieczeństwa w różnych krajach przed 11 września 2001 r., ataki na Nowy Jork i Waszyngton stały się decydującym impulsem do ich szerokiego przyjęcia. Po tym, jak zostały oficjalnie wymienione w amerykańskiej ustawie PATRIOT Act z 2001 r., technologie biometryczne zostały uogólnione w amerykańskiej ustawie o wzmocnionym bezpieczeństwie granic i wizy z 2002 r., która nakazywała utworzenie interoperacyjnych baz danych biometrycznych imigracji, a także wprowadzenie biometrycznych e-paszportów dla obywatele USA. Jeden konkretny przepis tej ustawy przewidywał, że kraje ruchu bezwizowego, których obywatele mogliby bez wizy przebywać w Stanach Zjednoczonych przez okres do 3 miesięcy, również musiałyby wprowadzić biometryczne e-paszporty, jeśli chciałyby utrzymać te przywileje. Te przepisy prawne, sięgające poza granice Stanów Zjednoczonych, skutecznie przyczyniły się do globalizacji wykorzystania biometrii w praktykach sekurytyzacji granicznej. . Proces został wzmocniony w 2003 r., kiedy Organizacja Międzynarodowego Lotnictwa Cywilnego, organ ONZ regulujący ruch lotniczy, zaleciła przyjęcie biometrycznych e-paszportów, w tym cyfrowych fotografii, jako nowego standardu międzynarodowych dokumentów podróży. Rządy Unii Europejskiej wkrótce wprowadziły własne e-paszporty biometryczne oparte na dwóch zestawach danych biometrycznych, zdjęciach i odciskach palców. Zmiany te nie pozostawiły wielu rządom krajów rozwijających się innego wyboru, jak pójść w ich ślady, inwestując w technologie biometryczne, aby spełnić standardy paszportowe wymagane przez kraje rozwinięte. Wśród innych przykładów przyjęcia biometrii na dużą skalę, najbardziej godny uwagi jest ambitny program identyfikacji narodowej Indii, obejmujący 10 odcisków palców i skany tęczówki dla 1,2 miliarda ludzi. W tych okolicznościach rządy pozostają największymi klientami przemysłu biometrycznego, pomimo boomu zastosowań komercyjnych w sektorze prywatnym.

Zrozumienie maszyn biometrycznych

Najbardziej zaawansowane systemy biometryczne mogą zidentyfikować osobę w mniej niż 1 sekundę. Szybkość jest kluczowym czynnikiem siły biometrii, ponieważ zapewnia wygodę i niezawodność. Za szybkością kryją się jednak stosunkowo złożone procesy techniczne, które obejmują kilka etapów i są silnie uzależnione od algorytmów matematycznych. Ogólnie rzecz biorąc, czujniki w urządzeniach cyfrowych mają najpierw zrobić zdjęcie wybranej części ciała w celu zapisania go w bazie danych. Sam obraz ma jednak drugorzędne znaczenie. Zamiast tego nacisk kładziony jest na wyodrębnienie unikalnych cech i wzorów z obrazu, które są następnie składane w szablon. W efekcie szablon biometryczny jest cyfrową reprezentacją cech obrazu uchwyconego z części ciała. Na przykład z obrazów odcisków palców widać kształt , rejestrowane są grzbiety i głębokość dolin, natomiast z obrazów twarzy rejestrowane są położenie i odległość między oczami, kośćmi policzkowymi i podbródkiem. W przypadku biometrii behawioralnej, takiej jak naciśnięcie klawisza, należy wykonać serię nagrań, które są następnie łączone we wzór za pomocą modelowania statystycznego. Wbrew powszechnemu przekonaniu w bazie danych nie jest przechowywany żaden obraz, ale algorytmicznie zaszyfrowany plik binarny. Te pliki mają tę zaletę, że dodają dodatkową warstwę bezpieczeństwa, ponieważ w przypadku kradzieży szablonów biometrycznych konieczne jest również posiadanie algorytmów kodowania, aby w pełni z nich korzystać. Kolejnym etapem identyfikacji jest porównanie oryginalnego szablonu przechowywanego w bazie danych z szablonem tymczasowym, generowanym za każdym razem, gdy osoba przedstawia na terminalu część ciała do uwierzytelnienia. W przypadku pozytywnego dopasowania tożsamość osoby jest potwierdzana, a dostęp autoryzowany. Na tym etapie intensywnie pracują równania algorytmiczne i modelowanie statystyczne. Z tych powodów związanych z okolicznościami rejestracji i różnicami w specyfikacjach urządzeń, nie ma dwóch identycznych szablonów biometrycznych, mimo że nasze cechy biometryczne są unikalne. Dodatnie dopasowanie reprezentuje zatem statystyczne prawdopodobieństwo dopasowania dwóch szablonów, a nie dokładne dopasowanie. Sytuacja ta stwarza okazję do refleksji na temat uznania biometrii za pewnik jako niezawodnej technologii identyfikacji oraz nad tym, jak stronniczość jest wbudowana w technologie biometryczne. Identyfikacja biometryczna jest wykorzystywana na dwa główne sposoby: (1) do weryfikacji czyjejś tożsamości i (2) do ustalenia czyjejś tożsamości. W pierwszej kolejności stosowanie danych biometrycznych jest uzasadnione koniecznością weryfikacji tożsamości osoby w celu potwierdzenia, że jest ona tym, za kogo się podaje. Jest to dotychczas najpowszechniejsze zastosowanie biometrii, a także takie, które może potencjalnie budzić mniej obaw, jeśli jest odpowiednio uregulowane. Z technologicznego punktu widzenia weryfikacja sprowadza się do zadania skomputeryzowanego typu "in-and-out". Zgłasza się roszczenie do systemu biometrycznego, a dane próbki są przekazywane do weryfikacji. System musi potwierdzić deklarację tożsamości, sprawdzając, czy przykładowe dane są takie same jak dane zapisane w bazie danych. Jest to operacja jeden na jednego. Po wykonaniu zadania proces się kończy, a dane tymczasowe są usuwane. Jednak weryfikacja jest również najmniej przydatna z punktu widzenia organów ścigania. Chodzi o to, że biometryczna weryfikacja tożsamości Osamy bin Ladena potwierdziłaby tylko, że był tym, za kogo się podawał; dane biometryczne przechowywane na chipie paszportowym bin Ladena nie powiedziałyby, że był terrorystą. Drugie główne zastosowanie biometrii ma na celu odpowiedź na pytanie "Kim jest ta osoba?" Odpowiedź na to pytanie wymaga ustalenia tożsamości osoby. W takim przypadku systemy biometryczne muszą wykonywać wyrafinowaną pracę dochodzeniową, aby zidentyfikować jedną osobę z grupy osób. Nie wiadomo, czy dane biometryczne danej osoby już istnieją w bazie danych. Systemy muszą wykonać operację jeden-do-wielu, aby porównać czyjś szablon biometryczny z szablonami wielu innych osób. Innymi słowy, technologie biometryczne muszą przypisywać tożsamość osobie. Zadanie to wymaga utworzenia i utrzymania ogromnych baz danych do przechowywania danych biometrycznych dużej liczby osób. W ten sposób baza danych staje się kluczowym elementem technologii biometrycznych. Na przykład paszporty biometryczne i dowody tożsamości, które dana osoba nosi przy sobie, muszą być połączone z bazami danych administrowanymi oddzielnie przez władze w każdym kraju lub przez każdą firmę ochroniarską obsługującą system biometryczny. W idealnej sytuacji, aby technologie biometryczne działały jak najlepiej, powinna istnieć jedna globalna baza danych zawierająca kilka rodzajów danych biometrycznych dla każdej osoby, obejmująca całą populację planety i przechowywana w cyberprzestrzeni, aby była łatwo dostępna. Niemniej jednak same ogromne ilości danych biometrycznych wciąż nie wystarczają, aby sensownie określić czyjąś tożsamość. Aby tak się stało, bazy danych muszą zawierać dodatkowe informacje o codziennym życiu ludzi, które można przeszukiwać elektronicznie w celu ujawnienia wzorców zachowań i skojarzeń. Gdy czyjeś dane biometryczne zostaną zapisane w bazie danych, dane osobowe mogą być gromadzone za każdym razem, gdy trafi na nie. Na przykład za każdym razem, gdy czyjś paszport biometryczny jest sprawdzany, pozostawia ślad w bazie danych bezpieczeństwa granic USA, który jest przechowywany pod profilem tej osoby zgodnie z wcześniej określonymi kryteriami, takimi jak imię i nazwisko, adres, kraj pochodzenia, ile razy dana osoba przekroczyła granicę granica, które granice zostały przekroczone i w jakich miejscach, środki transportu, forma płatności za podróż, czas pobytu, historia jazdy, rodzaj spożywanego posiłku w locie, preferencje dotyczące miejsc i inne. W ten sposób cyfrowa tożsamość osoby nabiera kształtu w bazie danych, nawet nie będąc tego świadoma. Uważa się, że te systemy bezpieczeństwa zapobiegną powtórzeniu się sytuacji takich jak 11 września 2001 r., umożliwiając organom ścigania "połączenie kropek" między pozornie niepowiązanymi fragmentami informacji. Takie systemy funkcjonują potajemnie na granicach USA od 2002 roku pod nazwą Automated Targeting Systems. Integrują kilka oddzielnych rządowych i prywatnych baz danych i zebrały dane o setkach milionów odwiedzających USA i obywateli USA. Unia Europejska wdrożyła podobne systemy o nazwie Automated Border Control. Inne szeroko rozpowszechnione biometryczne bazy danych organów ścigania istniejące w różnych krajach są znane jako zautomatyzowane systemy identyfikacji odcisków palców i zawierają setki milionów rekordów odcisków palców. Ponadto wiele prywatnych firm prowadzi mniejsze i bardziej ukierunkowane bazy danych biometrycznych klientów w celach komercyjnych, takich jak identyfikowanie wzorców zakupów lub nawyków wydatkowych, które są następnie wykorzystywane do obliczania oceny ryzyka w celu ustalenia składek ubezpieczeniowych lub personalizacji reklam. W tych okolicznościach oszustwa związane z bazami danych i kradzież danych stały się głównymi działaniami przestępczymi zarówno między rządami, jak i między podmiotami prywatnymi.

Krytyczna ocena danych biometrycznych

Dokładna analiza założeń stojących za wdrażaniem technologii biometrycznych ujawnia główne problemy związane z ich logiką zarządzania tożsamością i wskazuje na dużą rozbieżność między oczekiwaniami a tym, co te technologie są w stanie faktycznie zapewnić. Z pewnością biometria może odegrać rolę w radzeniu sobie z wyzwaniami identyfikacji osobistej XXI wieku. Główny problem dotyczy bezkrytycznego przyjęcia technologii biometrycznych i wynikających z tego skutków społecznych. Ważne jest, aby rozważyć potencjalne koszty i korzyści, jakie szerokie zastosowanie biometrii przynosi społeczeństwu, aby móc podejmować świadome decyzje dotyczące swojej przyszłości. Jedną z głównych kwestii jest powiązanie identyfikacji z tożsamością. Oznacza to, że identyfikacja ciała osoby jest tym samym, co poznanie jej tożsamości. Powiązanym założeniem jest to, że tożsamość osoby jest dobrym predyktorem ryzyka. W związku z tym zakłada się, że tożsamość jednostki stanowi podstawę do identyfikacji ryzyka, jakie stanowi dla społeczeństwa lub różnego rodzaju schematów maksymalizacji zysku. Kolejna ważna kwestia dotyczy deterministycznego podejścia technologicznego związanego z przyjęciem i wdrożeniem biometrii. Ta perspektywa stara się ukryć ich z natury stronniczy charakter i powoduje, że technologie biometryczne są uważane za oczywiste jako panaceum na identyfikację i bezpieczeństwo. Co więcej, postawy te promują postrzeganie identyfikacji i bezpieczeństwa jako po prostu problemów technicznych, które wymagają rozwiązania technicznego i pomijają fakt, że społeczne wykorzystanie technologii jest drogą dwukierunkową. Sama technologia nie może zapewnić wyłącznych korzyści agencjom bezpieczeństwa i przestrzegającym prawa obywatelom. Społeczeństwa ewoluują wraz ze swoją technologią, w tym zdolnością ludzi do pokonania systemu. Wreszcie są kwestie związane z regulacją technologii biometrycznych. Biorąc pod uwagę potęgę technologii biometrycznych, ich rosnące zastosowanie w życiu codziennym oraz ich potencjalny wpływ na prywatność i swobody obywatelskie, brak przepisów regulujących wykorzystywanie i nadużywanie danych biometrycznych jest zaskakujący. Od 2017 r. nigdzie na świecie nie ma skutecznej regulacji technologii biometrycznych. Nie jest jasne, jakie dane są gromadzone, jak długo, w jakim celu, gdzie i w jaki sposób powinny być przechowywane, jaki poziom ochrony powinny mieć i czy są wykorzystywane do innych celów poza ich formalnie określonym celem. Co więcej, w wielu głównych systemach biometrycznych brakuje systematycznych przepisów i procedur rezerwowych regulujących przypadki błędnej identyfikacji osób. Chociaż większość technologii biometrycznych twierdzi, że współczynnik błędu wynosi około 1% lub mniej, nie jest to tak nieistotne, jak się wydaje, gdy myślimy, że liczne systemy biometryczne obejmują miliony ludzi. W zależności od okoliczności błędna identyfikacja kogoś może spowodować poważne problemy w życiu tej osoby, na przykład, gdy nie ma niezawodnych alternatyw dla korzystania z określonego systemu biometrycznego lub gdy ktoś zostaje sam, aby udowodnić swoją tożsamość w systemie. Sytuacje te pokazują, dlaczego pomimo atrakcyjności finansowej automatyzacji, interwencja człowieka zawsze powinna być częścią systemów biometrycznych. Wdrażanie technologii biometrycznych porusza dwa obszerne zestawy problemów związanych z kwestiami bezpieczeństwa i prywatności. Pierwszy problem dotyczy ograniczeń samej technologii biometrycznej, drugi natomiast dotyczy tego, w jaki sposób wykorzystuje się biometrię i do jakich celów. Szczególnie wątpliwe jest przekonanie, że biometria to niezawodne technologie zarządzania tożsamością. Aura niezawodnej technologii często wynika z faktu, że większość ludzi widzi efekt końcowy technologii biometrycznej tylko wtedy, gdy części ich ciała zostają w tajemniczy sposób rozpoznane z autorytetem bezosobowej maszyny. Szczegółowy proces identyfikacji jest ukryty w skomputeryzowanych urządzeniach. Takie doświadczenia prowadzą wielu ludzi do uznania wiedzy o komputerze za pewnik i do wiary w jego lepsze właściwości w porównaniu z umiejętnościami ludzi lub przedcyfrowymi technologiami identyfikacji. Pominięto tutaj fakt, że osoby, które chcą ukraść lub skompromitować dane biometryczne, mogą mieć ten sam poziom wiedzy technicznej, co projektanci i programiści systemów biometrycznych. W rzeczywistości czytniki linii papilarnych można z powodzeniem oszukać, dołączając silikonowe plastry do opuszków palców danej osoby, a także przeszczepiając plastry skóry z innych części ciała na opuszki palców. Co najważniejsze, system logowania odciskiem palca Apple został zhakowany wkrótce po oficjalnym uruchomieniu za pomocą fałszywego odcisku palca wygenerowanego z czystego odcisku palca zdjętego z powierzchni. Systemy rozpoznawania twarzy i tęczówki oka mogą być również stosunkowo łatwe do oszukania. Odpowiedzią na te problemy było żądanie stosowania jeszcze większej liczby danych biometrycznych. Co więcej, obecne systemy biometryczne mogą określić, czy identyfikowana część ciała należy do żywego ciała, czy nie, aby uniknąć łatwego fałszowania. Jednak te odpowiedzi nie odstraszają potencjalnych oszustw. Raczej zmuszają hakerów do stosowania bardziej wyrafinowanych metod. Kolejny problem wynika z mnożenia się mobilnych urządzeń biometrycznych, od skanerów po e-paszporty, które wykorzystują komunikację bezprzewodową do przesyłania danych tam iz powrotem w systemie biometrycznym. Mogą one być szczególnie podatne na włamania za pośrednictwem swoich funkcji bezprzewodowych, które oferują możliwości zdalnego dostępu do ich danych. Hakerzy mogą złamać istniejące kody szyfrujące i skopiować ich zawartość bez wiedzy właściciela. Dane można następnie sklonować do nowego dokumentu elektronicznego lub urządzenia, aby podszywać się pod właściciela. Istotną wadą biometrii jest to, że nie zapewniają one 100% dokładności identyfikacji we wszystkich przypadkach. Oferują raczej wysokie statystyczne prawdopodobieństwo pozytywnego dopasowania części ciała do wcześniej przesłanej próbki części ciała. Niektóre kategorie ludzi, takie jak osoby starsze, Azjatki, niepełnosprawni i inni, często wykazują cechy fizyczne, które są trudne do zapisania w programach biometrycznych, takich jak pobieranie odcisków palców. Systemy biometryczne częściej zaznaczają członków takich grup, dyskryminując ich w ten sposób. Dodatkowe obawy dotyczą zabezpieczenia ogromnych baz danych biometrycznych, do których należałoby uzyskać dostęp w tysiącach lokalizacji na całym świecie. Jeśli zostaną włamani, szkody w życiu dotkniętych nimi osób mogą być nieobliczalne. Ważne jest, aby zdać sobie sprawę z tego rodzaju danych osobowych, że gdy zostaną utracone, ofiary poniosą konsekwencje przez resztę swojego życia. Nie można anulować danych biometrycznych. Ponieważ są to dane cielesne, nie można po prostu zadeklarować ich utraty i zlecić wydanie nowych. To trochę ironiczne, że najbardziej atrakcyjna cecha biometrii- wyjątkowość- jest jednocześnie jego największą słabością. Jednocześnie technologie biometryczne przesuwają kwestie identyfikacji i bezpieczeństwa głębiej w społeczeństwie, zamiast je rozwiązywać. Fakt, że biometria ludzi musi być wstępnie rejestrowana w e-dokumentach i bazach danych, aby systemy biometryczne działały, oznacza, że systemy biometryczne mogą być tylko tak bezpieczne, jak proces rejestracji biometrycznej. Zamiast fizycznie majstrować przy e-paszporcie lub palcami, skuteczniejsze staje się fałszowanie znacznie mniej skomplikowanych dokumentów wymaganych do ustalenia tożsamości biometrycznej, takich jak akty urodzenia czy dowód zamieszkania. W ten sposób znany terrorysta lub szpieg może uzyskać całkowicie autentyczną tożsamość biometryczną pod innym nazwiskiem. Pod warunkiem, że rządowe bazy danych biometrycznych nie zawierają odcisków palców danej osoby ani skanów tęczówki, może ona płynnie poruszać się po systemach biometrycznych. Podsumowując, główny urok technologii biometrycznych polega na ich cielesnym charakterze i automatyzacji. Jednocześnie te cechy są również najbardziej polaryzujące. Bliski związek danych biometrycznych z ludzkim ciałem budzi uzasadnione obawy dotyczące prywatności w związku z ich używaniem i wywołuje poczucie nieuniknionej i przytłaczającej kontroli osobistej, która prowadzi do nieufności i wzbudza strach. Wyjątkowość danych cielesnych danej osoby nadaje nowe znaczenie wyrażeniom takim jak "kradzież tożsamości" i "kryzys tożsamości", biorąc pod uwagę obecny brak alternatyw dla zastąpienia takich danych. W przeciwieństwie do haseł i kluczy, kradzież danych biometrycznych jest podobna do kradzieży własnego ciała na zawsze. Obecnie istnieje pilna potrzeba dokładnych i nadrzędnych regulacji, jeśli biometria ma wnieść pozytywny wkład w życie społeczne w erze cyfrowej, a nie szkodzić mu. . Ważne jest, aby zrozumieć, że w ostatecznym rozrachunku biometria to tylko technologia; a tym samym nie byłyby w stanie rozwiązać problemów strukturalnych świata, takich jak brak bezpieczeństwa, niedofinansowane systemy opieki zdrowotnej czy oszustwa bankowe. Mogą tworzyć narzędzia do rozwiązywania problemów społecznych, ale nie mogą być odpowiedziami. Właśnie dlatego właściwe podejście do polityki biometrycznej i unikanie fetyszyzowania tych technologii jest niezbędne, aby upewnić się, że nie tworzymy bardziej opresyjnych narzędzi, zamiast używać ich do zwiększania swobód demokratycznych.


Powrót

Bitcoin



Bitcoin

Bitcoin to aplikacja oparta na blockchain, uruchamiana przez sieć peer-to-peer, implementująca reguły protokołu rozproszonego. Zaproponowany w artykule opublikowanym pod koniec 2008 roku przez pseudonimowego Satoshi Nakamoto (później ujawniono, że to Australijczyk Craig Steven Wright), Bitcoin miał być nową metodą płatności, mającą na celu przezwyciężenie problemu zabezpieczenia e-płatności niezależnie od gwarancji strony trzeciej. Gdy informacje są przesyłane przez Internet, ich kopia jest przechowywana na dysku twardym nadawcy. Jeśli wysyłane są pieniądze elektroniczne, odbiorca musi mieć pewność, że otrzymane przez niego pieniądze nie są bezwartościową reprodukcją. To sprawia, że fundamentalna jest gwarancja, że wydane pieniądze staną się niedostępne dla płatnika, utrudniając jakiekolwiek podwójne wydatkowanie. Celem Bitcoin jest zabezpieczenie płatności w sieci pseudonimowej, unikanie gromadzenia danych związanych z transakcjami fiducjarnymi, a tym samym dodanie wartości dla e-commerce. Ten wpis analizuje strukturę Bitcoin, omawia koncepcje "wydobycia" i "forków" Bitcoin oraz analizuje niektóre z weryfikacji, bezpieczeństwa, przechowywania i transferu oraz problemy z użytkowaniem wywołane wprowadzeniem Bitcoina jako formy waluty.

Definicja Bitcoina

Bitcoin zapewnia autentyczność informacji za pomocą technologii rozproszonej księgi o nazwie blockchain, połączonej struktury danych listy rejestrującej bloki danych. Blockchain to publiczny i ciągły rejestr, przechowujący pełną historię każdej transakcji Bitcoin, która kiedykolwiek miała miejsce. Struktura każdego bloku zawiera konkretne odniesienie do poprzedniego, skrót (łańcuch alfanumeryczny) uzyskany za pomocą algorytmu mieszającego (np. skrót wiadomości lub bezpieczny algorytm mieszający). Taka konstrukcja pozwala na odczytanie listy od ostatniego bloku do pierwszego, co umownie odnosi się do poprzedniego używając null jako wartości. Struktura Blockchain jest sformułowana w celu budowania księgi transakcji, będąc w międzyczasie

•  system publiczny, dopuszczający węzły do sieci bez formalnych ograniczeń;
•  zarządzany przez wiele interweniujących węzłów, obliczających i realizujących komunikację oprogramowanie wymagane do wdrożenia protokołu;
•  ugruntowanie pełnej decentralizacji, tak aby system nie potrzebował władzy centralnej; i
•  odporne na manipulacje, co gwarantuje, że transakcje nie mogą zostać zmienione.

Górnictwo

Sieć Bitcoin ma rozproszoną architekturę, w której każdy komputer, nazwany węzłem, ma identyczne uprawnienia i zadania. W tym systemie węzły różnią się od siebie tylko mocą sprzętową i zakres pasma, w zależności od konkretnego zastosowanego sprzętu, natomiast możliwości zarządzania są identyczne i każdy węzeł może wykonać dowolną operację. W produkcji Bitcoin, zwanej kopaniem, węzły sieciowe wykorzystują swoją moc obliczeniową do tworzenia i weryfikowania nowych bloków, które chcą dodać do łańcucha logicznego. Każdy uczestniczący górnik tworzy blok kandydacki, w tym transakcje z wyższymi opłatami oraz osoby na tyle stare, aby uzyskać pierwszeństwo w rejestracji (seniority). Obliczenia blokowe są potwierdzane przez dowód pracy, obliczenia matematyczne, które są skonstruowane zgodnie ze schematem wymyślonym przez Adama Backa w 1997 roku i są dość trudne do osiągnięcia. W Bitcoin ilość obliczeń wymaganych przez dowód pracy rośnie wprost proporcjonalnie do liczby uczestniczących węzłów. W ten sposób wydobycie produkuje blok co 10 minut, co jest konwencjonalnym czasem ustawionym na uniknięcie kolizji i widełki (vide infra). Dowód polega na znalezieniu liczby aleatorycznej o nazwie nonce (akronim od liczby użytej jednorazowo), która dodana do struktury danych bloku kandydującego generuje skrót skrótu niższy od danego piętra (tzn. zaczynający się od określonej liczby zer). Wynikiem jest blok Bitcoin, który zostaje przypisany pierwszemu górnikowi rozwiązującemu problem obliczeniowy i dodany do łańcucha bloków wraz ze wszystkimi powiązanymi transakcjami.

Widełki

Ponieważ węzły sieci działają niezależnie, może się zdarzyć, że dwa różne kandydujące bloki spełnią wymóg dowodu pracy i zostaną połączone z lokalnymi kopiami łańcucha bloków, tworząc do dwóch różnych jego gałęzi. Współpracownicy mogą nie być od razu świadomi tej sytuacji, która następnie rodzi rozwidlenie, w którym po obu stronach punktu podziału dodawana jest liczba bloków. Program mówi, że najdłuższy łańcuch będzie dominował nad krótszym: Operacja odbędzie się jak najszybciej ponieważ sytuacja jest obserwowana przez całą sieć. Czasami widełki są wynikiem aktualizacji oprogramowania, jak to miało miejsce w sierpniu 2010, kiedy oprogramowanie musiało zostać przepisane, aby poradzić sobie z przepełnieniem liczby całkowitej, błędem przedstawiającym blok n. 74,638 jako zawierający dwie transakcje o łącznej wartości ponad 184 miliardów Bitcoinów (wynik oczywiście nie mógł się pogodzić z podaną maksymalną liczbą monet). Niestety częściowe zastosowanie nowej wersji oprogramowania spowodowało rozwidlenie rozwiązane z odrzutem 53 bloków po 50 jednostek. Niemniej jednak bardzo ograniczona wartość i rozpowszechnienie Bitcoina w tamtym czasie ułatwiło zarządzanie tą konsekwencją. Podobny przypadek miał miejsce w marcu 2013 roku, kiedy miała miejsce kolejna aktualizacja. Oprogramowanie górnicze w wersji 0.8 zostało zainstalowane tylko przez część górników, podczas gdy pozostali pozostali przy wersji 0.7. Rozwidlenie trwało zaledwie 6 godzin: tym razem wydano 24 bloki Bitcoin oparte na oprogramowaniu w wersji 0.8. Bloki te stworzyły niezależną gałąź łańcucha logicznego, podczas gdy większość społeczności Bitcoin kontynuowała wersję oprogramowania 0.7, ignorując to, co się dzieje. Problem został rozwiązany, obniżając cały system do wersji 0.7: 6-godzinny widelec blockchain spowodował spadek wartości wymiany z dolarem o 24%, utratę 24 bloków po 25 bitcoinów wydobytych w wersji 0.8 i podwojenie wydatków wartość 10 000 $ na stronie okpay.com. Program nagradza każdy nowy blok dołączony do łańcucha logicznego określoną liczbą Bitcoinów. Algorytm pomocniczy zmniejsza o połowę nagrodę co 210 000 bloków, co 4 lata, wykonując przesunięcie w lewo z liczbą binarną poprzedniej nagrody wyrażoną w najmniejszej frakcji bitcoinów, satoshi (10-8 bitcoinów). Pierwotna konsystencja nagrody wynosiła 50 bitcoinów, zredukowana do 25 w 2012 roku i ponownie do 12,5 w 2016 roku. Algorytm o połowę, wraz z rosnącym poziomem trudności w generowaniu dowodu pracy, ma na celu utrzymanie stałej produkcji bitcoinów w czasie do 2140 roku, kiedy to zostanie osiągnięty limit 20 999 999,9769 jednostek. W miarę jak wydobycie trwa, wymaga coraz większej ilości czasu i energii oraz mocniejszego sprzętu. Na początku wymagany był tylko procesor (jednostka centralna); potem zaczęło być potrzebne GPU (jednostka przetwarzania grafiki), kolejne układy scalone specyficzne dla aplikacji, a teraz konkretne baseny wydobywcze są wykonywane przez kilku górników. Aby zrozumieć ilość wymaganej pracy obliczeniowej, przydatną lekturą może być post Hala Finneya z 2013 roku. Finney kopał kilka przecznic po numerze 70, gdy trudność wynosiła 1. Pamiętając, że czasami decydował o zakończeniu działalności, ponieważ jego komputer się rozgrzewał, a hałas wentylatora niepokoił go.

Weryfikacja transakcji

Obieg bitcoinów implikuje dalsze obliczenia przez węzły, weryfikację i potwierdzenie rozliczonych płatności, co zapewnia skuteczność transakcji. Wszystkie transakcje w bloku są walidowane, gdy po niej dołączonych zostanie sześć kolejnych bloków. Po umieszczeniu transakcji w bloku (czas, który zmienia się w zależności od opłat zawartych w tej transakcji i jej ewentualnego stażu), potwierdzenie wymaga 50 minut. Transakcje są widoczne dla sieci niezależnie od czasu wymaganego przez potwierdzenie. Algorytm mieszający jest stosowany do bloku przechowywania, dzięki czemu jego skrót może być używany w dowolnym momencie w celu sprawdzenia, czy doszło do manipulacji: ingerencja w transakcje w rzeczywistości dałaby inny wynik w ciągu. Wydobycie kończy się stemplowaniem czasu, przypisując blokom określoną datę i godzinę. Umożliwia to weryfikację, czy operacje miały miejsce w zadeklarowanej kolejności, zapobiegając podwójnemu wydawaniu przez przekazującego Bitcoinów, z których już skorzystał.

Bezpieczeństwo systemu

Jak wspomniano, każdy nowy blok zawiera skrót skrótu poprzedniego bloku. Tworzy to łańcuch wartości, w którym każda zmiana w danym bloku wymagałaby zmian we wszystkich kolejnych blokach. System jest odporny na ataki brute-force, próbując odszyfrować każdy możliwy klucz po kolei. Zastosowanie bezpiecznego algorytmu haszującego Algorytm 256 generuje skrót wyjściowy z tak dużą liczbą kluczy kryptograficznych, że superkomputer o mocy obliczeniowej około petaflopa/s (1015 operacji na sekundę) powinien obliczać przez wieki, aby go złamać. Transakcje bitcoinowe można odwrócić tylko od wewnątrz: gdyby węzły będące w zmowie miały przejąć kontrolę, w tak zwanym ataku 51%, cały system straciłby stabilność. Biała księga Bitcoin wyjaśnia, że transakcje są bezpieczne, gdy sieć jest kontrolowana przez uczciwe węzły. Co więcej, ogromna ilość procesora niezbędna do ataku może stanowić zachętę dla potencjalnego atakującego do zachowania uczciwości. W rzeczywistości może uznać tworzenie nowych monet za bardziej opłacalne niż podważanie "systemu i ważności własnego bogactwa".

Przechowywanie i transfer

Bitcoiny są przechowywane w "portfelach", zbiorach kluczy kryptograficznych, które można przechowywać w chłodniach (tj. urządzeniach offline) lub w magazynach gorących (tj. portfelach online). Oba rozwiązania są chronione kryptograficznie i mogą być obsługiwane przez klienta, oprogramowanie zarządzające operacjami transakcyjnymi. Hot storage są bardziej biznesowe, ale bardziej podatne na ataki hakerów. Chłodnie wymagają wdrożenia dłuższej procedury, ale są bezpieczniejsze: każde przywłaszczenie wymaga kradzieży zarówno urządzenia zawierającego portfel, jak i zastosowanych kluczy kryptograficznych. Ekspert informatyczny Finney, pierwszy odbiorca transakcji, zdecydował się przenieść swojego Bitcoina do zimnego portfela, gdy ich cena wzrosła do prawdziwych pieniędzy. Transfer Bitcoin opiera się na kryptografii kluczy asymetrycznych: Nadawca szyfruje wiadomość publicznym i rozproszonym kluczem odbiorcy, ciągiem alfanumerycznym, którego długość zależy od przyjętego algorytmu. Działa jak otwarta kłódka: gdy wiadomość jest zamknięta, można ją odszyfrować tylko za pomocą prywatnego klucza odbiorcy, tajnego ciągu generowanego wraz z pierwszym. Pieniądze otrzymane w transakcji mają być wydane jednolicie (np. otrzymując 1, trzeba wydać 1). Nadawca powinien określić, pod jakim adresem Bitcoin woli otrzymywać wszelkie należne zmiany. Każda transakcja może łączyć różne kwoty otrzymane w różnych poprzednich operacjach (sumując np. 0,10 + 0,20 + 0,30 w transakcji 0,60). Odwrotnie, płatność może zostać podzielona na kilka operacji (pozostając z naszym przykładem, płatność 0,60 może być dokonana w trzech różnych transakcjach 0,10, 0,20 i 0,30). Adresy Bitcoin mogą zmieniać się przy każdej transakcji, czyniąc anonimowość lub pseudonimowość ugruntowaną cechą tego systemu. Ponieważ każdy Bitcoin można podzielić na 100 000 000 Satoshi, istnieje konkurencyjne dopasowanie do zmian wartości. Pieniądze można generować w blokach, korzystając z procedury, którą opisaliśmy powyżej, lub kupować na rynku, gdzie można wydać wszystkie jednostki i ich ułamki.

Praktyczne zastosowania

Twierdzi się, że pierwsza płatność w Bitcoinie została dokonana przez Laszlo Hanyecza, jednego z pierwszych twórców projektu, który kupił dwie pizze w Papa John′s w Jacksonville na Florydzie za 10 000 Bitcoinów w dniu 21 maja 2010 r. W rzeczywistości Hanyecz wysłał Bitcoiny dla angielskiego kupca, który użył swojej karty kredytowej, aby zapłacić pizzerii posiadane pieniądze wcześniej wynegocjowane dla Bitcoinów. Przy wyższej wartości wymiany z 6 grudnia 2013 r. obie pizze byłyby warte ponad 12,5 miliona dolarów. Główne zastosowanie Bitcoina jest związane z technologią finansową, tzw. Fintech, i powstały setki systemów płatności opartych na blockchain. Poza płatnościami istnieje kilka innych aplikacji, które wspierają łańcuchy bloków. Wśród nich znaczące wyniki osiągnięto już w dziedzinie systemów głosowania, dowodu pochodzenia, certyfikacji dokumentów i inteligentnych umów, które to ostatnie sprawiają, że prawnicy stają w obliczu nowej granicy klauzul samoegzekwowania. Z drugiej strony, zarządzanie dalszymi informacjami wymaganymi przez te aplikacje sprawi, że blockchain będzie cięższy, problem, z którym Bitcoin Whitepaper już się zajmował do standardowego użytku. To sprawia, że bardzo wskazane jest stosowanie alternatywnych struktur, takich jak soft fork, które powielają strukturę Bitcoina, tworząc nowy system. Inną ciekawą opcją są sidechainy, równoległe struktury, które wymieniają bitcoiny na lokalne pieniądze po stałym kursie i rejestrują kolejne operacje we własnym osobnym logu, dzięki czemu blockchain Bitcoina rejestruje tylko transakcje przychodzące i wychodzące.


Powrót

BITNET



BITNET, pierwotnie znany jako "Because It's There Network", a później jako "Because It's Time Network", był wczesnym, rozległym, współpracującym międzyuczelnianym systemem komputerowym. Poprzedziła World Wide Web, ale umożliwiała transmisję poczty elektronicznej i dostęp do 3000 grup dyskusyjnych (w szczytowym momencie). Początkowo koncentrował się na zagadnieniach akademickich, ale później został rozszerzony o popularne zainteresowania i tematy polityczne, które były badane głównie na tysiącach listservs BITNET. Rzeczywiście, listservs mogą być najtrwalszym dziedzictwem BITNET. Użytkownicy mogli również uzyskiwać pliki za pomocą serwerów FTP i zawierały funkcję wiadomości błyskawicznych, Bitnet Relay. Został zaprojektowany wyłącznie do zastosowań niekomercyjnych. Ten wpis analizuje pochodzenie BITNET, jego globalny wpływ i ewentualny upadek.

Początki BITNETU

David Alan Grier i Mary Campbell zauważają, że zanim BITNET był siecią fizyczną, był organizacją społeczną. Odnosi się to do tego stopnia, że przed utworzeniem BITNET, kilkanaście uniwersytetów Wschodniego Wybrzeża utworzyło spółdzielnię techniczną w celu poprawy komunikacji komputerowej. BITNET został założony w 1981 roku przez Irę Fuchsa z City University of New York i Greydona Freemana z Yale; pierwotny link łączył ich dwa kampusy. IBM zapewnił początkowe finansowanie wsparcia scentralizowanej sieci, w tym centrum operacyjnego i informacyjnego; później był wspierany ze składek członkowskich i opierał się w dużej mierze na wolontariuszach. Biorąc pod uwagę tę zależność, BITNET opierał się w dużej mierze na ogromnej wewnętrznej sieci IBM, VNET, co utrudniało doradztwo techniczne i naprawy. Obsługuje również systemy UNIX. Aby dołączyć, inne centra musiały zakupić modemy i wydzierżawić linię telefoniczną, a także służyć jako wejście dla jednego innego członka, zapewniając brak zbędnych ścieżek. BITNET był siecią magazynującą "punkt po punkcie" i przekazującą informacje, co oznacza, że rozprowadzała informacje z jednego węzła do drugiego, aż dotarła do miejsca docelowego, co jest zupełnie inne niż w przypadku systemu TCP/IP wdrożonego przez Internet. System rósł powoli, ale stabilnie przez pierwsze 3 lata. W 1982 roku obejmowała 20 instytucji w Kalifornii i Europie, gdzie stała się popularna w laboratorium CERN, które później dało początek World Wide Web. W 1984 roku University of Maine uruchomił elektroniczny magazyn BITNET, VM/COM. W tym samym roku BITNET dał początek pierwszym lochom dla wielu użytkowników, grze tekstowej o nazwie MAD. Pod koniec lat 80. tempo jej wzrostu wyraźnie przyspieszyło. Biorąc pod uwagę, jak podobny był BITNET do Usenetu, pod koniec lat 80. BITNET zaczął publikować listy mailingowe w Usenecie. BITNET osiągnął swój szczyt w 1991 roku, kiedy dotarł do 1400 organizacji w 49 krajach, w tym w Ameryce Północnej, Europie, Izraelu, niektórych państwach Zatoki Perskiej i Indiach. Był również popularny w niektórych częściach Ameryki Łacińskiej. Na krótką chwilę stała się największą akademicką siecią komputerową na świecie, umożliwiającą międzynarodową pocztę e-mail, przesyłanie plików, przesyłanie wiadomości w czasie rzeczywistym i listy mailingowe.

Globalny wpływ BITNET

Zarządzanie BITNET, a nawet jego nazwa, różniły się w zależności od kraju i regionu. W Stanach Zjednoczonych zarządzanie w dużej mierze przypadło BITNET Network Information Center, które połączyło się z Computer Science Network w 1988 roku, tworząc Corporation for Research and Educational Networking, konsorcjum non-profit złożone z ośrodków szkolnictwa wyższego i ośrodków badawczych. W Kanadzie odpowiedzialność spadła na NetNorth. W Europie zadanie to zostało podjęte przez Europejską Sieć Akademicką i Badawczą. W Japonii, AsiaNet wykonał zadanie. W Indiach nazywano go TIFR; w Zatoce Perskiej, GulfNet. W 1984 utworzono Komitet Wykonawczy, który w 1987 roku stał się organizacją non-profit. W 1987 roku powstał BITNET II, próba naśladowania sieci o dużej przepustowości NSFNET i przezwyciężenia problemów wynikających z braku jednorodności oprogramowania wśród hostów. W latach 90. rozwój sieci WWW i systemów TCP/IP oraz odejście od komputerów mainframe IBM. Platforma odnotowała stopniowy upadek BITNET. W 1996 roku Corporation for Research and Educational Networking zaprzestała wsparcia i zasugerowała, aby użytkownicy migrowali gdzie indziej. Po 1993 r. liczba użytkowników BITNET stale spadała, a do 2000 r. zasadniczo przestała funkcjonować.


Powrót

Blockchain



Blockchain to rozproszona, rozszerzalna architektura obliczeniowa w Internecie, w której przechowywane są ewidencje aktywów lub wymiany. Łączy w sobie protokół BitTorrent, który umożliwia sieci peer-to-peer i kryptografię klucza publicznego. Został po raz pierwszy wprowadzony jako podstawowa technologia kryptowaluty Bitcoin, która została uruchomiona w 2009 roku, służąc jako cyfrowa księga rachunków pieniężnych. W związku z tym zwrócono początkową uwagę na przypuszczalny wpływ na świat finansowy, który sprawia, że pośrednicy, tacy jak banki, stają się przestarzałe. Ale nawet po dziesięciu latach od wprowadzenia, szeroki zakres zastosowań jest dopiero widoczny, a rozwój jest wciąż na wczesnym etapie. Potencjał technologii blockchain jest kwestionowany; niektórzy twierdzą, że jego sposób decentralizacji ma stać się kolejnym kamieniem milowym po sieci semantycznej, podczas gdy inni przyznają mu mniej znaczącą rolę. Jednak przedsiębiorstwa, agencje rządowe i organizacje non-profit wykazują duże zainteresowanie tym nowym paradygmatem organizacji, który umożliwia rejestrację zabezpieczoną przed manipulacją lub przekazywanie dowolnego rodzaju wartości. Oryginalny skrypt jest open source i zapewnia dostęp każdemu, projekt mający na celu wspieranie demokracji, ale obok publicznych blockchainów, takich jak Bitcoin i Ethereum, pojawiły się dozwolone blockchainy. Są one zarządzane przez dostawców rozwiązań i ograniczają udział w mechanizmie konsensusu blockchain. Ten wpis definiuje blockchain i omawia jego rozwój i zastosowania, zastosowania, zalety oraz postrzegane ograniczenia i zagrożenia.

Zdefiniowany łańcuch bloków

Dane osadzone w kodzie źródłowym pierwszego bloku, zwane blokiem genezy lub blokiem #0, definiują parametry łańcucha bloków, na których opierają się wszystkie kolejne bloki. Są one oznaczane czasem i dodawane w porządku chronologicznym i zawierają zaszyfrowane dane zakończonych procesów, transakcji, wraz z danymi determinującymi z poprzedniego bloku. Wszystkie kolejne bloki są połączone kombinacją ich danych szczegółowych z powrotem do początku sekwencji, co uniemożliwia manipulację, ponieważ jakiekolwiek odchylenie oznaczałoby ponowne obliczenie całego łańcucha bloków. Księga jest wspólnie tworzona przez uczestniczących użytkowników lub zaimplementowane urządzenia, zwane węzłami, z których wszystkie przechowują zapis łańcucha bloków w ich systemie komputerowym, który automatycznie aktualizuje się za każdym razem, gdy dodawany jest nowy blok. Każdemu węzłowi przypisywana jest tożsamość pseudonimowa, adres klucza publicznego złożony z 27 do 32 ciągów znaków alfanumerycznych. Głównym rewolucyjnym aspektem technologii blockchain jest to, że jej projekt rozwiązał problemy związane z podwójnymi wydatkami i bizantyńskimi generałami w systemach rozproszonych po dziesięcioleciach badań kryptograficznych. Każdy obiekt cyfrowy, na przykład utwór muzyczny, składa się z ciągu zer i jedynek, które można odtwarzać w nieskończoność i przekazywać dalej. Wcześniej można było temu zapobiec tylko w systemie hierarchicznym, w którym autoryzowane i zaufane źródło szyfruje dane materiałów chronionych prawem autorskim i wydaje odszyfrowane kopie do zakupu. Metodą szyfrowania technologii blockchain jest funkcja skrótu. Konwertuje dane aktywów lub wymiany na unikalny kod o ustalonej z góry długości, zwany hashem (skrót od wartości hash), który jest jednocześnie identyfikatorem bloku. Łatwo jest obliczyć hash, ale praktycznie niemożliwe jest odwrócenie go z powrotem do oryginalnych danych. Aby rozpocząć transakcję na blockchainie, każda ze stron musi wygenerować klucze publiczne i prywatne za pomocą hashowania. Klucze publiczne są współdzielone, klucze prywatne są przechowywane jako osobiste, a tylko kombinacja obu umożliwia utworzenie podpisu cyfrowego, za pomocą którego właściciel potwierdza przeniesienie obiektu cyfrowego, czy to zasobu, czy usługi, na inny. Aby zakończyć proces bez centralnego organu administracyjnego, minimalna liczba innych węzłów, tzw. górników, musi prześledzić transakcję i dojść do konsensusu co do jej odpowiedzialności. Osiąga się to poprzez rozwiązanie zagadki matematycznej, która jest tak złożona, że jej rozwiązanie służy jako kryptograficzny dowód ważności transakcji, zwany "dowodem pracy". Potwierdza również, że określona wartość, identyfikowana przez 64-znakowy hash, opuściła portfel poprzedniego właściciela, zapobiegając w ten sposób podwójnym wydatkom. Blockchain to również system o wysokiej bizantyjskiej odporności na błędy, ponieważ "zgodę między dobrymi aktorami" osiąga większość górników, którzy pracują nad rozwiązaniem i obliczają ten sam wynik. W tym momencie transakcja jest gotowa do połączenia z inną, dopóki nie zostaną wydane w ramach nowego bloku. W grudniu 2016 r. średni czas pomiędzy blokami wyemitowanymi na blockchainie Bitcoina wynosił niecałe 9 minut. Wydobycie jest niezbędne, aby łańcuch bloków działał, rozwijał się i aktualizował, ale wymaga znacznego wysiłku obliczeniowego i mocy obliczeniowej. Aby wygenerować dowód pracy, przemysł wydobywczy Bitcoin wykonał 600 bilionów obliczeń SHA256 na sekundę (liczba z 2013 r.). Eksperymenty z przekształceniem całości lub części tych bezużytecznych obliczeń na wartość praktyczną lub naukową, np. badania nad rakiem, nie przyniosły zadowalających wyników. Dodatkowo potrzebny jest specyficzny sprzęt, który często jest utrzymywany w tajemnicy ze względu na rosnącą presję konkurencji. W związku z tym twórcy nowych bloków są nagradzani zachętą, która składa się częściowo z przydzielonych tokenów w korelacji z generowaniem bloku (określonego w protokole blockchain) oraz opłat transakcyjnych, niewielkiego procentu wartości wymiany, wpłacanych przez właściciel transakcji. W przeciwieństwie do początków, kiedy ludzie wydobywali mniej więcej jako hobby, praca jest obecnie wykonywana w dużych centrach danych, z których wiele znajduje się w Chinach, gdzie energia jest wciąż tania.

Rozwój i zastosowanie

Osoba pod pseudonimem Satoshi Nakamoto skonceptualizowała technologię blockchain dla Bitcoin w białej księdze z 2008 roku, która jest również określana jako Blockchain 1.0. Chociaż wydawało się, że jedynym celem jest decentralizacja pieniędzy i zakłócenie systemu bankowego, Nakamoto napisał w czerwcu 2010 r., że przewiduje się, że rozwój i rozwidlenie kodu źródłowego Bitcoina umożliwi obsługę każdego możliwego typu transakcji. W 2013 roku pojawił się nowy poziom technologii blockchain, nazwany Blockchain 2.0. Jest zbudowany na szablonie Bitcoin Core, ale zawiera nowe aplikacje, zdecentralizowane aplikacje, które wykraczają poza zwykłe modele kupna/sprzedaży kryptowaluty, takie jak inteligentne kontrakty, DAO (zdecentralizowane organizacje autonomiczne) i DAC (zdecentralizowane autonomiczne korporacje). Dowolna wartość, czy to aktywa twarde, takie jak ziemia, dom, samochód; aktywa miękkie, takie jak dokumenty (np. akt urodzenia, paszport, prawo jazdy); lub własność intelektualną, taką jak prawa autorskie, patent lub nazwa handlowa, można przekształcić w inteligentną własność, zapewniając jej kodowanie blockchain, a następnie przetwarzać w celu rejestracji, inwentaryzacji lub wymiany za pośrednictwem inteligentnych kontraktów. Inteligentne kontrakty to protokoły komputerowe, które działają jak kontrakty analogowe. Jest to w zasadzie określenie i rozliczenie umowy między dwiema lub więcej stronami, aczkolwiek z tą różnicą, że jest ona egzekwowana przez kodeks, pod warunkiem spełnienia wcześniej sformułowanych warunków. Gdy węzły sieci w całym łańcuchu bloków osiągną konsensus, późniejsza mediacja lub unieważnienie teoretycznie nie jest możliwe, co jest jednym z powodów, dla których inteligentne kontrakty nie są objęte obecnymi ramami prawnymi. Największy udział w rozwoju można przypisać Ethereum, drugiemu po Bitcoinie znanym publicznym blockchainie, zainicjowanemu przez Vitalika Buterina, byłego badacza i programisty Bitcoina. Służy nie tylko jako sieć wydobywcza dla już z powodzeniem ustanowionej kryptowaluty Ether, ale także zapewnia platformę do tworzenia zdecentralizowanych aplikacji i generowania łańcuchów bloków poprzez ułatwienie zdecentralizowanej, podobnej do Turinga maszyny wirtualnej, maszyny wirtualnej Ethereum, która istnieje na każdym komputerze użytkownika, który jest częścią sieci. Pierwsza wersja Frontier (Beta) została uruchomiona w lipcu 2015 r. Pierwsze stabilne wydanie, Homestead, na początku 2016 r. odznaczało się twardym rozwidleniem w celu wyeliminowania zagrożeń bezpieczeństwa i dorozumianych aktualizacji technicznych, takich jak dalszy rozwój najczęściej stosowanego języka programowania Ethereum Solidity, który jest przeznaczony do pisania inteligentnych kontraktów. Szybki rozwój Ethereum został chwilowo zatrzymany przez "hack DAO" w czerwcu 2016 roku. DAO to firma inwestycyjna, która działa w ramach łańcucha bloków Ethereum. Jego struktury zarządzania są określane wyłącznie przez inteligentne kontrakty, a transakcje rozliczane są automatycznie, dzięki czemu działają autonomicznie, bez konieczności ingerencji człowieka. Nieznana strona wykorzystała lukę w inteligentnym kontrakcie i zdołała wykorzystać około jednej trzeciej z szacowanego wówczas na 50 milionów dolarów funduszu Ether. Społeczność Ethereum potrzebowała szybkiej odpowiedzi, aby powstrzymać hakerów przed wycofaniem Etheru, więc najgłośniejsza większość zdecydowała się na hard fork, co unieważniło pierwotną kradzież. Wielu innych poczuło się zdradzonych przez to działanie, ponieważ naruszyło etos konsensusu społeczności i kontynuowało oryginalną gałąź o nazwie "Ethereum Classic", która jest używana od tego czasu wraz z nowszym łańcuchem. Oprócz zapewnienia silnego partnera biznesowego z firmą Microsoft, Ethereum przygotowuje grunt pod dwie ostatnie fazy, aby uzupełnić swój ekosystem blockchain. Kolejna wersja, Metropolis, która ma zostać wydana pod koniec 2017 r., zapewni przyjazny interfejs użytkownika, który umożliwi dostęp konsumentowi końcowemu, co oznacza wejście na główny nurt rynku. Najwięcej zaprezentuje ostateczna wersja Serenity trudny hard fork poprzez zastąpienie proof-of-work bardziej zdecentralizowanym algorytmem proof-of-stake (PoS). Kryptowaluta Peercoin jako pierwsza wdrożyła PoS, wykorzystując wersję hybrydową w połączeniu z dowodem pracy. Chociaż PoS wygląda na kolejny najbardziej obiecujący mechanizm konsensusu, nadal wykazuje szereg słabości. W tym podejściu nowe bloki są wykuwane, metaforycznie w sensie kowalstwa, a nie wydobywane, a ich twórcy określani są na podstawie proporcji bogactwa (udziału) jakie posiadają w sieci blockchain. Ponieważ oznaczałoby to ryzyko centralizacji, podczas testowania są różne sposoby randomizacji, na przykład "wiek monety", w którym kwota kredytu interesariusza jest mnożona przez czas od ostatniego ruchu kredytowego. Główną korzyścią z przyjęcia PoS jest eliminacja wydobycia czynnika marnotrawstwa energii. Generowanie nowych bloków stanie się znacznie bardziej przyjazne dla środowiska i bez konieczności wykonywania ciężkich obliczeń, cykle tworzenia bloków przyspieszą z minut do sekund. Blockchain nowej generacji, Blockchain 3.0, jest przeznaczony do zastosowań poza walutami, finansami i rynkami. Nieograniczona ilość możliwości aplikacyjnych będzie się rozwijała, jeśli transakcję będziemy rozumieć bardziej jako naturalny proces - czyli pozyskiwanie i odprowadzanie zasobów.

Przykłady użycia

Duże firmy i agencje rządowe wykazują rosnące zainteresowanie technologią blockchain i wykorzystują ją w praktyce - na przykład jako rejestr lub usługa notarialna. W przeciwieństwie do Stanów Zjednoczonych i Europy Zachodniej większość ludności świata nie ma tytułu prawnego do swoich aktywów; na przykład do 90% gruntów w Afryce nie jest zarejestrowanych (stan na 2016 r.). Bez żadnego zarejestrowanego, uznanego dowodu własności właściciele ziemscy są narażeni na oszustwa związane z tytułem gruntu i nie są w stanie zastawić hipoteki na swojej nieruchomości. Technologia Blockchain może nie tylko zapewnić bezpieczeństwo mniej uprzywilejowanym, ale także zminimalizować długotrwałe i kosztowne procesy rejestracji, które można obsłużyć za pomocą smartfona. Oznacza to brak podróży lub okresów oczekiwania w rejestrze i natychmiastowe widoczne tytuły dzięki audytom w czasie rzeczywistym za ułamek zwykłych kosztów. Kraje takie jak Ghana, Grecja, Honduras i Gruzja poprosiły firmy takie jak Bitland, BitFury i Factom o dostarczenie technologii określania tytułów gruntów opartej na blockchain. Niektóre rządy próbowały już wstrzymać projekty ze względu na ich polityczny charakter. Ponadto własność intelektualna może być chroniona w łańcuchu bloków, dzięki czemu ludzie mogą wykazać własność pomysłów, patentów, pism lub dzieł sztuki, na przykład na podstawie Dowodu istnienia. Rząd Wielkiej Brytanii zlecił dostawcy infrastruktury blockchain Credits przeprojektowanie zarządzania danymi w sektorze publicznym, takim jak National Health Service. Instytucje medyczne nie mogą łatwo i bezpiecznie udostępniać poufnych danych pacjentów, ponieważ cyfrowa elektroniczna dokumentacja medyczna jest różnie organizowana przez różnych świadczeniodawców. Jednak we wspólnej księdze pełna historia medyczna pacjentów, w tym dane demograficzne, leki, alergie i wyniki laboratoryjne, może być przechowywana w jednolity sposób, co może skutkować postawieniem dokładniejszych diagnoz i ratowaniem życia, ponieważ nie będzie marnowania czasu przesyłając dane tam iz powrotem. Według urzędników klucze publiczne zapewniają jedynie dostęp do metadanych i lokalizacji plików osobistych; w ten sposób chronione są najbardziej prywatne dane ludzi. W sektorze rolniczym, który stanowi 40% światowej siły roboczej, zarówno rolnicy, jak i konsumenci mogą korzystać z technologii blockchain. Filament, na przykład, tworzy koncepcje dla inteligentnych farm, łącząc i decentralizując obiekty fizyczne i komunikację w rozległych sieciach; ułatwia śledzenie zapasów, maszyn i warunków pogodowych; i obiecuje niższe koszty, wydajność i połączenie globalnego rynku. Pochodzenie umożliwia konsumentom weryfikację informacji o pochodzeniu, składnikach i datach wydarzeń w łańcuchu dostaw żywności. Ta przejrzystość pozwala na dokonywanie wyborów wspierających zrównoważony rozwój i może pomóc w zabezpieczeniu istnienia mniejszych przedsiębiorstw w rolnictwie ekologicznym lub sprawiedliwym handlu. Ogólnie rzecz biorąc, obecna infrastruktura sieciowa jest nie zaprojektowana, aby sprostać wymaganiom przyszłych wysoce złożonych struktur, regulujących całe środowiska, takie jak inteligentne sieci (sieci energetyczne) lub inteligentne miasta w czasie rzeczywistym. Internet rzeczy stale się rozwija; eksperci szacują, że do 2020 r. liczba podłączonych inteligentnych urządzeń wzrośnie do 50 miliardów. Zarządzanie tym ogromnym kwantem za pomocą tradycyjnych metod stanie się niewykonalne, nawet utrzymanie scentralizowanych serwerów w celu wykonywania najbardziej podstawowych zadań, takich jak dystrybucja regularnych aktualizacji oprogramowania. Każde urządzenie będzie wymagało unikalnego identyfikatora, ale protokół internetowy IPv4, który obecnie kieruje większość ruchu (90%), staje się coraz mniej dostępnych adresów IP. IPv6, opracowany pod koniec lat 90., może je przydzielać; wykazuje jednak poważne problemy z bezpieczeństwem, ponieważ zintegrowany protokół bezpieczeństwa internetowego nie jest automatycznie włączany, a monitorowanie nadchodzącej niezliczonej liczby adresów IP i eliminowanie uszkodzonych urządzeń jest oczywiste. Urządzenia wymagają ponadto częstej wymiany czujników lub baterii, ale interwencja człowieka, zwłaszcza na obszarach oddalonych, nie zawsze lub natychmiast jest możliwa i nie jest zgodna z ogólnym celem ograniczenia jej do minimum. Z biegiem czasu coraz bardziej ekonomiczne staje się montowanie nawet prostych elementów sterujących, takich jak klamki i żarówki, z komputerami ogólnego przeznaczenia, a nie wbudowanymi aplikacjami, tak aby możliwości przetwarzania były wystarczająco wydajne, aby ułatwić współpracę oprogramowania i sprzętu, dzięki czemu urządzenia stają się samoczynne. zrównoważony. Blockchain wraz z inteligentnymi kontraktami umożliwi węzłom organizowanie własnych zasobów - na przykład płacenie za energię elektryczną lub wykorzystanie magazynowania w zamian za świadczenie usług lub wydawanie kapitału.

Cnoty i niebezpieczeństwa

Pojawienie się technologii blockchain w głębi globalnego kryzysu finansowego z 2008 roku dało nową nadzieję na demokratyczny projekt, darmowy tryb wymiany peer-to-peer, który działa poza kontrolą agencji rządowych, banków czy prywatnych korporacji i ich potężne interesy. Zamierzona rola Internetu była podobna, ale jak widać wyraźnie w epoce post-Snowdena, odwrócona. Chociaż natychmiastowy dostęp do uniwersalnych informacji jest za dotknięciem przycisku, ogół społeczeństwa pozostaje w niepewności co do konsekwencji własnego istnienia i działania. Dane użytkowników są gromadzone i wykorzystywane przez nielicznych skoncentrowanych, gdyż jedynym rozwiązaniem umożliwiającym działanie Internetu wydaje się wdrożenie scentralizowanych systemów rzekomo zaufanych partnerów, co daje im znaczną przewagę wiedzy nad monitorowanym obywatelem i konsumentem. Big data i ich interpretacja dają wgląd w każdą możliwą działalność człowieka i jej prawdopodobny rozwój, stając się w ten sposób w coraz większym stopniu najcenniejszą klasą aktywów. Bez drastycznych zmian systemowych korporacje i rządy prawdopodobnie zapewnią, że łagodniejsza ochrona prywatności dotyczy również łańcucha bloków, ponieważ jego poszczególne zasady zależą przede wszystkim od projektu i kodowania. Jak dotąd publiczny blockchain jest przejrzysty, ale zapewnia anonimowość. Ujawniane są tylko kwestie merytoryczne, a nie tylko zaangażowane strony, co chroni przed cenzurą lub represyjnymi środkami regulujących reżimów politycznych i kontroli kapitału. Warstwy publiczne można śledzić w Internecie - na przykład pod adresem https://etherscan.io/. Każda wymiana, która ma miejsce na blockchainie, opiera się na dowodach, a nie na zaufaniu i bez możliwości sporu lub odwrócenia, uczestnicy nie muszą ujawniać zbyt wielu informacji na swój temat ani uważać na swojego odpowiednika. Silnik blockchain zawiera historię transakcji każdego przedmiotu w obiegu i dostarcza dowodu na to, kto, pod pseudonimem lub nie, jest w danym momencie właścicielem, co otwiera utopijną wizję przejrzystego zarządzania - na przykład odkrycie handlu bronią. Pomimo swojej otwartości okazuje się być bezpieczny, ponieważ blockchain jest rozproszony we wszystkich urządzeniach węzłów zamiast posiadania centralnego serwera jako podatnego punktu ataku. Teoretycznie możliwe jest, że pojedynczy podmiot przejmie kontrolę, a tym samym będzie w stanie skompromitować księgę, biorąc pod uwagę raczej mało prawdopodobny przypadek, że czyjaś moc obliczeniowa jest wystarczająco duża, aby osiągnąć większość (51%) wskaźnika hashowania wydobycia. Co więcej, bezproblemowe i natychmiastowe transakcje po niższych kosztach sprawiają, że technologia ta pobudza gospodarkę i pozwala na większą wymianę handlową. Wyeliminowanie mediacji obiecuje znaczne oszczędności. Po pierwsze, obowiązują tylko opłaty transakcyjne, które są proporcjonalne do kwoty lub wartości transakcji. Po drugie, mamy do czynienia z przemieszczeniem personelu przez automatyzację i zmniejszeniem złego zarządzania z powodu błędu ludzkiego. Z drugiej strony, najpopularniejszy obecnie sposób osiągania konsensusu, dowód pracy, nie jest trwały. Chrupanie dowolnych liczb metodą prób i błędów pochłania ogromną ilość energii, która rośnie wraz ze wzrostem zapotrzebowania na transakcje. Fakt, że zapisy raz zapisane w blockchain nie podlegają modyfikacji, wyklucza możliwość późniejszej zmiany zdania i koliduje z "prawem do bycia zapomnianym". Technologia Blockchain w połączeniu z inteligentnymi kontraktami to paradygmat radykalnej automatyzacji. Zapewnia techniczne rozwiązanie "słabości" modelu opartego na zaufaniu, czyli możliwości zdrady, ryzyka nieodłącznie związanego z każdą praktyką społeczną od początku interakcji międzyludzkich. Zaufanie zostaje zastąpione hermetycznym dowodem, wykonywanym przez zaprogramowany kod. Po zainstalowaniu i uruchomieniu bardzo trudno będzie uciec z systemu. Natychmiastowość i sztywność autonomicznych, samoegzekwujących się inteligentnych kontraktów oferują wyraźne korzyści w stosunku do ludzkiego, czasem "irracjonalnego" podejmowania decyzji, ale wykluczają jakąkolwiek szansę na indywidualne rozważenie lub negocjacje. Zwykle pionierskie technologie, takie jak Internet, ewoluują powoli z długotrwałych badań wojskowych i akademickich i są upubliczniane dopiero po dokładnym rozważeniu i poprawieniu. Biorąc to pod uwagę, technologia blockchain o dość tajemniczym pochodzeniu i nagłym pojawieniu się może wydawać się ryzykowna. Mimo że wyrosła z anarchistycznego korzenia i protestu dobrej woli przeciwko systemowi bankowemu, można słusznie założyć, że oczekiwany rozwój odwróci się i będzie działał na korzyść neoliberalizmu, ponieważ jego antyregulacyjna polityka jest skazana na dalszą prywatyzację.


Powrót

Blogi



Dzienniki internetowe lub blogi to jedna z najwcześniejszych form mediów społecznościowych w Internecie. Blogi należy rozumieć jako platformy typu narrowcasting, na których treści są tworzone przez osobę lub grupę osób. Są one również przeznaczone dla określonych segmentów lub grup demograficznych w społeczeństwie. Można je również rozumieć jako platformy zorientowane na zainteresowanie, w których blogerzy skupiają się na określonych interesujących tematach i przyciągają czytelników zainteresowanych tymi samymi tematami. Ten wpis analizuje historię blogów, sposób, w jaki wspierają one formowanie się powstańczej publiczności oraz niektóre z ich konkretnych zastosowań.

Historia blogów

Pierwsze blogi, które pojawiły się w latach 90., nie posiadały wszystkich cech, jakie można spotkać dzisiaj. Wczesne blogi wyglądały bardziej jak strony internetowe, które były regularnie aktualizowane i pisane jak internetowe pamiętniki, a najwcześniejsi blogerzy opisywali siebie jako dziennikarzy obywatelskich lub pamiętnikarze online i pisali o wszystkim, co wydarzyło się w ich życiu lub ich dotyczyło. Dopiero w 1998 roku, wraz z uruchomieniem Open Diary, wprowadzono funkcję komentowania. W 1999 roku uruchomiono LiveJournal i Blogger, które dodały blogrolle i trackbacki jako dodatkowe funkcje. Kiedy blogi zostały po raz pierwszy wprowadzone przed 1998 r., były używane przez wielu jako osobiste dzienniki lub pamiętniki w Internecie. Jednak ludzie szybko zdali sobie sprawę z potencjału społecznego, jaki umożliwia sieć sieciowa Internetu i dodali funkcje, które ułatwiały interakcje wiele-do-jednego i wiele-do-wielu, uzupełniając interakcje z jedną osobą, które już istniały w formie wpisu na blogu. napisany przez osobę, rozpowszechniany wśród odbiorców docelowych. Na przykład funkcja komentowania umożliwia czytelnikom zostawianie komentarzy dla blogera (wiele do jednego), ale komentarze mogą być również czytane przez innych czytelników (wielu do wielu), chyba że bloger je usunie. Kiedy Twitter po raz pierwszy pojawił się jako platforma do mikroblogowania w 2006 roku, był uważany za usługę krótkich wiadomości w Internecie, ale szybko stał się usługą sieci społecznościowej, wykorzystującą takie funkcje, jak śledzenie. Koncepcja obserwowania pozwalała użytkownikom na prowadzenie wspólnego dialogu na tematy, które ich interesowały, ale wkrótce okazało się, że próby organizowania różnych tematów lub różnych rozmów na ten sam temat mogą być chaotyczne. Tak więc w 2008 roku Twitter wprowadził hashtagi, które stały się skutecznym sposobem organizowania rozmów i tweetów na te same tematy. Hashtagi wkrótce stały się częścią innych platform mediów społecznościowych, takich jak Facebook i Instagram. W metaanalizie badań nad mediami społecznościowymi w latach 2007-2013 Marko M. Skoric i współpracownicy odkryli, że większość badań blogów koncentrowała się na uczestnictwie w życiu politycznym i że korzystanie z blogów generowało również większy wpływ na uczestnictwo w życiu politycznym w porównaniu z korzystaniem z innych portali społecznościowych. platformy medialne, takie jak serwisy społecznościowe (np. Facebook). Istnieje wiele powodów, dla których istnieje potrzeba wyróżnienia blogów jako platformy mediów społecznościowych w Internecie. W ostatnich latach dominującą platformą badawczą były serwisy społecznościowe, więc dane empiryczne dotyczące korzystania z blogów są skąpe. Ta luka może wynikać z trudności w znalezieniu uczestników, którzy korzystają i śledzą blogi, ponieważ są to platformy typu narrowcasting, które skupiają się na tworzeniu, rozpowszechnianiu lub śledzeniu treści przeznaczonych dla określonych segmentów populacji. Nawet jeśli takich użytkowników i producentów treści można łatwo zidentyfikować, nie zawsze chętnie uczestniczą w wywiadach lub ankietach. Ale poza względnym brakiem badań na temat blogów w szerszym kontekście badań mediów społecznościowych w Internecie, blogi są ważnymi i odrębnymi platformami mediów społecznościowych, ponieważ są często wykorzystywane do generowania i uczestniczenia w dyskursie na temat zagadnień interesu publicznego. W swojej analizie postów na blogach wygenerowanych podczas wyborów powszechnych w Singapurze w 2011 r. Natalie Pang i Debbie Goh stwierdzili, że blogi nie tylko generowały dyskusje na tematy poruszane przez media głównego nurtu i inne wiarygodne źródła, ale także generowały dyskusje na tematy, które nie były przez nich poruszane. . Ponadto funkcje komentarzy na blogach umożliwiają czytelnikom łatwe i publiczne uczestniczenie w dyskusjach i debatach, co wzmacnia blogi jako platformy, które mają duży potencjał jako witryny do debat publicznych i zbuntowanej publiczności. Z pojawieniem się prac naukowych w tej dziedzinie wiąże się rosnąca popularność szczególnego podejścia do badania Internetu, opisanego przez Johna Bargha i Katelyn McKenna jako podejście, które koncentruje się na "interakcji między cechami otoczenia komunikacji internetowej a szczególnymi celami i potrzebami osób, które się komunikują, a także kontekstem społecznym otoczenia interakcji" . Podejście to uwzględnia zarówno cechy strukturalne technologii, jak i kontekst społeczny jej użytkowników.

Blogi jako Powstańcza Publiczność

Uczeni pisali o społeczno-politycznym wpływie blogów, zwłaszcza jako witryn do kształtowania opinii i debat, prowadzenia kampanii na rzecz najistotniejszych kwestii oraz kwestionowania/przesuwania granic mediów. Blogi są również wykorzystywane przez ekspertów obywatelskich jako platforma do dzielenia się swoją wiedzą na różne tematy, takie jak podróże, uroda, moda, jedzenie, edukacja, marketing cyfrowy itd., więc nie ograniczają się one do tematów społeczno-politycznych. Od czasu ich powstania blogi znacznie się rozrosły, a Technorati zgłosiło łącznie 1,3 miliona blogów na całym świecie w lutym 2014 r. (Technorati zakończyło swoją usługę jako wykaz blogów i katalog w maju 2014 r., stąd brak najnowszych statystyk). Blogi istniały przed pojawieniem się popularnych serwisów społecznościowych, takich jak Facebook i Myspace, chociaż z pewnością możliwe jest również tworzenie i utrzymywanie sieci społecznościowej poprzez interakcje na blogach.

Blogi jako zbuntowana publiczność: cztery uwarunkowania kontekstowe

Warunki technologiczne

Warunki technologiczne odnoszą się do cech strukturalnych technologii. W 1994 r. Gerardine DeSanctis i Marshall Scott Poole opisali cechy strukturalne jako "specyficzne typy reguł i zasobów lub możliwości oferowane przez system", i interpretacyjne), ale przede wszystkim ważne jest zrozumienie wszystkich uwarunkowań technologicznych, ponieważ praktyki korzystania z blogów dotyczą w równym stopniu zrozumienia, które cechy są zawłaszczane, a które porzucane. W przeciwieństwie do osobistych dzienników, które są prywatne, blogi są zasadniczo aplikacjami społecznościowymi, a funkcja komentarzy ułatwia odpowiedzi i interakcje na podstawie postów na blogu. Taka jest społeczna natura blogów, która pozwala blogerom tworzyć i utrzymywać sieć społecznościową z ich obserwatorami i czytelnikami. Wiele blogów zawiera również listę blogów, która odnosi się do listy innych blogów połączonych z blogiem. Wpływowe blogi (i blogerzy) są zwykle umieszczane w takich blogrollach. Ponadto istnieją trackbacki, opcja, która pozwala autorom być powiadamianym, gdy inni blogerzy zamieszczają linki do ich postów. Te dwie cechy wspierają komunikację między blogami i odzwierciedlają luźny rodzaj sieci społecznościowej wśród blogerów. Chociaż w demokratycznym potencjale pojawiły się cechy blogów, te same cechy, które wzmacniają, mogą również osłabiać demokratyczne uczestnictwo, ponieważ korzystanie z nich może w dużym stopniu zależeć od zdolności i chęci korzystania z tych funkcji. Na przykład, nawet jeśli post otwarcie zachęca czytelników do odpowiedzi i rozważań, ci, którzy komentują, są zazwyczaj chętni i przyzwyczajeni do takich interakcji online. Narracyjny styl wpisów na blogu może również odzwierciedlać etos kulturowy, który jest autentyczny i odrębny dla każdego bloga. W rezultacie posty, które zwykle zawierają tekst i obrazy, prezentują określone funkcje i style, dzięki którym obserwujący mogą komentować i wchodzić w interakcje. Innymi słowy, same warunki techniczne blogów nie wyjaśniają, w jaki sposób są one wykorzystywane ani jaki jest ich potencjał w każdym społeczeństwie; ale współdziałają z kulturowymi, władzy i warunkami interpretacyjnymi, aby funkcjonować jako zbuntowana publiczność.

Warunki kulturowe

Aby zrozumieć uwarunkowania kulturowe wpływające na korzystanie z blogów, konieczne jest omówienie idei demokracji, ponieważ jest to przekonanie i wartość, która ma najbardziej bezpośredni wpływ na sposób postrzegania przez użytkowników blogi. Chociaż istnieje wiele form demokracji, istnieją pewne wartości, które obecnie postrzegane są jako fundamentalne i uniwersalne w społeczeństwach demokratycznych. Larry Diamond podsumowuje je jako cztery elementy. Pierwszym z nich jest istnienie systemu politycznego, który obejmuje wolne i uczciwe wybory odbywające się w regularnych odstępach czasu, aby umożliwić obywatelom wybór swojego rządu. Drugi dotyczy zarówno obywatelskiego, jak i politycznego udziału obywateli, takiego jak wolontariat, głosowanie i wyrażanie opinii. Trzecia to prawa człowieka wszystkich obywateli bez względu na ich demografię, a czwarta to rządy prawa, co oznacza, że wszyscy obywatele w równym stopniu podlegają i mają prawo do wszystkich praw i procedur. Spośród tych elementów, drugi element -aktywny udział - jest pod wieloma względami najistotniejszą wartością i motywacją do korzystania z blogów. Mówiąc prościej, solidność blogów i aktywne uczestnictwo w blogach w dużym stopniu zależy od stopnia, w jakim obywatele wierzą w społeczeństwo i uczestniczą w nim. Zasada ta dotyczy nie tylko blogów, które koncentrują się na kwestiach społeczno-politycznych; w przypadku blogów o innej tematyce dzielenie się doświadczeniami i opiniami eksperckimi jest również formą dawania i partycypacji obywatelskiej. Solidność i przekonania kształtują sposób postrzegania blogów przez użytkowników. Na przykład Pang i Goh zauważyli podczas wyborów powszechnych w Singapurze w 2011 r., że wielu blogerów przebudziło się politycznie i obywatelsko dzięki pisaniu i kontaktom z obserwującymi na swoich blogach. Padały pytania o system demokracji w Singapurze, jego system wyborczy i równe szanse dla partii opozycyjnych; wiele z tych pomysłów nie pojawiło się wcześniej w mediach głównego nurtu. Ze względu na strukturę narracyjną zapewnianą przez blogi jako platformę, blogerzy byli w stanie tworzyć bogate, różnorodne, a czasami przekonujące argumenty na temat poruszanych przez nich kwestii. Ci, którzy są zaangażowani w post (nie muszą być zgodni), mogą następnie skorzystać z funkcji komentarzy na blogach, aby wziąć udział w dyskusji i obradach na ten temat. W ten sposób formuje się publiczność powstańcza, zwłaszcza gdy na blogach piszą lub komentują te, które mają różne opinie. To samo zjawisko zaobserwowano również w wielu innych społeczeństwach, takich jak Malezja, a także społeczeństwach Bliskiego Wschodu i Afryki Północnej (której kulminacją była Arabska Wiosna), gdzie media społecznościowe były wykorzystywane do komunikacji i mobilizowania innych aktywistów oraz podnoszenia świadomości na temat bieżące problemy i wydarzenia. Takie interakcje prawdopodobnie mają trwałe konsekwencje. Kulturowo mogą z czasem kształtować charakter partycypacji demokratycznej, sprzyjając bardziej bezpośredniej partycypacji, niezależnie od stylu demokracji w społeczeństwie. W wielu społeczeństwach urzędnicy polityczni również odpowiedzieli na takie bezpośrednie uczestnictwo, angażując się w rozmowy z obywatelami i prowadząc z nimi rozmowy online. Dla każdej celebrytki, osoby politycznej lub osoby publicznej posiadającej konto w mediach społecznościowych stało się to normą.

Warunki zasilania

Wytwarzanie władzy obejmuje tworzenie i wykorzystywanie zasobów materialnych i niematerialnych. Na przykład ci, którzy mają duże bogactwo lub aktywa (które są materialne) są zwykle kojarzeni z większą władzą. Same blogi w Internecie są rodzajem niematerialnego zasobu, ponieważ przewidują, że pewne wirtualne interakcje powinny być możliwe w społeczeństwie. Ustanawiają również podstawowe protokoły rozwoju zasobów materialnych, takich jak obrazy, posty i filmy, które można udostępniać i wykorzystywać. Większa władza wiąże się ze zdolnością do wywierania wpływu i dominacji nad innymi poprzez korzystanie z zasobów materialnych i niematerialnych. Innymi słowy, blogerzy mogą mieć duży wpływ na swoich obserwujących lub zdecydować się na dystrybucję swojej władzy innym blogerom lub obserwującym, przydzielając im zasoby. Korzystając ze swoich blogów, blogerzy stają się liderami opinii w swoich wąskich kręgach odbiorców; ale kiedy na dany temat mówi więcej niż jedna publiczność, temat ten staje się istotny i czasami kończy się ruchem społecznym. W ten sposób kształtowana jest uwaga i wysiłki organizacji państwowych i społecznych w najistotniejszych kwestiach społecznych, a każdy, kto uczestniczy w społecznym dialogu online, może zyskać lub stracić wpływ w społeczeństwie i/lub społeczności. Poprzez takie interakcje władzy, blogi (za pośrednictwem blogerów i ich komentatorów lub obserwatorów) twierdzą, że są buntownikami na dwa sposoby: (1) ujawnianie i kształtowanie najistotniejszych kwestii oraz (2) wzmacnianie lub ograniczanie jednostek jako liderów opinii, którzy kształtują dyskurs na te same kwestie . Jednak takie warunki zasilania należy również rozumieć w kontekście regulacji i zarządzania Internetem jako całością. Różne społeczeństwa wymyśliły własne sposoby regulowania i zarządzania Internetem poprzez zapory ogniowe, wymagania licencyjne, zakazy i filtry. Przepisy te zapewniają władzę nad sposobem, w jaki blogerzy wykorzystują i realokują zasoby, a także wzmacniają je lub ograniczają. Ważne jest, aby rozumieć ten proces jako interakcję rekurencyjną i refleksyjną, ponieważ działania regulacyjne nie są niezależne od działań blogerów i ich centrycznych odbiorców i vice versa. Jednym ze sposobów zrozumienia tego jest przyjrzenie się ruchom, które pojawiły się w odpowiedzi na próby uregulowania Internetu. Na przykład w Singapurze, w odpowiedzi na ogłoszenia o wymaganiach licencyjnych dla wybranych blogów i stron internetowych, pojawił się ruch o nazwie #FreeMyInternet. Zainteresowanie i poparcie dla neutralności sieci na całym świecie, a zwłaszcza w Stanach Zjednoczonych, również odzwierciedlają opór wobec prób regulacji lub kontroli Internetu.

Warunki interpretacyjne

Warunki interpretacyjne odnoszą się do sposobów, w jakie ludzcy aktorzy przypisują znaczenia swoim środowiskom, problemom i wydarzeniom wokół nich. Takie warunki interpretacyjne napędzają i są napędzane przez komunikację między ludzkimi aktorami i wpływają na znaczenia, które przypisują technologii, ich wiedzę i postawy wobec technologii. Warunki interpretacyjne wchodzą w interakcję z innymi warunkami technologicznymi, kulturowymi i energetycznymi. Blogerzy często publikują treści z innych źródeł (które mogą obejmować platformy informacyjne i innych blogerów), uwzględniają własne perspektywy i rozważania dotyczące republikowanych treści oraz wzywają do odpowiedzi od swoich obserwujących. Ponownie, ich obserwatorzy mogą odpowiedzieć, korzystając z funkcji komentowania, aby wziąć udział. Na podstawie tych komunikatów blogerzy i ich obserwatorzy przypisują znaczenie omawianym tematom i wspólnie rozwijają poczucie tego, co jest istotne i istotne. W tym procesie rozwijają również wspólną wiedzę na temat czynników i motywacji, które sprawiają, że pewne kwestie są mniej lub bardziej istotne. Chociaż przeprowadzono wiele badań i wyciągnięto wnioski dotyczące powiązań między częstotliwością korzystania z blogów a wynikami, takimi jak uczestnictwo w życiu politycznym i wiedza, niewiele badań koncentrowało się na zrozumieniu interpretacyjnego aspektu korzystania z blogów i interakcji z nimi. Jest to ważny element, którego nie można przeoczyć; jak wspomniano wcześniej, te interpretacje oddziałują na siebie i mogą również kształtować inne stany. Na przykład bloger może napisać post z określoną opinią na temat problemu, ale poprzez swoje interakcje z innymi osobami zmienić swoje poglądy na ten sam problem i zainspirować się do ponownego publikowania i pisania nowych postów.

Blogi jako powstańcza publiczność: epizody użycia

Epizodyczne spojrzenie na technologię pomaga zrozumieć, dlaczego i jak blogi ewoluują w różnych społeczeństwach z powodu kluczowych epizodów użytkowania. Aby to zilustrować, posłużono się przypadkiem blogów w Singapurze. Blogi pojawiły się na całym świecie pod koniec lat 90., a ich popularność rozszerzyła się na użytkowników w Singapurze. Ich użycie miało bardziej osobisty charakter, a użytkownicy spisywali refleksje na temat ich codziennego życia. Było to podobne do innych części świata, ale w połowie 2000 roku stały się ważnymi platformami dyskursu politycznego i debaty obywateli. Podczas wyborów powszechnych w Singapurze w 2006 r. blogi stały się znaczącą platformą, na której obywatele mogą uczestniczyć i zastanawiać się nad kwestiami, które ich dotyczą, mimo że przepisy dotyczące kampanii zabraniają tego blogerom. Jednak działania i argumenty wysuwane przez aktywistów blogerów skłoniły rząd do zmiany przepisów i są już dobrze postrzegane jako część społeczeństwa.

Dyskurs i miejsca do dyskusji

W każdych wyborach i ważnych momentach społeczno-politycznej historii Singapuru od tamtej pory blogi stały się częścią krajobrazu, nie tylko prezentując alternatywne perspektywy, ale także kwestionując te z głównego nurtu. Jak widać w tym przypadku, kluczowe wydarzenia miały znaczenie, takie jak indywidualni blogerzy, którzy przesunęli granice i stali się bardzo ważni w wywieraniu wpływu na innych użytkowników, aby rozwijali i używali blogów jako zbuntowanych odbiorców. Wpis ten rozpoczął się od wprowadzenia blogów jako dwóch rodzajów platform: (1) platform narrowcastingowych i (2) platform zorientowanych na zainteresowania, które nie wykluczają się wzajemnie. Poprzez dyskusję na temat warunków i epizodów wpływających na korzystanie z blogów, omówiono, w jaki sposób blogi funkcjonują jako zbuntowana publiczność w społeczeństwie. Biorąc pod uwagę wzrost badań nad mediami społecznościowymi, badania nad blogami są stosunkowo ograniczone. Wiele badań dotyczących mediów społecznościowych koncentruje się na serwisach społecznościowych, poszczególnych platformach i rozróżnieniach między domenami użytkowania, takimi jak partycypacja relacyjna, obywatelska i polityczna. Podejście do rozumienia blogów jako powstańczych i wielorakich odbiorców w społeczeństwie przedstawia pogląd, że są one wieloaspektowe: Cechy technologiczne są ważne, ale inne uwarunkowania kulturowe, władzy i interpretacyjne również odgrywają rolę w tym, jak blogi są odgrywane w praktykach i epizodach użytkowników korzystania z interakcji i masy krytycznej w sieci społecznościowej mają kluczowe znaczenie. Przykład: badania wpływu mediów społecznościowych podczas Arabskiej Wiosny przyniosły mieszane i nierówne skutki w różnych krajach. Same warunki techniczne mediów społecznościowych nie wystarczą, aby wyjaśnić lub przewidzieć skutki; Inne czynniki (kulturowe, władza i interpretacyjne) są również ważne do rozważenia.


Powrót

Botnet



W ostatnich latach botnety stały się popularnym, wręcz niezbędnym narzędziem lub "pojazdem" dla szerokiej gamy przestępstw w Internecie. Botnety są ogólnie definiowane jako sieci komputerów zaatakowanych przez złośliwe oprogramowanie lub "zniewolonych" komputerów połączonych z Internetem pod kontrolą jednej lub więcej osób zwanych intruzami lub botmasterami. Bot, termin wywodzący się od słowa robot, to pojedynczy skompromitowany komputer w sieci zainfekowanych komputerów. Złośliwe oprogramowanie (oznaczane również jako złośliwe oprogramowanie), które jest hostowane na maszynach, zasadniczo pozwala botmasterom kontrolować je zdalnie i automatycznie. Chociaż botnety są obecnie uważane za złośliwe sieci, historycznie nie miały one przestępczego celu. Były one używane głównie do kontrolowania interakcji w pokojach rozmów w Internet Relay Chat (IRC), który pojawił się od 1989 roku. Obejmowało to interpretację prostych poleceń, zapewnienie wsparcia administracyjnego i oferowanie usług użytkownikom czatu. Pierwszym znanym botem jest Eggdrop, który służył do zarządzania i ochrony kanałów IRC przed przejęciami. Po jego wydaniu w 1993 roku pojawiły się różne złośliwe boty IRC, które działały na tej samej zasadzie scentralizowanego zdalnego zarządzania. Od tego czasu botnety są coraz częściej wykorzystywane do przestępstw związanych z Internetem i z czasem stają się coraz bardziej wyrafinowane. Ze względu na ich destrukcyjne i destrukcyjne możliwości są obecnie uważane za jedno z największych zagrożeń bezpieczeństwa w Internecie. Badania naukowe nad botnetami koncentrują się głównie na charakterystyce, zachowaniu i wykrywaniu botnetów. Kryminolodzy, politycy i prawnicy dopiero niedawno zaczęli teoretyzować i badać botnety oraz sposoby im przeciwdziałania. W związku z tym wciąż pozostaje wiele kwestii i pytań, na które należy odpowiedzieć i zbadać, jeśli chodzi o zjawisko botnetów. Ten wpis wprowadza pojęcie botnetu poprzez zbadanie poszczególnych elementów botnetu, sposobu działania botnetów i ich wzajemnych interakcji. Wpis kończy się analizą niektórych znanych środków zaradczych.

Natura i skala problemu botnetów

Należy podkreślić, że złośliwe działania botnetowe mogą być prowadzone zarówno przeciwko "botom wewnątrz botnetu (ataki wewnętrzne), jak i przeciwko botom poza botnetem (ataki zewnętrzne)". Pierwszy przypadek dotyczy na przykład kradzieży danych wrażliwych (np. danych logowania, numerów kart kredytowych) i manipulacji transakcjami bankowości internetowej, podczas gdy drugi obejmuje rozproszone ataki typu "odmowa usługi" (np. zniekształcanie firmy) oraz rozprzestrzenianie spamu. Botnety są również kojarzone z innymi nielegalnymi działaniami, takimi jak wydobywanie bitcoinów i oszustwa związane z kliknięciami. Botnety są wykorzystywane nie tylko przez osoby kierujące się motywami finansowymi, ale także przez inne podmioty, takie jak cyberterroryści, aktywiści i agencje rządowe. Jeśli chodzi o szkody, botnety są odpowiedzialne za poważne szkody na całym świecie i duże straty finansowe dla użytkowników komputerów, firm i rządów, chociaż trudno jest znaleźć wiarygodne liczby. W ostatnich latach wykrywanie i przeciwdziałanie botnetom stało się głównym priorytetem zarówno dla organów ścigania, jak i przedsiębiorstw. Usunięcie botnetu jest jednak złożonym problemem. Wymaga podjęcia środków przeciwko wszystkim kluczowym elementom botnetu: (a) botmasterowi, (b) infrastrukturze dowodzenia i kontroli oraz (c) poszczególnym botom.

Podmiot kontrolujący botnet: Botmaster

Pierwszym głównym składnikiem botnetu jest botmaster - jedna lub więcej osób odpowiedzialnych za tworzenie, kontrolowanie i utrzymywanie sieci zainfekowanych komputerów. Zasadniczo jest on aktorem, który wydaje botom polecenia wykonania pewnych (złośliwych) działań i ma "możliwość pobierania, aktualizowania i uruchamiania złośliwych plików binarnych na zainfekowanych systemach". Ze względu na szerokie zastosowanie i anonimowość, jaką zapewniają, botnety są cennymi zasobami na rynku cyberprzestępczym. Botmaster zazwyczaj wynajmuje botnet lub jego części stronom trzecim (np. spamerom lub phisherom) na zasadzie tak zwanej zasady pay-per-install. Oznacza to, że klienci mogą zainstalować własne złośliwe oprogramowanie (np. złośliwe oprogramowanie, które może "pobrać" dane karty kredytowej z komputerów ofiar) na wybranych botach, które kupują w internetowym "sklepie botnetowym" botmastera. Innymi słowy, botnet można rozumieć jako mechanizm dystrybucji złośliwego oprogramowania, który jest sprzedawany jako usługa innym przestępcom. Sprzedaż instalacji to lukratywny biznes, zwłaszcza gdy instalacje są nadal "czyste", nieużywane ani zanieczyszczone złośliwym oprogramowaniem przez żadnego klienta. Jednak "kłopotanie się" i "przetrwanie w biznesie" wymaga sporo wysiłku i poświęcenia. Na przykład utworzenie botnetu wymaga czasu i pieniędzy; botmasterzy muszą upewnić się, że botnet pozostanie online tak długo, jak to możliwe i nie zostanie wykryty. W rzeczywistości botnety są tak cennym towarem, że botmasterzy starają się wzajemnie anektować swoje botnety. Dlatego organy ścigania i firmy ochroniarskie nie są jedynym zagrożeniem dla botmasterów.

Infrastruktura dowodzenia i kontroli botnetu

Drugim elementem botnetu jest obsługująca go infrastruktura dowodzenia i kontroli, która zasadniczo składa się z jednostki kontrolującej i botów. Mechanizm kontrolujący umożliwia osobie przeszkadzającej komunikowanie się z zniewolonymi komputerami, wydawanie im poleceń i koordynowanie działań, które powinien wykonać. Sposób, w jaki zaprojektowano ten mechanizm, jest powszechnym sposobem, w jaki badacze klasyfikują lub taksonomizują botnety. Istnieją architektury, które są scentralizowane, zdecentralizowane (peer-to-peer [P2P]) lub zawierają kombinację obu (hybrydowe). W scentralizowanej infrastrukturze dowodzenia i kontroli wszystkie boty łączą się z co najmniej jednym serwerem dowodzenia i kontroli. Z tych centralnie zlokalizowanych serwerów osoba przeszkadzająca wydaje polecenia dużej liczbie botów jednocześnie. Z kolei zdecentralizowana infrastruktura opiera się na samopropagacji poleceń. Niepokojący wyda polecenia kilku losowym botom, które z kolei dotrą do wszystkich innych botów. Większość botnetów łączy jednak elementy z obu skrajności. Oprócz różnych typów infrastruktur można również rozróżnić różne protokoły, które umożliwiają osobom przeszkadzającym komunikację z botami. Najpopularniejszymi protokołami są IRC, HTTP i P2P. IRC (niezależnie od tego, czy jest własnością publiczną, czy prywatną) umożliwia osobom przeszkadzającym wysyłanie poleceń do botów indywidualnie lub zebranie wszystkich botów w jednym czacie i publikowanie poleceń, które są w stanie zobaczyć. Chociaż botnety IRC są dość przyjazne dla użytkownika, są jednocześnie łatwiejsze do wykrycia w ruchu sieciowym. Jest to jeden z powodów, dla których botmasterzy przeszli na internetowe kanały komunikacji HTTP. Podobnie jak IRC, HTTP również ma scentralizowaną konfigurację, ale ma kilka innych zalet. Na przykład umożliwia szyfrowanie ruchu między botami a serwerem dowodzenia i kontroli, co utrudnia ich wykrycie. W wielu przypadkach w tej konfiguracji wykorzystywane są zhakowane serwery internetowe, które zapewniają jeszcze większą anonimowość. Przykładami dużych botnetów korzystających z tego protokołu są Zeus (2007), Bredolab (2009) i Conficker (2008). W przeciwieństwie do IRC i HTTP, botnety P2P nie działają w sposób scentralizowany, a zatem są mniej narażone na usunięcie. Boty w zasadzie odbierają od siebie polecenia, co oznacza, że sam botnet staje się systemem dowodzenia i kontroli. Robak Slapper (2002) i botnet Nugache (2006) to przykłady botnetów P2P. Botnet Storm (2007) można sklasyfikować jako hybrydowy botnet P2P, ponieważ łączy P2P ze scentralizowanymi funkcjami. W dzisiejszych czasach zaawansowane botnety wykorzystują również "własne protokoły", które są oparte na TCP, ICMP lub UDP. Bez względu na to, jaka infrastruktura zostanie wykorzystana, głównym interesem osoby przeszkadzającej jest utrzymanie płynnego działania botnetu oraz ukrycie jak największej części infrastruktury przed światem zewnętrznym. Jeśli chodzi o to drugie, osoby przeszkadzające mogą użyć kilku innych technik, aby ukryć swoje ślady lub adres protokołu internetowego, takich jak wirtualna sieć prywatna lub schematy fast-flux.

Boty

Trzecim elementem jest sieć zainfekowanych komputerów, zwanych także botami, komputerami zombie lub podatnymi hostami. Rozmiar tej sieci może wahać się od kilkuset do milionów zainfekowanych komputerów. Im większy rozmiar botnetu i im większa przepustowość zaatakowanych maszyn, tym wyższa jest wielkość wektora ataku. Większa liczba maszyn oznacza również, że można zebrać więcej informacji o ofiarach, co ma znaczenie w przypadku ataków na boty wewnątrz botnetu. Wadą dużych botnetów jest to, że są one łatwiejsze do wykrycia, dlatego niektórzy użytkownicy intruzów decydują się na posiadanie wielu mniejszych botnetów. Utworzenie botnetu, zarówno małego, jak i dużego, wymaga zainstalowania części złośliwego oprogramowania (po cichu) na wielu zaatakowanych maszynach. Można to przeprowadzić na różne sposoby, zwykle poprzez połączenie socjotechniki (wprowadzanie w błąd) i wykorzystywania luk w oprogramowaniu. Najbardziej znaną metodą jest dystrybucja wiadomości e-mail ze złośliwymi załącznikami, która jest zwykle wysyłana w imieniu znanych firm, takich jak firmy spedycyjne lub portale społecznościowe. Ofiary są kuszone, aby kliknąć łącze lub załącznik, a tym samym (nie zdając sobie z tego sprawy) instalować złośliwe oprogramowanie na swoim komputerze. Inną powszechnie stosowaną metodą jest "drive-by downloads", co oznacza, że użytkownicy zostają zainfekowani po odwiedzeniu zainfekowanej witryny lub kliknięciu banera reklamowego zawierającego złośliwe oprogramowanie. Inne metody obejmują (automatyczne) wykorzystywanie systemów i umieszczanie złośliwego oprogramowania na dysku flash USB. Następnie infekcja nie tylko zawsze wymaga działania ofiary, ale także zależy od tego, czy maszyna jest podatna na infekcję i czy atakujący wykorzystuje lukę firmy, która ledwo naprawia luki w swoim oprogramowaniu.

Przeciwdziałanie botnetom

Naukowcy i inne osoby mają do czynienia ze zjawiskiem botnetów, badając je i badając, lub odgrywając rolę w ich usuwaniu. Podmioty prywatne, takie jak na przykład firmy ochroniarskie, aktywnie zakłócają działanie botnetów, ponieważ uważają, że niszczenie ich jest bardziej efektywne niż inwestowanie dużych sum pieniędzy w bezpieczeństwo komputerowe. Dostawcy usług internetowych również odgrywają rolę w ograniczaniu botnetów. Z dotychczasowych badań wynika, że przeciwdziałanie botnetom to niezwykle skomplikowana operacja. Czynniki związane ze złożonością techniczną, anonimowością, szyfrowaniem oraz różnymi strefami czasowymi, językami i jurysdykcjami stanowią poważne wyzwanie. Timo Schless i Harald Vranken podsumowali różne możliwe środki zaradcze przeciwko botnetom, w tym przejęcie serwera dowodzenia i kontroli za pomocą konfiskaty, powiadomienia i usunięcia lub hakowania, przy czym to ostatnie jest najbardziej kontrowersyjne. Inne środki, które można podjąć przeciwko botnetom, to manipulowanie botami lub komunikacja za pośrednictwem kanałów dowodzenia i kontroli lub aresztowanie osoby przeszkadzającej. Jak podsumowują, żadna organizacja nie jest w stanie samodzielnie skutecznie radzić sobie z botnetami, co sprawia, że współpraca między kilkoma agencjami jest niezbędna.


Powrót


[ 68 ]