Internet szerokopasmowy



Chociaż nie ma powszechnie akceptowanej definicji szerokopasmowego Internetu, w praktyce główny nacisk na zróżnicowanie usług szerokopasmowego Internetu kładziony jest na podstawie bitów danych przesyłanych w każdej sekundzie. Ponadto prędkość jest powszechnie wykorzystywana jako środek oceny jakości usług szerokopasmowego Internetu. Wiodącą rolę odgrywa amerykańska Federalna Komisja Łączności (FCC) , organizacja proponująca i ustanawiająca standardy dla szerokopasmowego Internetu, zarówno w odniesieniu do naziemnych, jak i mobilnych połączeń szerokopasmowych. Definicja szybkości szerokopasmowego Internetu według FCC ewoluowała w czasie ze względu na zmiany w szerokopasmowych aplikacjach internetowych i potrzebach. Ten wpis zawiera krótką historię ewolucji definicji Internetu szerokopasmowego, omawia jakość usług szerokopasmowego Internetu oraz analizuje skutki ekonomiczne związane z szerokopasmowym dostępem do Internetu.

Ewolucja definicji

Historyczne korzenie Internetu sięgają wczesnych lat pięćdziesiątych i rozwoju w Stanach Zjednoczonych systemu obrony Semi-Automatic Ground Environment (SAGE). Częścią systemu SAGE, która zapoczątkowała rozwój tego, co dziś znane jest jako Internet, była integracja różnych części systemu poprzez przewód naziemny i zbieranie informacji z różnych źródeł "w tym radarów, wojskowych centrów lotów, statków marynarki wojennej, wież w Teksasie, powietrznych załóg wczesnego ostrzegania i powietrznych stacji meteorologicznych". Kendall Hoyt szacuje, że koszt systemu SAGE, finansowanego głównie przez rząd USA, wyniósł w 1960 roku 5 miliardów dolarów, co w obecnych dolarach, uwzględniając inflację, wyniosłoby ponad 40 miliardów dolarów. Tak kosztowny projekt, opisany przez Hoyta jako "najbliższa magii" , miał pojemność przechowywania 0,5 megabajta danych i był w stanie udostępniać tę ilość danych w swojej sieci. W 1970 roku w artykule poświęconym inżynierii sterowania opisano połączenie 50 kb/s przez linię dzierżawioną jako usługę szerokopasmową. Z biegiem lat próg danych do zdefiniowania Internetu szerokopasmowego wzrósł. W 2010 roku FCC ustanowiła próg dla łączy szerokopasmowych jako wysyłanie 4 Mb/s i pobieranie 1 Mb/s. W 2015 r. Kongres USA wprowadził poprawki do Ustawy o Komunikacji z 1934 r., która zawierała mandat dla FCC do dostarczania co 2 lata raportu publicznego, w którym m.in. inne rzeczy, FCC ocenia "stan rozmieszczenia możliwości komunikacyjnych, w tym zaawansowanych możliwości telekomunikacyjnych". Kluczową kwestią w tym mandacie jest definicja terminu zaawansowana telekomunikacja. Ustawa o telekomunikacji z 1996 r., sekcja 1302.d.1, definiuje zaawansowaną telekomunikację jako "bez względu na jakiekolwiek media lub technologię transmisyjną, jako możliwość szybkiej, komutowanej telekomunikacji drogowej, która umożliwia użytkownikom inicjowanie i odbieranie wysokiej jakości głosu, danych, grafiki i telekomunikacji wideo z wykorzystaniem dowolnej technologii." Ta definicja nie określa konkretnej szybkości przesyłania/pobierania. W związku z tym FCC argumentowała, że poprzednia definicja szerokopasmowego Internetu nie spełnia już mandatu Kongresu USA z 2015 r. opartego na ustawie o telekomunikacji z 1996 r. co najmniej 25 Mb/s i rzeczywista prędkość wysyłania co najmniej 3 Mb/s. Pomimo proponowanego benchmarku 25/3 Mb/s dla zdefiniowania szerokopasmowego Internetu, pojawiają się postulaty znacznego podwyższenia benchmarku szerokopasmowego do 100 Mb/s. Jednak ważną kwestią do rozważenia w tym miejscu jest to, że definicja łączy szerokopasmowych nie opiera się na kryterium inżynieryjnym; jest raczej zależny od aplikacji internetowych, jednostek i zasad obowiązujących w danym czasie.

Jakość Internetu szerokopasmowego

Internet jest postrzegany jako usługa lub kanał dostarczania usługi. Z tej perspektywy ważna jest ocena usługi internetowej w oparciu o kryteria jakości usługi (QoS). Aplikacje internetowe rozszerzyły się tak bardzo wśród indywidualnych konsumentów i firm, że poleganie tylko na jednym aspekcie QoS (np. prędkości) z liczbą (tj. maksymalnej prędkości pobierania/wysyłania) może nie być wystarczające. Chociaż podejście polegające na wykorzystaniu prędkości jako podstawy do pomiaru, analizy i wykorzystania planu może być wygodnym podejściem, inne aspekty należy również wziąć pod uwagę jakość usług internetowych. FCC w swoim Narodowym Planie Szerokopasmowym z 2010 r. zaproponował zestaw szeroko stosowanych kryteriów szerokopasmowych dla różnych aplikacji szerokopasmowych, w których wzięto pod uwagę takie czynniki, jak prędkość (wysyłanie/pobieranie), opóźnienie, utrata pakietów oraz rzeczywista i reklamowana prędkość. Ponadto FCC uznaje, że wydajność łączy szerokopasmowych Internetu jest funkcją jego aplikacji. W krajowym planie sieci szerokopasmowych FCC aplikacje są podzielone na trzy grupy: (1) aplikacje nie działające w czasie rzeczywistym, takie jak poczta e-mail, wybrane przeglądanie stron internetowych i pobieranie plików wideo; (2) aplikacje działające w czasie zbliżonym do rzeczywistego, takie jak strumieniowe przesyłanie muzyki i wideo jako telewizja oparta na protokole internetowym, w których przesyłane strumieniowo media nie są transmitowane na żywo; oraz (3) aplikacje czasu rzeczywistego, takie jak telewizja/radio/muzyka na żywo, telekonferencje i gry wieloosobowe przez Internet. Te aplikacje i czynniki wydajności zostały podsumowane w Tabeli 1. Chociaż ta lista nie jest wyczerpującą listą wszystkich aplikacji i czynników wpływających na wydajność szerokopasmowego Internetu, pomocne jest zrozumienie wielowymiarowego aspektu analizy jakości szerokopasmowego Internetu. Ponadto, wraz z szybkim postępem w stosowaniu szerokopasmowego Internetu, oczekuje się, że lista aplikacji i sterowników wydajności będzie się różnić i ewoluować wśród różnych użytkowników. Z perspektywy QoS ocena jakości Internetu powinna również obejmować jakość obsługi klienta oferowanej przez dostawców usług internetowych. Obejmuje to wiele czynników zwykle wykorzystywanych do oceny wydajności w branży usługowej, takich jak obsługa klienta, naprawy, przestoje, dopasowanie jakości usługi do reklamowanych parametrów jakości oraz bezpieczeństwo, żeby wymienić tylko kilka. Jedną z przeszkód w osiągnięciu wysokiej jakości usług szerokopasmowego Internetu jest brak standaryzacji różnych aspektów jakości. Ta przeszkoda w zapewnianiu wysokiej jakości usług szerokopasmowego Internetu jest uznawana zarówno przez organy regulacyjne w USA, jak i Europie. FCC wezwała do podjęcia skoordynowanych wysiłków z Narodowym Instytutem Standardów i Technologii w zakresie ustanowienia środków technicznych i metodologii oceny wydajności Internetu szerokopasmowego. Antonio Ghezzi i Manos Dramitinos wyrazili podobne obawy w odniesieniu do szerokopasmowego Internetu QoS i pomiaru rzeczywistej (w porównaniu z reklamą) wydajności sieci w całej Europie. Z doświadczeń europejskich wynika, że zakres QoS został rozszerzony, a w celu zapewnienia jakości szerokopasmowego Internetu zaproponowano model określany jako gwarantowana jakość usług (ASQ). ASQ to model biznesowy finansowany przez Unię Europejską i prowadzony przez Bell Labs we Francji, który między innymi obejmuje zachęty do dostarczania gwarantowanej jakości usług internetowych typu end-to-end. Podobnie jak w przypadku ustanawiania i stosowania standardów i środków QoS dla szerokopasmowego Internetu, wdrożenie standardów ASQ wpływa na wszystkich interesariuszy w ekosystemie internetowym, w tym dostawcy usług, użytkownicy i firmy.

Skutki ekonomiczne Internetu szerokopasmowego

Od 2017 r. szerokopasmowy Internet nie jest dostępny dla wielu mieszkańców gospodarek rozwijających się, a nawet dla wszystkich mieszkańców gospodarek rozwiniętych. Pomiar dostępu do szerokopasmowego Internetu to złożona koncepcja. Weźmy na przykład pod uwagę złożoność definicji szerokopasmowego Internetu oraz sposobu korzystania z Internetu na całym świecie iw różnych społecznościach. Jak opisano wcześniej, zmiany w sposobie definiowania Internetu szerokopasmowego miały i będą następować. Zastosowanie Internetu jest głównym czynnikiem przyczyniającym się do definicji. Do tej pory definicja opierała się przede wszystkim na szybkości wysyłania/pobierania. Jednak po podniesieniu progu definiowania szerokopasmowego Internetu niektóre obszary, w których był szerokopasmowy Internet, mogą nie być już klasyfikowane jako takie, jeśli ich prędkość Internetu nie wzrośnie do nowego progu. Tradycyjnie wzrost wykorzystania Internetu szerokopasmowego był funkcją dostępności Internetu szerokopasmowego. Jednak, jak opisali John Horrigan i Maeve Duggan w badaniu z 2015 r., w ciągu ostatnich kilku lat niektóre grupy marginalnie przesunęły się z domowej łączności internetowej za pośrednictwem przewodowego szerokopasmowego łącza internetowego na bezprzewodowe połączenie ze smartfonem. Według Horrigana i Duggana w Stanach Zjednoczonych liczba przewodowych połączeń szerokopasmowych ustabilizowała się i wynosi około 70% dorosłych (w latach 2013-2015) mających dostęp szerokopasmowy w domu, podczas gdy adopcja łączy szerokopasmowych wynosi około 55% do 60% na obszarach wiejskich w tym samym okresie. Niezależnie od definicji łączy szerokopasmowych i marginalnych zmian w zachowaniach konsumentów wykazano, że brak dostępu do szerokopasmowego Internetu ma negatywny wpływ na ekonomiczną żywotność takich społeczności. Chociaż wydaje się, że istnieje konsensus wśród badaczy o pozytywnym wpływie szerokopasmowego Internetu na rozwój gospodarczy większość badań w tej dziedzinie jest prowadzonych na poziomie indywidualnym/użytkownika. W 2014 roku Kayvan Miri Lavassani, Bahar Movahedi i Glenn Parry przeprowadzili jedno z pierwszych badań empirycznych nad przyjęciem szerokopasmowego Internetu na poziomie biznesowym. Chociaż to badanie nie zmierzyło wpływu badania, autorzy zaproponowali modele adaptacji szerokopasmowych dla branży. W zależności od funkcji biznesowych związanych z podstawowymi kompetencjami różnych branż, okazuje się, że firmy mają różne wzorce przyjmowania łączy szerokopasmowych. Dlatego ważnym czynnikiem sukcesu dla społeczności i firm, aby w pełni wykorzystać szerokopasmowy Internet, jest odpowiednie przyjęcie Internetu w sposób zgodny z ich podstawowymi procesami biznesowymi. Jak opisali Miri Lavassani i współpracownicy, badanie ekonomicznych skutków szerokopasmowego Internetu było trudnym zadaniem, głównie ze względu na ograniczoną dostępność danych do prowadzenia badań wpływu ekonomicznego. Ponadto gromadzenie danych na dużą skalę odbywa się zwykle raz na 5 do 7 lat. Biorąc pod uwagę tempo zmian technologicznych i ewolucję we wdrażaniu technologii, a także zastosowania Internetu szerokopasmowego, wyniki badań wpływu szerokopasmowego są generalnie opóźnione. Takie wyniki zwykle odzwierciedlają wpływ wcześniejszych wzorców adopcyjnych, które mogą już nie istnieć w momencie analizy. Mimo to prowadzenie takich badań dostarcza cennych informacji o tym, jak rozwijające się technologie i zastosowania kształtują naszą gospodarkę i społeczeństwo. Badanie przeprowadzone w 2016 r. przez Ishaqa Nadiriego i Banani Nandi wykazało pozytywną rolę technologii komunikacji informacyjnej, w tym szerokopasmowego Internetu, w procesach produkcyjnych, a w konsekwencji produktywności w Stanach Zjednoczonych. Takie badania mogą pomóc decydentom, zapewniając ważny wgląd w rolę alokacji kapitału, wydajności i inwestycji w infrastrukturę informacyjno-komunikacyjną.


Powrót


Internet szerokopasmowy : Dostępność



Dostępność szerokopasmowego Internetu jest definiowana przez Międzynarodowy Związek Telekomunikacyjny (ITU) jako cena usługi szerokopasmowego Internetu i koszt urządzeń w stosunku do dochodu. Ten wpis dalej definiuje przystępność cenową usługi szerokopasmowego Internetu, a następnie omawia jej znaczenie, brak przystępnego dostępu do szerokopasmowego Internetu w niektórych częściach świata oraz polityki i praktyki, które mogą zapewnić dostęp większej liczbie osób. Jako procent miesięcznego dochodu na mieszkańca danego kraju ceny można postrzegać w odniesieniu do wielkości gospodarki każdego kraju, co z kolei odzwierciedla przystępność cenową każdej usługi technologii komunikacji internetowej (ICT) zarówno w obrębie krajów, jak i między nimi. Pomiar przystępności cenowej łączy szerokopasmowych stał się bardziej skomplikowany, gdy rozważamy łączenie takich usług z innymi ofertami i urządzeniami, takimi jak telewizja kablowa oraz telefony stacjonarne i komórkowe. Ponadto przystępność cenowa może się różnić w poszczególnych krajach i pomiędzy nimi, porównując inne czynniki, takie jak szybkość usługi, abonamenty i rozmowy przedpłacone w telefonii komórkowej oraz stacjonarny szerokopasmowy dostęp do Internetu i usługi. Na przykład od 2014 r. Nowojorczycy płacili średnio około 55 USD za połączenie internetowe o przepustowości 25 megabitów na sekundę, czyli dwa razy więcej niż klienci w Bukareszcie, Londynie i Seulu. Co więcej, w tym czasie mieszkańcy Paryża, Tokio, Hongkongu i Seulu korzystali z Internetu około ośmiokrotnie szybciej niż mieszkańcy Nowego Jorku. Dostępność usług szerokopasmowego Internetu w różnych krajach można zobaczyć, porównując ceny z PKB na mieszkańca i indeksem Giniego (miara rozproszenia statystycznego, która reprezentuje rozkład dochodów mieszkańców danego kraju), zwłaszcza między krajami rozwiniętymi i nierozwiniętymi. Dane dostarczone przez ITU ilustrują te zależności. Szerokopasmowy Internet był dostępny w 88 krajach (45 w krajach rozwiniętych i 43 w krajach rozwijających się) do końca 2015 r. W tych krajach średnia cena podstawowego lub mobilnego planu szerokopasmowego odpowiadała 5% lub mniej średni dochód narodowy brutto (DNB, miara rozkładu dochodu) na mieszkańca. Średni koszt dostępu szerokopasmowego wynoszący 5% DNB stanowi cel docelowy Komisji ds. Zrównoważonego Rozwoju Szerokopasmowego (dawniej zwanej Komisją ds. Rozwoju Cyfrowego ds. Szerokopasmowych) i jest miarą używaną przez ITU do porównywania cen. Tylko pięć słabiej rozwiniętych krajów osiągnęło cel Komisji ds. Internetu szerokopasmowego , większości najbiedniejszych krajów świata nadal nie stać na dostęp szerokopasmowy. Dane ITU pokazują również, że mobilny dostęp szerokopasmowy jest bardziej przystępny cenowo niż stacjonarne usługi szerokopasmowe. Średnie ceny mobilnego dostępu szerokopasmowego odpowiadały 5,5% DNB na mieszkańca na całym świecie. Przystępność dostępu do Internetu szerokopasmowego jest częścią większego ekosystemu złożonego z infrastruktury technologicznej lokalizacji, która zależy również od innych wymiarów, w tym umiejętności użytkowników, cech indywidualnych, decyzji i praktyk biznesowych, polityk i przepisów rządowych oraz czynników politycznych i ekonomicznych. ceny i koszty usług internetowych w krajach i między nimi, raport Światowego Forum Ekonomicznego z 2016 r. wykorzystuje corocznie aktualizowane ramy gotowości sieciowej, które opierają się na sześciu zasadach:

(1) wysokiej jakości otoczenie regulacyjne i biznesowe ma kluczowe znaczenie dla pełnego wykorzystania ICT i wywarcia wpływu; (2) Gotowość ICT - mierzona przystępnością cenową, umiejętnościami i infrastrukturą ICT - jest warunkiem wstępnym generowania wpływu; (3) pełne wykorzystanie technologii informacyjno-komunikacyjnych wymaga wysiłku całego społeczeństwa: rząd, sektor biznesu i ogół społeczeństwa mają do odegrania kluczową rolę; (4) Korzystanie z ICT nie powinno być celem samym w sobie. Ostatecznie liczy się wpływ, jaki TIK faktycznie wywierają na gospodarkę i społeczeństwo; (5) zestaw czynników - środowisko, gotowość i użytkowanie - współdziałają, ewoluują i wzmacniają się nawzajem, tworząc pozytywny cykl; oraz (6) sieciowe ramy gotowości powinny zapewniać jasne wytyczne dotyczące polityki. (s. xi) Wykorzystując te sześć zasad, w raporcie uszeregowano 143 kraje od najwyższego do najniższego pod względem gotowości ICT, w tym przystępności cenowej. W pierwszej dziesiątce krajów w tym rankingu znalazły się (1) Singapur, (2) Finlandia, (3) Szwecja, (4) Norwegia, (5) Stany Zjednoczone, (6) Holandia, (7) Szwajcaria, (8) Zjednoczone Królestwo, (9) Luksemburg i (10) Japonia. 10 krajów, które znalazły się na najniższym miejscu w ankiecie, to (130) Liberia, (131) Nikaragua, (132) Malawi, (133) Birma, (134) Gwinea, (135) Madagaskar, (136) Mauretania, (137) Haiti, ( 138) Burundi i (139) Czad. Na podstawie danych ITU w 2014 r. Finlandia miała najtańszą usługę mobilną za 500 MB (megabajtów) na poziomie 2,91 "dolarów międzynarodowych" (tj. przy użyciu wskaźnika PPP, który pokazuje rzeczywistą wartość produktu w oparciu o parytet z lokalną walutą kraju ). Po przeliczeniu na euro, czyli 10 EUR lub 12,50 USD miesięcznie, prawie wszyscy Finowie byliby w stanie kupić połączenie 3G o przepustowości 21 Mb/s, ponieważ Finowie zarabiali ponad 3300 EUR, czyli 3600 USD miesięcznie w 2015 r. W Mozambiku osoby fizyczne zarabiał średnio około sześć razy mniej. Mimo to Mozambik miał w tym czasie najtańszą usługę mobilnego Internetu w Afryce. Niski koszt tego kraju w porównaniu z innymi krajami afrykańskimi wynika z konkurencji o klientów; Mozambik ma również jeden z najniższych wskaźników penetracji telefonów komórkowych na kontynencie.

Dlaczego Internet szerokopasmowy i przystępność cenowa mają znaczenie

Korzystanie z szerokopasmowego Internetu przyczynia się do tworzenia miejsc pracy, rozwoju PKB, innowacji, odpowiedzialności rządowej oraz dostępu do kluczowych usług publicznych. 10% wzrost penetracji łączy szerokopasmowych może zwiększyć PKB o 1,38% w krajach o niskich i średnich dochodach, pomagając zwalczać ubóstwo i głód. Według stowarzyszenia branżowego USTelecom do 2010 r. szerokopasmowy Internet zapewnił prawie 11 mln miejsc pracy w USA w sektorze technologii informacyjnych i komunikacyjnych oraz branżach pokrewnych. Indeks Narodów Zjednoczonych ds. Rozwoju Społecznego, utworzony w 1990 r., łączy pomiary oczekiwanej długości życia, poziom wykształcenia i dochód w pliku złożonym. Wskaźnik ten koreluje znacząco z penetracją łączy szerokopasmowych, zwłaszcza w krajach rozwijających się. Internet szerokopasmowy jest zatem bramą do ekonomicznego przetrwania, wzrostu i rozwoju dla jednostek i narodów. Stwierdzono, że skutki inwestycji w infrastrukturę teleinformatyczną obejmują (a) wzrost wysokopłatnych miejsc pracy dla wysoko wykwalifikowanych pracowników, (b) większą zdolność do konkurowania w gospodarce międzynarodowej, c) poprawę edukacji i opieki zdrowotnej oraz d) silniejsze, bardziej konkurencyjne małe i średnie przedsiębiorstwa.

Globalny podział szerokopasmowy i przystępność cenowa

Można odnieść się do wielu podziałów, gdy mówimy o zdolności różnych osób do dostępu do Internetu i korzystania z niego. Globalna przepaść cyfrowa odnosi się do zróżnicowania dostępności Internetu, dostępu i przystępności cenowej pomiędzy krajami uprzemysłowionymi, rozwijającymi się i najsłabiej rozwiniętymi. Podział społeczny dotyczy przepaści między bogatymi i biednymi informatykami w każdym narodzie. W społeczności internetowej podział demokratyczny oznacza różnicę między tymi, którzy korzystają i nie korzystają z szerokiego wachlarza zasobów cyfrowych do angażowania się, mobilizowania i uczestniczenia w życiu publicznym. Globalna przepaść cyfrowa w zakresie dostępu szerokopasmowego w kontekście tego wpisu odnosi się do dochodów i innych nierówności między tymi, których stać na usługi szerokopasmowe, a tymi, których nie stać. Dostępność dostępu szerokopasmowego, jak zauważono wcześniej, jest definiowana przez Komisję Szerokopasmową na poziomie podstawowym jako podstawowy pakiet lub pakiet zakupiony za 5% lub mniej średniego miesięcznego dochodu danej osoby (tj. DNB na mieszkańca). Jednak w 2014 r. pakiet 500 MB na kartę kosztował średnio 15,2% DNB na mieszkańca w krajach najsłabiej rozwiniętych i 6,5% w krajach rozwijających się. W 2017 r. online było około 3,7 miliarda internautów; Przewiduje się, że penetracja Internetu mobilnego, w szczególności, osiągnie 71% do 2019 r. Jednak prawie 4 miliardy ludzi nadal nie ma żadnej usługi internetowej. Najmniejszy dostęp do Internetu mają osoby mieszkające w krajach najsłabiej rozwiniętych i krajach o niskich dochodach. Szacunki ITU pokazują, że w 2019 r. 3,9 miliarda osób nadal nie będzie mogło połączyć się z Internetem. Szacuje się również, że 70% osób w krajach najsłabiej rozwiniętych nie może sobie pozwolić na podstawowe łącze szerokopasmowe (500 MB), szczególnie w Afryce. Telefony komórkowe to najtańsze dostępne na rynku urządzenie z dostępem do Internetu. Większość mieszkańców krajów rozwijających się będzie zatem najpierw korzystać z szerokopasmowego dostępu na smartfonie i używać telefonu komórkowego jako głównego środka dostępu do Internetu. W swoim raporcie o przystępności cenowej 2015/16 Alliance for Affordable Internet poinformował, że do 2020 r. 63% połączeń na całym świecie będzie odbywało się za pośrednictwem smartfona. Koszt smartfonów w krajach rozwijających się spadł w ostatnich latach, ale koszt przeciętnego smartfona jest dla wielu poza zasięgiem. Większość smartfonów kosztuje 100 USD lub więcej w krajach rozwijających się, co odpowiada około 9% rocznego dochodu (dochód około 1 miesiąca) dla osoby żyjącej w ubóstwie (tj. poniżej 3,10 USD dziennie). W niektórych regionach nawet ci, którzy mogą sobie pozwolić na niedrogi smartfon za mniej niż 50 USD, nie są w stanie kupić dodatkowych kosztów wymaganego planu transmisji danych.

Dostępność szerokopasmowego Internetu: wyzwania i możliwości

W raporcie z 2016 r. Bank Światowy wskazał, że połączenie konkurencji rynkowej, partnerstw publiczno-prywatnych i skutecznych regulacji może zachęcić do niezbędnych inwestycji, aby dostęp do Internetu był powszechny i przystępny cenowo. Raport wezwał również do rozważenia zmian w polityce rządu w kilku obszarach, w tym liberalizacji rynków anten satelitarnych i budowa i eksploatacja sieci szkieletowych, polityki pozwalające na tzw. uwolnienie pętli lokalnej, w której firmy udostępniają lokalne łącza dostępowe do konkurentów po cenach hurtowych oraz za zwiększenie ilości udostępnianego widma. Rządy, jako kluczowi interesariusze, mogą przyczynić się do uczynienia szerokopasmowego Internetu bardziej przystępnym cenowo, ponieważ znaczna część całkowitego kosztu smartfona pochodzi z podatków od importu i sprzedaży nakładanych na urządzenia. Na przykład w 2015 r. rząd Wybrzeża Kości Słoniowej obniżył podatki na smartfony z 26% do 6,6%. Polityka antymonopolowa i telekomunikacyjna również może ułatwiać konkurencję. Na przykład Departament Sprawiedliwości USA odgrywa ważną rolę w zapobieganiu monopolom i innym nadużyciom władzy rynkowej. Tam, gdzie rynek sektora prywatnego nie zaoferował przystępnych cenowo łączy szerokopasmowych, sektor publiczny, interesariusze i sojusze społecznościowe mogą organizować się z grupami i firmami sektora prywatnego w celu budowy własnych systemów po niższych cenach w różnych krajach. Na przykład Departament Handlu Stanów Zjednoczonych i Departament Rolnictwa Stanów Zjednoczonych uruchomiły sieci, które przyciągnęły również prywatne inwestycje, które obniżyły koszty świadczenia usług szerokopasmowych. ITU oszacowało, że 43% światowej populacji korzystało z Internetu w 2015 roku, a zasięg 3G obsługiwał w tym roku 69% tej populacji. Komisja Szerokopasmowa zasugerowała, że mobilny dostęp szerokopasmowy ma potencjał, aby połączyć jedną czwartą światowej populacji z prędkościami szerokopasmowymi, które zapewniają kluczowe usługi, takie jak e-edukacja, e-zdrowie i e-administracja. Polityki i praktyki sektora publicznego i prywatnego w krajach, które pracują nad udostępnieniem szerokopasmowego Internetu dla osób, rodzin i grup, obejmują: inicjatywy, które bezpośrednio wpływają na koszt urządzeń i usług poprzez oferowanie pomocy finansowej rodzinom, tanie telefony i systemów operacyjnych, wysokości podatków i przerw na urządzeniach oraz poprzez zapewnienie Wi-Fi w miejscach publicznych.



Powrót

Internetowe sieci społecznościowe



Postęp w technologiach informacyjnych i komunikacyjnych (ICT) zapewnił aktorom bezprecedensowe możliwości interakcji w sferze online. Jednocześnie nowe technologie informacyjno-komunikacyjne zapewniły naukowcom akademickim różnorodność narzędzi obliczeniowych do zbierania cyfrowych danych śledzenia i analizowania interakcji społecznościowych online. W dobie sieciowego środowiska online badacze z różnych dyscyplin przyjęli relacyjną perspektywę sieciową, aby badać interakcje społeczne w Internecie. W rezultacie od 2000 roku nastąpił wykładniczy wzrost badań internetowych sieci społecznościowych, w tym sieci hiperłączy, sieci przyjaźni na Facebooku, sieci odpowiedzi i retweetów na Twitterze oraz sieci semantyczne. Internetowe sieci społecznościowe mają szeroki i interdyscyplinarny charakter, przemawiają do zainteresowań naukowców z socjologii, politologii, geografii, komunikacji, zarządzania, nauk o sieciach, informatyki, i systemów informatycznych. Internetowe sieci społecznościowe odnoszą się do relacji społecznych i struktur ustanowionych lub utrzymywanych za pośrednictwem Internetu. Innymi słowy, aktorzy społeczni komunikują się, wchodzą w interakcje i wymieniają wiadomości i informacje w sferze online. Jednak nie wszystkie internetowe sieci społecznościowe są tworzone lub utrzymywane wyłącznie online. Oprócz interakcji online, podmioty społeczne mogą również wchodzić w interakcje poza siecią, na przykład poprzez spotkania twarzą w twarz. Na przykład znajomi z Facebooka mogą również utrzymywać przyjaźń offline. W tym wpisie po raz pierwszy przedstawiono cztery rodzaje relacji, które charakteryzują internetowe sieci społecznościowe, a mianowicie (1) powinowactwo, (2) przepływ, (3) reprezentacyjne i (4) semantyczne. Omówiono czynniki, które wpływają na tworzenie się lub zanikanie więzi między aktorami społecznymi w każdym typie sieci społecznościowej online, dominujące wzorce w każdym typie sieci społecznościowej online oraz wynikające z nich wyniki. Podkreśla również teorie często używane do badania każdego typu sieci społecznościowej online. Na koniec wpis sugeruje pięć kierunków przyszłych badań w internetowych sieciach społecznościowych.

Typologia internetowych sieci społecznościowych

Internetowe sieci społecznościowe to relacje społeczne nawiązywane lub utrzymywane online. Aktorzy społeczni są w tej definicji bardzo pojemni, od jednostek po organizacje, kraje, a nawet teksty. Rodzaje relacji w internetowej sieci społecznościowej są również zróżnicowane, w tym przepływ informacji, przynależność symboliczna i więzi przyjaźni. Przed dokonaniem przeglądu istniejących badań dotyczących internetowych sieci społecznościowych należy najpierw stworzyć typologię, aby scharakteryzować różne typy internetowych sieci społecznościowych. W rzeczywistości istnieją trzy możliwe podejścia do kategoryzacji różnych typów internetowych sieci społecznościowych. Po pierwsze, istnieją różne typy sieci społecznościowych online, w zależności od medium, w którym zachodzą interakcje społeczne, takie jak sieci społecznościowe na oficjalnych stronach podmiotów społecznych, sieci społecznościowe na blogach, sieci społecznościowe na Twitterze i sieci społecznościowe na Facebooku. Po drugie, różne typy internetowych sieci społecznościowych mają różne typy węzłów, takie jak osoby, organizacje i teksty. Tak więc drugie podejście opiera się na typie węzłów, które tworzą relacje społeczne online, takich jak sieci studenckie, sieci polityków i sieci międzyorganizacyjne między organizacjami non-profit. Trzecie podejście charakteryzujące różne rodzaje internetowych sieci społecznościowych opiera się na rodzaju relacji między połączonymi aktorami społecznymi. Na przykład jego podejście uwzględnia sieci przepływu informacji osób fizycznych na Twitterze i sieci przepływu informacji organizacji na Facebooku jako ten sam rodzaj sieci społecznościowej. Wraz z szybkim rozwojem nowych technologii informacyjno-komunikacyjnych utrzymują się rodzaje relacji między aktorami społecznymi, podczas gdy medium, w którym zachodzą interakcje społeczne, może nie (np. upadek Myspace). W związku z tym badacze czerpią korzyści z badania typu relacji między różnymi aktorami społecznymi zamiast typu medium. Ponadto skupienie się na typie relacji między podmiotami społecznymi w Internecie może potencjalnie zwiększyć możliwość uogólnienia wiedzy między dyscyplinami. Na przykład badacze zajmujący się zarządzaniem zainteresowani rozpowszechnianiem informacji online między organizacjami mogą przyswoić wiedzę badaczy komunikacji, którzy badają wymianę informacji między poszczególnymi osobami w Internecie. W tym wpisie przyjęto zatem trzecie podejście, które charakteryzuje różne typy internetowych sieci społecznościowych w oparciu o charakter relacji między aktorami społecznymi. Według Michelle Shumate i Noshir Contractor istnieją cztery możliwe typy relacji w sieciach społecznościowych: (1) powinowactwo, (2) przepływ, (3) reprezentacyjne i (4) semantyczne. Relacje pokrewieństwa, takie jak sojusze i przyjaźnie, opisują społecznie skonstruowane relacje między dwoma aktorami. Wartościowość relacji jest dodatnia lub ujemna. Ponadto relacje powinowactwa mają często charakter trwały. Relacje przepływu odnoszą się do wymiany i transmisji danych, zasobów i informacji. Relacje reprezentacyjne koncentrują się na symbolicznej przynależności między dwoma podmiotami. Głównym celem komunikatu reprezentacyjnego jest zakomunikowanie powiązania stronie trzeciej lub ogółowi społeczeństwa. Wreszcie sieci semantyczne opisują skojarzenia między słowami lub interpretacjami poznawczymi niektórych wspólnych obiektów. W kontekście internetowych sieci społecznościowych sieci semantyczne zwykle opisują skojarzenia między tekstami na stronach internetowych lub w mediach społecznościowych.

Internetowe sieci powinowactwa

Relacje powinowactwa opisują społecznie odgrywane relacje między dwoma aktorami. Wartościowość relacji jest dodatnia lub ujemna. Badania dotyczące internetowych sieci powinowactwa są rzadkie. Prawdopodobnie sieci przyjaźni na Facebooku są przykładami internetowych sieci powinowactwa, chociaż niekoniecznie są tak trwałe, jak tradycyjne relacje powinowactwa offline, takie jak współpraca i przyjaźń. Niemniej jednak ten wpis koncentruje się na sieciach przyjaźni na Facebooku jako przykładzie internetowych sieci powinowactwa. Według Pew Research Center Facebook pozostał najpopularniejszą platformą mediów społecznościowych w Stanach Zjednoczonych od 2016 r., A 68% wszystkich dorosłych Amerykanów korzysta z Facebooka. Facebook stał się główną platformą umożliwiającą wzajemne interakcje online, gromadzenie kapitału społecznego i poprawę samopoczucia psychicznego. Organizacje (np. non-profit i biznes) oraz politycy również polegają na Facebooku w zakresie rozpowszechniania informacji, budowania relacji z zainteresowanymi stronami i mobilizowania działań. Ze względu na ograniczenia technologiczne badacze mają ograniczony dostęp do danych o przyjaźniach z Facebooka. W rezultacie badania sieci przyjaźni na Facebooku są ograniczone. Według tych badań, sieć przyjaźni na Facebooku jest głównie kształtowana przez wzajemność, pokrewieństwo i triadyczne domknięcie (tj. bycie przyjaciółmi ze znajomymi znajomego). Warto zauważyć, że homofilia rasowa i etniczna znacząco konfiguruje strukturę sieci przyjaźni na Facebooku, tak że jednostki wolą zaprzyjaźniać się z osobami tej samej rasy lub pochodzenia etnicznego. W skali globalnej badania sugerują, że sieci przyjaźni na Facebooku są kształtowane przez bliskość geograficzną i homofilię kulturową (tj. język i cywilizację). Innymi słowy, jednostki mają tendencję do przyjaźni z innymi osobami, które dzielą to samo położenie geograficzne, kulturę i język. Kraje łączące różne klastry geograficzne i językowe (np. Francja, Hiszpania, Wielka Brytania i Zjednoczone Emiraty Arabskie) zajmują centralne miejsce w międzynarodowej sieci przyjaźni na Facebooku.

Sieci przepływu online

Relacje przepływu służą jako rurociąg dla aktorów społecznych do wymiany informacji, wiadomości i danych. Rozwój Twittera w ostatnich latach zmotywował badaczy do zbadania rozpowszechniania informacji na tej platformie. Niniejszy wpis skupia się zatem na rozpowszechnianiu informacji na Twitterze lub jego odpowiedniku w innych krajach (np. Weibo w Chinach). Twitter ułatwia rozpowszechnianie informacji poprzez odpowiedzi użytkowników, wzmianki i retweety. W rzeczywistości posiadanie dużej liczby obserwujących na Twitterze niekoniecznie oznacza wpływ społeczny. Zdolność do działania jako źródło i rozpowszechnianie informacji jest równie ważna dla użytkowników Twittera, aby zyskać wpływ społeczny i uznanie. W szczególności wcześniejsze badania podkreślają znaczenie retweetów w ułatwianiu publicznej dyskusji poprzez prowadzenie głębszego i bardziej systematycznego zrozumienia określonego wydarzenia lub problemu społecznego. W szczególności rozpowszechnianie informacji na Twitterze umożliwia organizowanie ruchów społecznych i protestów internetowych, edukację zdrowia publicznego oraz pomoc humanitarną w czasie klęski żywiołowej. Jednak rozpowszechnianie plotek i dezinformacji jest również powszechne na Twitterze. We wcześniejszych badaniach próbowano zrozumieć, dlaczego niektóre tweety stają się wirusowe (tj. mają wysoką retweetalność) z różnych perspektyw, w tym czynników źródła, czynników treści, czynników odbiorcy wiadomości i czynników kontekstowych. Analiza dużych zbiorów danych sugeruje, że tweety zawierające adresy URL (tj. hiperłącza) i hashtagi są częściej udostępniane. Korzystając z analizy treści, badacze odkryli, że posty, które są oryginalne, nowatorskie, zorientowane na informacje lub prezentowane w wielu formach medialnych, lub które wspominają o liderach opinii, są częściej retweetowane. Jeśli chodzi o atrybuty źródła, sugerują badania, że bardziej wiarygodne (np. dostarczające weryfikowalnych i autentycznych informacji), popularne i aktywne tweety użytkowników będą częściej udostępniane. Ponadto użytkownicy z dużą liczbą obserwujących i dłuższą żywotnością na Twitterze są bardziej skłonni do retweetowania. Jeśli jednak użytkownik często tweetuje, jego tweety będą rzadziej retweetowane. Ponadto użytkownicy Twittera są bardziej skłonni do wymiany informacji z innymi użytkownikami, którzy mają podobne aktualne zainteresowania, znajdują się w tym samym regionie geograficznym i mają podobną wartość emocjonalną w swoich tweetach. W skali globalnej Harsh Taneja i Angela Xiao Wu stwierdzili, że zachowania użytkowników Internetu związane z poszukiwaniem informacji są w dużym stopniu hamowane przez bariery kulturowe i językowe. Teorie stosowane do badania sieci przepływu online są różnorodne, w tym dwuetapowa teoria przepływu, teoria preferencyjnego przywiązania, teoria zastosowań i gratyfikacji oraz teoria ekologii wiadomości.

Internetowe sieci przedstawicielskie

Relacje reprezentacyjne koncentrują się na symbolicznej przynależności między dwoma podmiotami. W przeciwieństwie do komunikatów w relacjach przepływu, które są przekazywane tylko odbiorcom komunikatów, głównym celem komunikatu reprezentacyjnego jest przekazanie symbolicznego skojarzenia stronie trzeciej lub ogółowi społeczeństwa. Chociaż badania nad komunikacją reprezentacyjną rozpowszechniły się w ostatnich latach, wcześniejsze badania ograniczają się w dużej mierze do badania sieci hiperłączy i wzmianek o nazwiskach na stronach internetowych organizacji. Sieci reprezentacyjne charakteryzują trzy zasady, które odróżniają je koncepcyjnie od sieci przepływu informacji. Po pierwsze, relacje reprezentacyjne są komunikowane stronie trzeciej lub ogółowi społeczeństwa. Tak więc głównymi odbiorcami komunikatu reprezentacyjnego nie są powiązani aktorzy zaangażowani w proces komunikacji. Zamiast tego, głównym celem reprezentacyjnego wyboru komunikacji jest wyrażenie symbolicznej przynależności do osoby trzeciej lub ogółu społeczeństwa. Po drugie, chociaż nadmierny przepływ informacji skutkuje przeciążeniem informacyjnym odbiorców komunikatów w sieciach przepływowych, komunikacja reprezentacyjna pociąga za sobą niewielki koszt dla odbiorcy(-ów) komunikatu, aby mieć dodatkowe powiązania reprezentacyjne. Trzecią cechą charakterystyczną reprezentatywnych sieci komunikacyjnych jest bezskalowa, nieograniczona dystrybucja stopniowa. Oznacza to, że tylko kilku aktorów społecznych w sieci otrzymuje dużą liczbę połączeń, a aktorzy, którzy przyciągają średnią lub małą liczbę połączeń, stanowią większość populacji. Otrzymywanie dużej liczby powiązań w sieci reprezentacyjnej jest opisywane jako mające popularność, wpływ społeczny, prestiż, legitymację i wiarygodność. Na przykład organizacje non-profit chcą sprzymierzyć się z innymi popularnymi organizacjami non-profit w sieci, aby uzyskać krytyczne zasoby, takie jak wiarygodność i legitymacja. W porównaniu z relacjami powinowactwa, relacje reprezentacji nie mają trwałej natury. Na przykład Organizacja A współpracuje z Organizacją B (tj. powinowactwo) i regularnie udostępniają informacje o swoich wspólnych klientach (tj. przepływ). W relacji reprezentacyjnej Organizacja B może otrzymać hiperłącze od Organizacji C ze strony internetowej C. Jednak Organizacja B może nie wiedzieć o hiperłączu wysyłanym przez Organizację C. Ponadto Organizacja B może nawet nie mieć relacji współpracy ani innego rodzaju trwałych relacji z Organizacją C. Badania relacji reprezentacyjnych w internetowych sieciach społecznościowych mogą przybierać co najmniej dwie formy: (1) praktyki aktorów w zakresie hiperłączy w celu ustanowienia strategicznej przynależności oraz (2) ) nazwiska aktorów wspominają o innym aktorze społecznym na swoich stronach internetowych. Prawdopodobnie obserwowanie niektórych kont na Twitterze jest również przykładem sieci reprezentacyjnych, ponieważ posiadanie dużej liczby obserwujących nie pociąga za sobą bezpośrednich kosztów ani obciążenia uwagi odbiorcy wiadomości. Ten wpis koncentruje się na sieciach hiperłączy, wzmiankach o nazwiskach i sieciach obserwujących na Twitterze jako przykładach reprezentatywnych sieci komunikacyjnych. Hiperłącze umożliwia jednej witrynie bezpośrednie przejście do innej witryny. Wzmianki o nazwiskach to zazwyczaj praktyki osób, grup i organizacji mające na celu ustanowienie symbolicznej przynależności do innych podmiotów na stronach internetowych. Na przykład firma może wymienić nazwę organizacji non-profit w ramach strategicznej komunikacji społecznej odpowiedzialności biznesu skierowanej do ogółu społeczeństwa. W bogatym zbiorze badań przeanalizowano czynniki wpływające na powstawanie i rozpad relacji reprezentacyjnych. Warto zauważyć, że badacze zazwyczaj badają relacje reprezentacji z dwóch perspektyw: (1) egzogenicznych atrybutów i (2) endogenicznych czynników strukturalnych. Z perspektywy atrybutów egzogenicznych efekty homofilii i zależności od zasobów wpływają na powstawanie i rozpad więzi reprezentacyjnych. Mówiąc dokładniej, aktorzy społeczni mogą ustanowić więzi reprezentacyjne z innym aktorem w oparciu o podobieństwo atrybutów, takich jak wiek, płeć, przynależność polityczna, branża, misja, typ organizacji lub położenie geograficzne. Ogólnie rzecz biorąc, aktorzy społeczni nie zrywają więzi z innymi, których postrzegają jako podobnych. Jednocześnie aktorzy społeczni mogą również preferować ustanowienie więzi reprezentacyjnych z innymi aktorami dysponującymi większymi zasobami (tj. efekt zależności od zasobów), w tym widocznością w mediach, pośrednictwem kapitał społeczny i zasoby finansowe. Jeśli chodzi o efekty strukturalne (tj. czynniki endogeniczne), istniejące badania wskazują, że więzi reprezentacyjne mają tendencję do odwzajemniania się (powiązania A z B, a B również z A), cykliczności (powiązania A z B, powiązania B z C i powiązania C). do A) i triadyczny (A łączy się z B, B łączy się z C, a A łączy się z C). Ponadto istnieje większe prawdopodobieństwo, że wzajemne więzi zostaną utrzymane w czasie. Chociaż aktorzy społeczni wolą ustanowić symboliczne skojarzenie z aktorami, którzy mają już dużą liczbę powiązań ze względu na postrzegany wysoki wpływ społeczny i legitymację (tj. Preferencyjne przywiązanie), badania sugerują również, że takie więzi mają tendencję do szybszego rozpuszczania się w czasie. Chociaż bogaty zbiór badań zbadał poprzedników i dominujące wzorce sieci reprezentacyjnych, ograniczone badania dotyczyły wyników sieci reprezentacyjnych online. W kontekście organizacji non-profit powstałe w ten sposób sieci reprezentacji online przyczyniają się do dobra publicznego, pomagając społecznościom przełamać tradycyjne ograniczenia związane z organizowaniem się poza siecią i podtrzymywać wspólne działania online. Teorie powszechnie używane do badania sieci reprezentacyjnych online obejmują teorię homofilii, teorię uzależnienia od zasobów, teorię preferencyjnego przywiązania, model symbiotyczny zrównoważonego rozwoju, teorię społeczno-ewolucyjną, teorię ekologii społeczności i teorię działań zbiorowych. Oprócz hiperłączy i wzmianek o nazwiskach na stronach internetowych, sieci obserwujące na Twitterze można również postrzegać jako rodzaj internetowej sieci reprezentacyjnej. Obserwowanie innych jest odrębną strategią budowania relacji przez podmioty społeczne i jest inwestycją w obecność publiczną, ponieważ im więcej kont obserwuje użytkownik, tym bardziej prawdopodobne jest, że przyciągnie nowych obserwujących i rozpowszechni treści w sieci. Różni aktorzy społeczni mają różne strategie obserwowania, a niektórzy aktorzy społeczni są bardziej skłonni niż inni do śledzenia dużej liczby profili w mediach społecznościowych. Na podstawie relacji między obserwującym a następującymi, Balachander Krishnamurthy i współpracownicy klasyfikują użytkowników Twittera na trzy typy: (1) nadawcy, (2) znajomi i (3) niegodziwcy/ewangeliści. Nadawcy mają zwykle większą liczbę obserwujących, ale nie śledzą wielu innych. Znajomi mają stosunkowo równą liczbę obserwujących i kont, które obserwują, ponieważ mają tendencję do odwzajemniania się relacji śledzenia. Przeciwnie, złoczyńcy/ewangeliści mają mniej zwolenników niż liczba relacji, które śledzą. Złodzieje wykorzystują platformę przede wszystkim do zachęcania użytkowników Twittera do śledzenia ich lub do strategicznego wykorzystywania platformy jako narzędzia do zbierania informacji. Chociaż skuteczność obserwowania innych w mediach społecznościowych jest niejednoznaczna, pokazuje poziom aktywności aktora w mediach społecznościowych i chęć zwiększenia widoczności i statusu społecznego. Badacze dokładnie zbadali powstawanie i rozpad sieci obserwujących na Twitterze. Z jednej strony sieci obserwujące na Twitterze charakteryzują się sygnaturami strukturalnymi podobnymi do innych rodzajów reprezentatywnych sieci komunikacyjnych, takimi jak skośne rozkłady stopni, wzajemność i przechodniość. Aktorzy społeczni również wolą śledzić konta o wysokim stopniu centralizacji w sieci (tj. Preferencyjne przywiązanie). Na przykład organizacje humanitarne wolą podążać za organizacjami, które już otrzymują dużą liczbę połączeń w sieci. Ponadto efekt homofilii znacząco wpływa na powstawanie sieci follow na Twitterze. Na przykład członkowie Kongresu USA wolą podążać za innymi członkami z tą samą stronniczością, stanem macierzystym, izbą i troską publiczną. Co więcej, użytkownicy Twittera są bardziej skłonni do śledzenia innych osób w tej samej lokalizacji geograficznej oraz osób o podobnej wartości emocjonalnej w swoich tweetach. Z drugiej strony Twitter oferuje idealną platformę do badania zerwania połączeń (tj. zaprzestania obserwowania) w czasie z powodu niewielkiej presji społecznej i relacyjnej na tę platformę. W rzeczywistości zerwania remisów na Twitterze są częste. Wzorce strukturalne, takie jak wzajemność i przechodniość, tworzone przez wspólnych obserwujących, wiążą się z mniejszym prawdopodobieństwem zaprzestania obserwowania zachowania na Twitterze. Ponadto atrybuty aktorów i wcześniejsze doświadczenia z interakcjami są powiązane z rozpadem remisów na Twitterze. Na przykład użytkownik Twittera jest mniej skłonny do zaprzestania obserwowania tych, którzy wysłali mu odpowiedzi lub retweety, niż tych, którym wysłał odpowiedzi lub retweety. Ponadto użytkownik Twittera jest mniej skłonny do zaprzestania obserwowania osób o podobnych aktualnych zainteresowaniach, na co wskazuje na przykład powszechne używanie niektórych hashtagów.

Sieci semantyczne online

Internetowe sieci semantyczne koncentrują się na badaniu tekstów używanych przez aktorów społecznych i wzajemnych powiązań między tymi tekstami. Analiza sieci semantycznej dotyczy słów, których używają aktorzy społeczni (wybór słów), częstotliwości wybierania słów (wyrazistość słów) i ich relacji. Od 2007 roku naukowcy z różnych dyscyplin wykorzystują techniki analizy sieci semantycznej do badania ramek wiadomości i dynamiki ramek na podstawie tradycyjnych wiadomości, dyskursu w mediach społecznościowych prowadzonego przez ogół społeczeństwa, komunikatów prasowych firm i ujawniania się w celach public relations, komunikacji naukowej i badania naukowe w niektórych dziedzinach. Kwestie społeczne badane za pośrednictwem tych sieci semantycznych obejmują HIV/AIDS, wybory polityczne, dyplomację publiczną, komunikację kryzysową i charakter polityki publicznej. Ogólnie rzecz biorąc, większość badań w empirycznych analizach sieci semantycznych koncentruje się na skojarzeniach tekstów i słów. W szczególności w wielu badaniach zbadano wzajemne oddziaływanie między agendą public relations ustawienie i ramowanie a wiadomości, między mediami informacyjnymi a publicznymi manifestacjami w mediach społecznościowych oraz między public relations, mediami informacyjnymi i dyskursem publicznym. Badania te wskazują na wspólne odkrycie, że badając dyskurs na różnych platformach medialnych (np. tradycyjne wiadomości i media społecznościowe), badacze są w stanie zrozumieć ramy zbudowane i ustanowione przez różne grupy interesariuszy (np. ogół społeczeństwa i organizacje) pod wpływem szerszym otoczeniu instytucjonalnym. Oprócz wszechobecnych efektów ramkowania, istniejące badania sieci semantycznych wskazują również na pewne różnice w strategiach ramkowania indywidualnych i medialnych na różnych platformach medialnych. Na przykład tradycyjne media informacyjne i media społecznościowe mają odrębne ramy i dyskurs na temat niektórych kontrowersyjnych kwestii i wydarzeń społecznych. Mówiąc dokładniej, badanie Jie Qin z 2015 r. dotyczące relacji Edwarda Snowdena w starszych wiadomościach i mediach społecznościowych sugeruje znaczne rozbieżności w doborze słów i znaczeniu słów, tak że starsze wiadomości przedstawiają Snowdena jako zdrajcę, podczas gdy media społecznościowe przedstawiają go jako bohatera. Teorie powszechnie używane do badania internetowych sieci semantycznych obejmują teorię pola, teorię ram i teorię ustalania agendy.

Przyszłe kierunki w sieciach społecznościowych online

Chociaż badania nad internetowymi sieciami społecznościowymi poczyniły znaczące postępy, ten wpis sugeruje pięć owocnych obszarów przyszłych badań. Po pierwsze, chociaż w bogatym zbiorze badań internetowych sieci społecznościowych zbadano struktury i wzorce sieci przepływowych, reprezentacyjnych i semantycznych, przyszłe badania mogą zwrócić większą uwagę na struktury i wzorce internetowych sieci koligacji. Ponadto, chociaż wiemy dużo o przodkach i procesach internetowych sieci społecznościowych, ograniczone badania dotyczyły wyników internetowych sieci społecznościowych, w szczególności wyników sieci reprezentacyjnych i sieci semantycznych. Po drugie, badania nie koncentrowały się jeszcze na wpływie nacisków instytucjonalnych na poziomie makro na internetowe sieci społecznościowe. Istniejące badania sieci społecznościowych zakładają milczące założenie, że aktorzy w różnych środowiskach instytucjonalnych używają tej samej heurystyki, wybierając połączenie z innymi aktorami w sferze online. Jako taki, jednym obiecującym obszarem przyszłych badań jest porównanie mechanizmów łączenia w pewnym typie sieci społecznościowej online w różnych środowiskach instytucjonalnych. Na przykład badacze mogą porównywać wzorce i struktury internetowych sieci koligacji w Stanach Zjednoczonych i Chinach. Po trzecie, większość istniejących internetowych badań sieci społecznościowych ma charakter przekrojowy. W związku z tym wiemy bardzo niewiele o dynamice internetowych sieci społecznościowych, o tym, jak ewoluują one w czasie i jak wchodzą w interakcje ze środowiskiem zewnętrznym. Brak badań podłużnych w internetowych sieciach społecznościowych dodatkowo hamuje możliwość ustalenia związków przyczynowych między strukturami sieci a atrybutami aktorów egzogenicznych. Dlatego przyszłe badania mogłyby obejmować nowe, podłużne zestawy danych do badania internetowych sieci społecznościowych jako otwartych, dynamicznych systemów, które wchodzą w interakcje ze środowiskiem zewnętrznym. Czwarty obszar przyszłych badań to teorie wykorzystywane przez badaczy do badania różnych internetowych sieci społecznościowych. Różnorodność i zakres przyszłych badań nad sieciami społecznościowymi online może skorzystać na zintegrowaniu większej liczby teorii sieciowych, aby zapewnić naukowcom uzupełniające wyjaśnienia i nowy wgląd. Te teorie sieci obejmują teorię wymiany społecznej, teorię preferencyjnego przywiązania, teorię homofilii, teorię równowagi, teorię zależności od zasobów i teorię socjoewolucyjną. Wreszcie, przyszłe badania mają na celu zbadanie wielowymiarowych internetowych sieci społecznościowych, składających się z kilku typów węzłów i jednocześnie kilku rodzajów relacji. Badanie wielowymiarowych internetowych sieci społecznościowych poczyniło znaczące postępy, a niektóre badania dotyczyły sieci multipleksowych (np. Jednoczesne śledzenie, wspominanie i przesyłanie dalej) wśród użytkowników Twittera. Przyszłe badania mogą rozszerzyć typy węzłów i typy relacji badanych w internetowych sieciach społecznościowych. Jak wspomniano we wstępie, sieci społecznościowe online często uzupełniają sieci offline. W związku z tym badacze mogą badać, w jaki sposób sieci powinowactwa online wchodzą w interakcje z sieciami powinowactwa offline i reprezentacyjnymi sieciami online. Badanie wielowymiarowych sieci pozwala naukowcom uzyskać pełniejszy obraz tego, jak aktorzy społeczni dokonują strategicznych wyborów komunikacyjnych online i offline. Ma również potencjał, aby pogłębić nasze zrozumienie zintegrowanych efektów medialnych, poglądu, że aktorzy podejmują decyzje dotyczące sieci w oparciu o podobieństwa lub wskazówki dotyczące posiadania zasobów w innych systemach medialnych (np. Media informacyjne i media społecznościowe). Podsumowując, badania sieci społecznościowych online stanowią nowy obszar badań, który jest przedmiotem zainteresowania naukowców z wielu dyscyplin, w tym socjologii, zarządzania, komunikacji, nauki o sieciach, informatyki i systemów informacyjnych. Chociaż naukowcy badali tzw. przyczyny i dominujące wzorce internetowych sieci społecznościowych, wiele badań pozostaje do przeprowadzenia, aby zrozumieć skutki internetowych sieci społecznościowych umiejscowionych w szerszym kontekście instytucjonalnym. Ponadto badacze muszą z czasem zwracać większą uwagę na sieci społecznościowe online i na to, jak wchodzą one w interakcje z innymi typami sieci społecznościowych online i offline. Ponadto należy uwzględnić więcej teoretycznych ram sieciowych, aby zapewnić badaczom uzupełniające wyjaśnienia, aby dokładniej uchwycić dynamikę różnych internetowych sieci społecznościowych.



Powrót

Internet wojskowy



Wojsko odgrywa kluczową rolę w Internecie, w tym w jego wynalezieniu, zmianach technologicznych i zastosowaniach. Ten wpis koncentruje się na środowisku instytucjonalnym, poprzez które wojsko, zwłaszcza amerykańskie, na różne sposoby kształtowało Internet.

Historia

Wojskowe korzenie Internetu są dobrze znane, sięgają Agencji Zaawansowanych Projektów Badawczych w Obronie (DARPA) w latach 60. XX wieku. Często uważa się, że próby elektronicznego połączenia komputerów przez DARPA miały na celu umożliwienie im komunikowania się ze sobą w przypadku ataku nuklearnego - główny nacisk położono na Pentagon i jego centrum obliczeniowe w Cheyenne Mountain w Montanie - chociaż niektórzy spierają się, czy było to częścią pierwotnego zamiaru. Projekt DARPA okazał się ogromnym sukcesem, dając początek między innymi komutacji pakietów i Transmission Control Protocol/Internet Protocol, który stał się uniwersalnym protokołem transmisji cyfrowych. Zastosowania wojskowe były zbyt ważne, aby je zignorować, aw 1975 roku Agencja Komunikacji Obronnej przejęła kontrolę nad Siecią Agencji Zaawansowanych Projektów Badawczych (ARPANET). Wraz z rozwojem cywilnych zastosowań Internetu stawało się coraz bardziej jasne, że nie będzie on już bezpieczny dla zastosowań wojskowych. W ten sposób w 1983 r. ARPANET został podzielony na dwie gałęzie: (1) National Science Foundation Network i (2) Military Network. Pierwsza była zarezerwowana do celów badawczych i edukacyjnych, a druga dla ruchu niesklasyfikowanego dla Departamentu Obrony USA. Sieć wojskowa, oficjalnie znana jako Sieć danych obronnych, była obsługiwana przez Agencję Systemów Informacji Obronnej od jej narodzin w 1983 r. do 1995 r. w celu elektronicznego przesyłania niesklasyfikowanych materiałów. Zapewniał łączność internetową z biurami i instalacjami Departamentu Obrony w Stanach Zjednoczonych oraz z bazami wojskowymi za granicą. W 1985 roku nazwa domeny .mil została utworzona dla Departamentu Obrony i stowarzyszonych organizacji; Stany Zjednoczone są jedynym krajem z nazwą domeny najwyższego poziomu dla swojego wojska, spuścizną DARPA. Na przykład brytyjskie wojsko używa mod.uk, a Kanada używa .norad. Aby przenosić materiały niejawne, wojsko stworzyło trzy inne sieci, Defense Secure Networks (DSN) 1, 2 i 3, które przenosiły ruch w rosnącej kolejności tajności. Podczas gdy DSN 1 był podobny do ARPANET, DSN 2 był dedykowany Światowemu Wojskowemu Systemowi Dowodzenia i Kontroli, a DSN 3 wspierał Wywiadowczy System Informacyjny Departamentu Obrony. W 1991 roku zostały one skonsolidowane w postaci Sieci Systemów Informacji Obronnej, ogólnoświatowej sieci obsługującej Agencję Systemów Informacji Obronnej (dawniej Agencję Łączności Obronnej), a także innych partnerów misyjnych Pentagonu. Obronna Sieć Systemów Informatycznych składa się z trzech poziomów: (1) bazy podtrzymującej, za którą odpowiadają oddzielne jednostki , oddziały wojskowe; (2) infrastruktura transportu dalekiego zasięgu, łącząca lokalne jednostki wojskowe z Joint Task Force; oraz (3) rozmieszczonych użytkowników i wojowników. Oferuje również Global Content Delivery System, który zapewnia liczne usługi personelowi wojskowemu, w tym pocztę e-mail za pośrednictwem portali Army Knowledge Online, Navy Knowledge Online i Air Force; dane dla Narodowej Agencji Wywiadu Geoprzestrzennego; i obrony przed cyberatakami. Ponadto pozyskuje treści internetowe za pośrednictwem sieci niezabezpieczonych routerów protokołów internetowych, obecnie znanej jako Usługa wrażliwych, ale niesklasyfikowanych protokołów internetowych, w przypadku materiałów niesklasyfikowanych, oraz sieci bezpiecznych routerów protokołów internetowych, obecnie znanych jako Tajne usługi danych protokołów internetowych, w celu materiał niejawny. Wreszcie, jej usługa przesyłania wiadomości organizacyjnych zapewnia bezpieczną komunikację, w tym telefonię wideo, między personelem wojskowym, zagranicznymi sojusznikami i stronami niezwiązanymi z obronnością. Technicznym rdzeniem DISN jest Global Information Grid-Bandwidth Expansion. Kosztująca 877 milionów dolarów jest to największa wojskowa infrastruktura informacyjna, jaką kiedykolwiek zbudowano. Stał się w pełni operacyjny w 2005 roku w 100 zatwierdzonych lokalizacjach. Obecnie personel wojskowy stacjonujący za granicą, nawet w odległych obszarach, rutynowo ma dostęp do Internetu, w tym szerokopasmowego Wi-Fi w bazach wojskowych. Satelitarne usługi internetowe w odległych regionach umożliwiają żołnierzom bezpośrednie podłączenie laptopów, dzięki czemu mogą pozostawać w kontakcie z rodziną i przyjaciółmi przez Skype lub brać udział w kursach online, co podnosi ich morale. Powszechne są podcasty wojskowe i radio internetowe. Wielu żołnierzy przyzwyczaiło się do wszechobecnej łączności. Większość baz wojskowych posiada nawet kafejki internetowe w ramach zorganizowanego programu przyznawanego prywatnym kontrahentom. Oczywiście łatwy dostęp sprawia również, że personel wojskowy jest narażony na ataki hakerskie, phishing i oszustwa internetowe. Dostęp do pornografii internetowej w obiektach wojskowych wywołał poważną debatę. Wreszcie, wojsko czasami uciekało się do cenzury internetowej, na przykład kiedy zablokowało dostęp do The Guardian w 2013 roku w następstwie ujawnienia przez Edwarda Snowdena szpiegostwa Agencji Bezpieczeństwa Narodowego. W 2009 roku w siedzibie Agencji Bezpieczeństwa Narodowego w Fort Meade w stanie Maryland utworzono U.S. Cyber Command (Cybercom). Kiedy zaczął działać w październiku 2010 roku, faktycznie stał się piątą główną gałęzią sił zbrojnych. Cybercom planuje, koordynuje i prowadzi działania mające na celu ochronę wojskowej infrastruktury internetowej. W sierpniu 2017 roku Departament Obrony rozpoczął proces podniesienia Cybercomu do rangi zjednoczonego dowództwa kombatantów, a sekretarz obrony James Mattis badał możliwość oddzielenia Cybercomu od Agencji Bezpieczeństwa Narodowego. Cybercom składa się z kilku części, w tym Army Cyber Command / Second Army, której jedną gałęzią jest Army Network Enterprise Technology Command; Cyber Dowództwo Floty Sił Cybernetycznych Marynarki Wojennej, w tym Dziesiąta Flota; Siły Powietrzne Cyber, w tym 24. Siły Powietrzne i 67. Skrzydło Wojny Sieciowej, 688. Skrzydło Operacji Informacyjnych i 689. Skrzydło Łączności Bojowej; i cyberprzestrzeń piechoty morskiej. Obsługuje również 133 cyberzespoły, z których 66 chroni wojsko przed cyberatakami. Kluczowym zadaniem wojskowego Internetu jest cyberinteligencja, czyli spostrzeżenia płynące z gromadzenia, oceny i interpretacji danych dotyczących wrogich krajów, osób lub organizacji; rywalizujące siły cybernetyczne; i działań strategicznych. Obejmuje to informacje operacyjne w czasie rzeczywistym, niezbędne do przeprowadzania cyberoperacji i wywiadu taktycznego dotyczące celów, metod ataku i oceny szkód. Dostarcza cyberdowódcom niezbędnych informacji dotyczących wrogich sieci, oprogramowania, systemów bezpieczeństwa i wycieków informacji. Wojna informacyjna, zwłaszcza dominacja informacyjna, stała się zatem integralną częścią strategii wojskowej. Cyfrowe i analogowe przestrzenie bitewne zostały płynnie zintegrowane. Jak zauważył Shane Harris w swojej książce @War: The Rise of the Military-Internet Complex z 2014 roku, Internet jest teraz polem bitwy, choć bez granic. Kolejny wymiar wojskowego Internetu dotyczy Internetu Rzeczy. Ponieważ coraz więcej obiektów jest podłączonych do Internetu, Internet odgrywa kluczową rolę w różnych operacjach wojskowych. Obejmuje to drony; zarządzanie energią; zarządzanie flotą, logistyką, ruchem i parkingami; symulacje i wizualizacja danych; filmy pomagające w naprawie sprzętu; monitorowanie stanu zdrowia personelu; nadzór bezpieczeństwa i kontrola dostępu fizycznego; oraz rozpoznawanie twarzy i tablic rejestracyjnych. Takie zadania opierają się na wbudowanym przetwarzaniu taktycznym i w chmurze, znacznikach identyfikacji radiowej i wielu podobnych technologiach. Wojna skoncentrowana na sieci pozwala zatem na szybką wymianę informacji i współpracę, świadomość sytuacyjną i szybkie reagowanie na szybko zmieniające się okoliczności. W XXI wieku wojskowy Internet USA został powołany do pełnienia kilku funkcji. Odgrywa kluczową rolę w operacjach antyterrorystycznych (m.in. zakłócanie sieci komunikacyjnych Państwa Islamskiego) oraz w działaniach militarnych w Iraku i Afganistanie. Takie operacje mogą obejmować gromadzenie danych wywiadowczych, zakłócanie rekrutacji i zbierania funduszy oraz ochronę żołnierzy przed lukami w cyberprzestrzeni (np. oszustwami typu phishing). Działa w celu zabezpieczenia sieci w Departamencie Obrony, Agencji Bezpieczeństwa Narodowego i Departamencie Bezpieczeństwa Wewnętrznego, a także zapobiegania cyberatakom na Pentagon, których liczbę szacuje się na ponad 24 000 rocznie. W 2006 roku chińscy hakerzy zdobyli terabajty informacji o systemie operacyjnym F-35 Joint Strike Fighter. Podejście wojska do cyberbezpieczeństwa nazywa się głęboką obroną, która próbuje rozłożyć ryzyko na wiele poziomów bezpieczeństwa informacji - to znaczy przy użyciu różnych narzędzi bezpieczeństwa w celu udaremnienia ataków. Penetracja takiego systemu wymaga sporej wiedzy i znajomości architektury sieci. W listopadzie 2007 r. Departament Obrony ustanowił zasady procesu certyfikacji i akredytacji zapewniania informacji, które szczegółowo określają kroki certyfikacji i akredytacji niezbędne do zapewnienia ochrony i obrony systemów. Wdraża szereg środków, takich jak autoryzowane ataki hakerskie i poprawki bezpieczeństwa, a także testowalne wskaźniki do pomiaru skuteczności zabezpieczeń. Ponieważ niektóre pakiety oprogramowania są produkowane przez firmy prywatne, dostawcy czasami oferują "wyzwania błędów", aby zidentyfikować luki w zabezpieczeniach swoich produktów. W 2013 roku Pentagon ogłosił pięciokrotne zwiększenie liczby personelu zajmującego się kwestiami cyberbezpieczeństwa z 900 do 4900 żołnierzy i cywilów. Wojsko USA przeprowadza również co roku setki cyberataków na Iran (np. wirus Stuxnet), Koreę Północną i Chiny. Na przykład hakerzy wojskowi wszczepili złośliwe oprogramowanie na strony internetowe dżihadystów, nakłaniając widzów do klikania linków i nieświadomego instalowania oprogramowania szpiegującego na swoich komputerach. Stany Zjednoczone nie są osamotnione w tworzeniu wojskowego Internetu. Założona w 2010 roku, jest oddziałem Armii Ludowo-Wyzwoleńczej. Jego cieszący się złą sławą program hakerski Unit 61398 z siedzibą w Szanghaju obrał za cel chińską bazę bezpieczeństwa informacji (xinxi baozhang jidi), liczne agencje rządowe USA, a także gazety. Wielka Brytania ma swoją Joint Cyber Reserve Unit, która powstała w 2013 roku. W 2016 roku Niemcy utworzyły Kommando Cyber-und Informationsraum (Dowództwo ds. Cyberprzestrzeni i Informacji), które jest odpowiedzialne za cyberobronę, wywiad wojskowy, geoinformację i łączność operacyjną w wojsko narodu. Założyła także Centrum Cyberobrony (Nationales Cyber-Abwehrzentrm) i Narodową Radę Bezpieczeństwa Cybernetycznego. Francuski Cybercom rozpoczął działalność w 2017 r., zatrudniając 2600 ekspertów ds. bezpieczeństwa internetowego i dysponując finansowaniem w wysokości 2,1 mld euro. Podobną rolę pełni powołane w 2012 roku Kanadyjskie Dowództwo Połączonych Operacji. W 2013 roku armia rosyjska utworzyła osobne Cyber Command. Rosja utworzyła również sieć wojskową bez nielicencjonowanych połączeń, zwaną Segmentem Zamkniętego Transferu Danych, która wykorzystuje obiekty wynajmowane od państwowej agencji łączności Rostelecom. Izrael ma agresywną jednostkę cybernetyczną, Jednostkę Wywiadu Wojskowego 8200, która rozpoczęła ataki na grupy Iranu i Palestyny. Jeszcze inne cyberpolecenia istnieją w Korei Południowej, Australii, Indiach, Pakistanie, na Filipinach, na Tajwanie iw Brazylii. Ponieważ cyberwojna i operacje cyberszpiegowskie szybko się rozwinęły, a rządy na całym świecie zareagowały, zwiększając swoje wojskowe możliwości internetowe, jednocześnie wzrosły obawy dotyczące kompleksu wojskowo-cyfrowego. Podobnie jak w przypadku kompleksu wojskowo-przemysłowego, przed którym słynnie ostrzegał prezydent Dwight D. Eisenhower, rola wojska w Internecie obejmuje przytulne relacje między programistami w prywatnych firmach a aparatem bezpieczeństwa narodowego. Na przykład około 143 firm jest zaangażowanych w ściśle tajne amerykańskie operacje cybernetyczne, w tym gigantów, takich jak Cisco, Microsoft, Symantec i McAfee. Niezrównane możliwości inwigilacji wojska mogą zostać wykorzystane przeciwko cywilom, na przykład gdy jego dowody są wykorzystywane w procesach cywilnych, pomimo ustawy Posse Comitatus. Militaryzacja cyberprzestrzeni i towarzyszące jej implikacje społeczne i polityczne budzą niepokój wielu osób.



Powrót

Internet mobilny



Internet mobilny wykorzystuje wszechobecną technologię sieciową dostarczaną przez operatorów telekomunikacyjnych do dostarczania usług i dostępu niezależnie od lokalizacji użytkownika. Dzięki technologicznej konwergencji Internetu, technologii szerokopasmowej i bezprzewodowej użytkownicy zwykle uzyskują dostęp do mobilnych usług internetowych za pośrednictwem smartfonów, tabletów, nośników do noszenia lub wszczepiania lub osobistych asystentów cyfrowych. Użytkownicy mogą również łączyć się przez uniwersalną magistralę szeregową, gdy nie jest dostępna sieć stacjonarna lub Wi-Fi. Mobilne rozszerzenia Internetu rzeczy (IoT), łączące usługi transportowe, drony i coraz większą liczbę produktów konsumenckich, na przykład łączą się za pośrednictwem węzła sieci bezprzewodowej. W swojej nazwie mobilny Internet oferuje użytkownikom obietnicę mobilności i zdalnego dostępu do usług i treści. Często mobilny Internet jest katalizatorem współczesnych usług lokalizacyjnych i aplikacji na smartfony, które umożliwiają użytkownikom nawigację do celu, znajdowanie miejsc w pobliżu i uzyskiwanie informacji o ich lokalizacji w czasie rzeczywistym. Rozwijający się rynek nośników do noszenia i wszczepiania oraz inteligentne połączenia IoT umożliwiają stałe monitorowanie osobiste i grupowe, a także formy "prosumpcji" online (nakładanie się produkcji i konsumpcji mediów). Chociaż sieci komórkowe zostały pierwotnie stworzone z myślą o usługach głosowych, wiele współczesnych urządzeń mobilnych koncentruje się na zastosowaniach i funkcjach związanych z Internetem, co z kolei doprowadziło do renegocjacji usługi świadczone przez dostawców. Zasadniczo światowy rynek doświadczył mobilnego Internetu wyprzedzającego stacjonarne połączenia internetowe. Ten wpis przedstawia przegląd mobilnego Internetu; bierze pod uwagę różne historyczne generacje, formaty i sposoby dostępu; odnosi się do potencjału sieci telefonii komórkowej w zakresie zamykania przepaści cyfrowych; i gesty w kierunku nowej generacji (5G) mobilnego Internetu.

Charakterystyka i ograniczenia

Międzynarodowy Związek Telekomunikacyjny zauważa, że liczba abonamentów na mobilny Internet na całym świecie wzrosła z 200 milionów w 2008 roku do 2,2 miliarda w 2016 roku. Spojrzenie na współczesny krajobraz mediów mobilnych pozwala przewidzieć dalsze rozpowszechnienie sieci komórkowych. Pomimo ciągłego zapotrzebowania na funkcje mobilne i wzrostu liczby abonentów "wyłącznie telefony komórkowe" lub "głównie telefony komórkowe", Internet mobilny jest oparty na sprzęcie, który zapewnia pewne różnice w możliwościach i mocach dostępu. W zależności od kontekstu krajowego, siły sygnału i pola, a także możliwości dostępu, współczesny mobilny Internet może ułatwiać połączenie sieciowe za pośrednictwem platform Wi-Fi, 2G, 3G, 4G i/lub długoterminowej ewolucji (LTE). Operatorzy sieci zazwyczaj zapewniają klientom zryczałtowane i/lub plany danych oparte na wykorzystaniu, porządkując doświadczenia konsumentów pod kątem wszechobecnego użytkowania przez klientów. W krajach, w których dostęp do łączy mobilnych i stacjonarnych jest stosunkowo szeroki, ograniczenia umowne dotyczące mobilnego dostępu szerokopasmowego są bardziej restrykcyjne niż w przypadku stacjonarnego dostępu szerokopasmowego. Z punktu widzenia użytkownika niektóre usługi mobilne są dostępne za pośrednictwem interfejsu mobilnego, podczas gdy inne oferują dostęp do aplikacji i treści przeznaczonych dla połączeń stacjonarnych. W obu scenariuszach nadanie priorytetu mobilności przyczynia się do korzyści i wad dla użytkownika, które różnią się w zależności od wyboru urządzenia oraz możliwości i potrzeb użytkownika. W niektórych krajach technologie mobilne umożliwiły wzrost korzystania z aplikacji na smartfony, wyprzedzając większość zaangażowania w media cyfrowe. Chociaż stacjonarny sprzęt internetowy, taki jak laptopy i komputery osobiste, oferuje przewodowe połączenia szerokopasmowe, mobilność Internetu na urządzeniu mobilnym obejmuje wiele różnych fizycznych właściwości sprzętu, w tym mniejszy ekran; wirtualna, mniejsza lub nieobecna klawiatura i mysz; ograniczenia żywotności baterii; i zmniejszoną pojemność magazynową. Tak więc, pomimo wygody i wszechobecności technologii, sama jej przenośność ma jednocześnie wpływ na fizyczne właściwości sprzętu. Co więcej, forma sprzętowa dyktuje funkcje oprogramowania wbudowanego w technologię, a aplikacje są coraz bardziej dostosowywane do wzorców mobilności w ruchu. Te obecne standardy i praktyki zmieniły się radykalnie od swoich korzeni w późnych latach 90.

Przegląd historyczny formatów i trybów dostępu

W ramach infrastrukturalnego badania mobilności sieci, pierwsza generacja mobilnego Internetu charakteryzowała się zawartością platform usług krótkich wiadomości tekstowych (SMS). Przykładem może być uruchomienie w 1997 roku przez norweskich operatorów telefonii komórkowej dwóch usług, MobilInfo i SMSinfo. Narzędzia te były kanałem dostarczania usług informacyjnych, który umożliwiał dostawcom treści mobilizację informacji, przy jednoczesnym wykorzystaniu łatwo dostępnych treści z istniejących źródeł, takich jak media informacyjne, centra ruchu i instytucje meteorologiczne. Treść została następnie przekonwertowana i udostępniona do dystrybucji na odpowiednich platformach usług informacyjnych. Zbudowane na skromnym modelu biznesowym z ograniczonymi zasobami inwestycyjnymi na innowacje i rozwój, usługi informacyjne SMS, takie jak MobilInfo i SMSinfo, są często pomijane w genealogicznej narracji mobilnego Internetu. Druga generacja mobilnego Internetu charakteryzuje się protokołem Wireless Application Protocol (WAP) oraz japońskim i-mode. Pierwsze mobilne połączenie internetowe zostało nawiązane w 1996 roku w Finlandii za pomocą komunikatora Nokia 9000. To pionierskie urządzenie mobilne łączyło telefon Global System for Mobile Communications (GSM) z aplikacjami takimi jak faks, e-mail, SMS i dostęp do Internetu. Pomimo tego, że był drogi i trudno dostępny dla ogółu społeczeństwa, Nokia 9000 Communicator utorował drogę do integracji usług transmisji danych z mobilnym Internetem. Trzy lata później wprowadzono dwuzakresowy telefon Nokia 7110 GSM 900/1800 - pierwszy "telefon multimedialny" oparty na WAP. WAP, współzałożony przez firmy Nokia, Ericsson, Motorola i Unwired Planet, został uznany w komunikacie prasowym firmy Nokia z 1999 r. za de facto globalny standard mający na celu dostarczanie odpowiednich treści informacyjnych właścicielom telefonów komórkowych za pośrednictwem ich odpowiednich terminali bezprzewodowych. Standard WAP działał za pośrednictwem bezprzewodowego języka znaczników. Strony internetowe i ich zawartość zostały przekonwertowane i ograniczone do prostego tekstu i grafiki, aby umożliwić wyświetlanie treści na małych i często prostych ekranach mobilnych. Jednak słabe prędkości, niedobór treści i ogólnie niska jakość usług były ograniczeniami WAP. W bezpośredniej konkurencji z WAP, japoński operator telefonii komórkowej NTT DoCoMo uruchomił tryb i-mode w lutym 1999 r. W przeciwieństwie do bezprzewodowego języka znaczników WAP, tryb i-mode wykorzystywał podzbiór hipertekstowego języka znaczników (HTML) zwanego kompaktowym HTML (C-HTML) jako język znaczników. Podobnie jak standard WAP, tryb i-mode był w stanie dostarczać tylko obsługiwane treści, które zostały przekonwertowane w celu wykorzystania tej technologii. W związku z tym skompilowane w sieci oficjalne witryny i-mode były dostępne wyłącznie za pośrednictwem odpowiednich telefonów obsługujących usługi, co było istotną wadą na arenie konkurencyjnego rynku telefonii komórkowej. Pod koniec 2016 r., kiedy większość branży skupiała się na smartfonach, NTT DoCoMo zawiesiło produkcję i wysyłkę większości swoich telefonów z funkcjami zgodnymi z długoletnim natywnym standardem mobilnego Internetu. Określenie "internet mobilny" sugeruje w sposób dorozumiany rozbieżność między tradycyjnym Internetem opartym na komputerze osobistym a tym, do którego dostęp uzyskuje się za pomocą osobistego i przenośnego urządzenia mobilnego. Chociaż ta etykieta z prefiksem mogła być logiczna w przypadku wczesnego mobilnego dostępu do Internetu za pośrednictwem WAP lub i-mode, trzecia generacja mobilnego Internetu (ta, która charakteryzuje się wszechobecnym smartfonem) pociąga za sobą mniejszą różnicę w treści dla użytkowników końcowych. Ta trzecia generacja mobilnego Internetu zazwyczaj działa w technologii 3G, 4G i LTE. Sieci 3G wykorzystują technologie GSM lub Code Division Multiple Access. Dzięki ulepszonym prędkościom następca 3G wykorzystuje sieć szybkiego dostępu pakietowego do produkcji technologii 4G i LTE. Raport GSM Association Intelligence z 2016 r. stwierdza, że te globalne mobilne szerokopasmowe połączenia stanowiły prawie 50% wszystkich połączeń na koniec 2015 r. i oczekuje się, że do 2020 r. ich udział wzrośnie do ponad 70%. Ta zmiana lokalizacji sieci jest spowodowana większym dostępem do smartfonów i szerokiego zasięgu systemu. Ponadto szybkość i pojemność technologii sieciowej w coraz większym stopniu umożliwia większą dostępność mediów aplikacji.

Usługi danych i środowisko aplikacji

W epoce, zanim aplikacje skolonizowały krajobraz mediów mobilnych, mobilne usługi transmisji danych można było podzielić na cztery tryby: (1) pobieranie informacji, (2) wypychanie informacji, (3) transakcja i (4) dostęp. Usługi pobierania informacji obejmują użytkowników poszukujących informacji, takich jak aktualne wiadomości, prognozy pogody i wyniki sportowe. Jej odpowiednik, usługi informacyjne typu push, polegają na wysyłaniu informacji do użytkowników w formie reklamy opartej na lokalizacji. Usługi transakcyjne to te, które zapewniają użytkownikowi pewne wartości i usługi wymienne, w tym zakup towarów i bankowość mobilną. Dostęp umożliwia urządzeniu użytkownika łączenie się z dedykowanym serwerem bezprzewodowym w celu potencjalnego wykorzystania poczty e-mail lub połączenia firmowej wirtualnej sieci prywatnej. Rozpowszechnianie się smartfonów spowodowało renegocjację wspomnianych wyżej mobilnych usług transmisji danych w kierunku tych, które wykorzystują aplikacje do "robienia rzeczy". Flurry Analytics poinformowało, że w 2015 roku 90% czasu spędzanego na korzystaniu z telefonu komórkowego w Stanach Zjednoczonych było przeznaczone na korzystanie z aplikacji, a pozostałe 10% na przeglądanie. Jedną z kategorii aplikacji, która stale wykorzystuje mobilny Internet do dostarczania treści, są media lokalne. Te aplikacje dostarczają informacji o lokalizacjach specyficznych dla witryny, dając użytkownikom dostęp do nowatorskich sposób patrzenia, doświadczania i poruszania się w przestrzeni. Atrakcyjność technologii aplikacji, zarówno ze względu na jej rozległość, jak i względną przystępność cenową, zwiększyła popyt na technologię smartfonów jako podstawowego środka dostępu do Internetu w różnych kontekstach międzynarodowych. Co więcej, wszechobecna technologia wykształciła całe pokolenie użytkowników "wyłącznie mobilnych" i "przeważnie mobilnych".

Kontrowersyjne rozwiązanie dotyczące podziału cyfrowego

Pod koniec 2016 roku 2,5 miliarda osób w krajach rozwijających się korzystało z urządzeń mobilnych w celu uzyskania dostępu do Internetu, a liczba ta ma wzrosnąć o ponad połowę (1,3 miliarda) do 2020 roku. Ten nowy dostęp może potencjalnie poprawić perspektywy gospodarcze i społeczne, tradycyjnie ograniczone w kontekstach, w których utrzymują się przepaści cyfrowe. W swoich artykułach z 2013 i 2014 roku Philip Napoli i Jonathan Obar omówili sporną naturę efektu "mobilnego przeskakiwania", w którym zaawansowana technologia (np. Internet mobilny) jest przyjmowana tam, gdzie pokrewna wcześniejsza technologia (np. Internet stacjonarny) nie była. Ponieważ wiele osób w krajach rozwijających się oraz w zmarginalizowanych społecznościach w krajach rozwiniętych jest w coraz większym stopniu stać na dostęp do Internetu po raz pierwszy za pośrednictwem urządzeń mobilnych, umacnia się argument, że mobilny Internet zmniejsza przepaść cyfrową. Napoli i Obar podkreślają jednak, że chociaż sprzęt może odnosić się do jednego składnika podziału, uprzywilejowanie mobilności, a w niektórych przypadkach kosztów, tworzy "podklasę mobilnego Internetu" definiowaną przez brak dostępu i możliwości ze względu na infrastrukturę, sieć, oprogramowanie , a treść dzieli. Podczas gdy mobilność ułatwia wyjątkowe połączenie w ruchu, rozszerzając aktywność online, obecne badania sugerują, że stałe połączenia ułatwiają bardziej przemyślane i złożone formy zaangażowania online. Na przykład tworzenie i utrzymywanie dużego przedsiębiorstwa internetowego, takiego jak Facebook, wymaga obecnie dostępu do usług stacjonarnych i związanego z nimi sprzętu, podczas gdy mobilny Internet i usługi w chmurze nadal kojarzą się z mniej intensywną działalnością. Inne różnice między mobilnym i stacjonarnym Internetem, w tym międzynarodowe podejście do polityki neutralności sieci, również tradycyjnie stawiają telefon komórkowy w niekorzystnej sytuacji, chociaż niedawne zawieszenia polityki USA i różne międzynarodowe inicjatywy zerowej oceny próbują wyrównać szanse.

Przyszłość Internetu mobilnego

W zebranej dyskusji na temat komunikacji mobilnej 5G Wei Xiang, Kan Zheng i Xuemin (Shermin) Shen twierdzą, że rosnące zapotrzebowanie na mobilny ruch danych wraz z rozprzestrzenianiem się aplikacji wymagających wysokich szybkości transmisji danych wzbudziło znaczne zainteresowanie zdefiniowaniem nowych standardów na rynku mobilnym. Jako taki, obecny mobilny Internet 4G i LTE zapoczątkuje nowy podzbiór trzeciej generacji opisany powyżej, obejmujący komunikację mobilną piątej generacji. Oprócz znacznego wzrostu wymagań i szybkości transmisji danych, ciągłym wyzwaniem dla mobilnych sieci internetowych 5G jest sposób łączenia miliardów inteligentnych urządzeń, w tym nie tylko tradycyjnych smartfonów, ale także inteligentnych produktów konsumenckich, urządzeń do noszenia/implantacji, czujników w rozszerzeniach mobilnego Internetu Rzeczy , i więcej. Te innowacyjne sieci 5G będą w stanie zapewnić masową, ultraniezawodną łączność o niskich opóźnieniach między jednostkami technologicznymi a użytkownikami, ostatecznie zapoczątkowując erę IoT. Międzynarodowa Unia Telekomunikacyjna określiła rok 2020 jako rok docelowy dla standaryzacji przyszłych sieci komórkowych 5G, dążąc do realizacji przyszłej wizji mobilnej komunikacji internetowej. Ta nowatorska sieć pojawi się później, aby sprostać innowacyjnym i unikalnym wymaganiom wykraczającym poza możliwości obecnych pokoleń. W tej dziedzinie mobilny Internet będzie napędzany wzrostem usług IoT, rzeczywistością rozszerzoną i wirtualną, komputerami zdalnymi, usługami e-zdrowia, pojazdami autonomicznymi i tak dalej.



Powrót

Internet satelitarny



Internet satelitarny przesyła informacje cyfrowe za pośrednictwem sieci satelitów komunikacyjnych i stacji naziemnych. Podobnie jak w przypadku dystrybucji nadawania, systemy te zapewniają duży zasięg geograficzny, z możliwymi połączeniami bez bezpośredniej infrastruktury fizycznej. Z tych powodów systemy satelitarne są często wykorzystywane do łączenia odległych lokalizacji z małymi i/lub rozproszonymi populacjami użytkowników. Internet satelitarny jest również wykorzystywany na obszarach, gdzie infrastruktura naziemna została uszkodzona lub zniszczona, np. to jest przydatne w aplikacjach wymagających dużych obszarów połączeń, takich jak przesyłanie danych do gromadzenia danych naukowych, monitorowanie pogody i tworzenie map. Wreszcie satelitarne systemy internetowe obsługują połączenia z punktami dostępu w roamingu, takimi jak te na poruszających się statkach, takich jak samoloty i statki. Pomimo swoich zalet, satelitarne systemy internetowe mają kilka wad. Należą do nich wysokie koszty rozwoju i eksploatacji oraz wysokie ceny płacone przez użytkowników końcowych. Pewne cechy techniczne skutkują wyzwaniami, takimi jak opóźnienia (opóźnienia) i ograniczona przepustowość. Niemniej jednak Internet satelitarny pozostaje ważną technologią dystrybucji Internetu i cieszy się ostatnio dużym zainteresowaniem mediów dzięki inwestycjom dokonywanym przez firmy, takie jak Google, SpaceX i Facebook. Organizacje te proponują wykorzystanie satelitów do łączenia szacunkowych 4 miliardów ludzi na świecie, którzy obecnie nie mają dostępu do szerokopasmowego Internetu, a także do łączenia użytkowników korzystających z roamingu i urządzeń składających się na powstający Internet Rzeczy. Jednak wcześniejsze próby stworzenia takich globalnie zintegrowanych sieci satelitarnych zakończyły się niepowodzeniem, a kilka inicjatyw z początku XXI wieku zakończyło się bankructwem. Inne grupy, w tym rządy tubylcze, również tworzą satelitarne systemy internetowe i zarządzają nimi, aby służyć wyborcom w regionach odległych i wiejskich. Ten wpis analizuje historię Internetu satelitarnego, a także jego elementy techniczne, koszty i regulacje. Ten wpis kończy się przeglądem niektórych przyszłych i pojawiających się wyzwań Internetu satelitarnego.

Historia

Wkrótce po tym, jak autor science fiction i fizyk Arthur C. Clarke po raz pierwszy wyobraził sobie globalny system komunikacyjny składający się z kosmicznych nadajników i stacji naziemnych w połowie lat czterdziestych XX wieku, Rosja wystrzeliła pierwszego na świecie satelitę komunikacyjnego, Sputnika. Na początku lat sześćdziesiątych inne rządy, zwłaszcza w krajach takich jak Kanada i Australia, z populacjami rozproszonymi na dużych obszarach geograficznych, zaczęła rozwijać krajowe systemy satelitarne do usług nadawczych, telefonicznych i transmisji danych. Kanada była pierwszym krajem, który opracował własnego geosynchronicznego krajowego satelitę komunikacyjnego, Anik A1, w listopadzie 1973 r. (nazwa pochodzi od słowa Inuttitut oznaczającego "młodszego brata"). Biorąc pod uwagę rosnące zapotrzebowanie na globalne usługi komunikacyjne, branża satelitarna, przy wsparciu rządów, szybko rozwinęła się na skalę międzynarodową. Początkowo skoncentrowane na świadczeniu usług telekomunikacyjnych i emisji treści, satelity komunikacyjne zaczęły dystrybuować dane cyfrowe na większą skalę w latach 90., wraz z rozwojem Internetu. Prace te były wspierane przez innowacje techniczne i decyzje regulacyjne, w tym rozszerzenie widma częstotliwości udostępnionych do użytku. Obecnie Internet satelitarny jest używany do tych samych celów, co Internet naziemny: do uzyskiwania dostępu do treści cyfrowych, łączenia się z przyjaciółmi i rodziną oraz do pracy, nauki, zabawy i zarządzania za pomocą szeregu aplikacji internetowych. Internet satelitarny obsługuje również aplikacje korporacyjne, w tym przesyłanie danych i dostarczanie usług publicznych online, takich jak edukacja i zdrowie.

Komponenty techniczne w satelitarnych systemach internetowych

Systemy satelitarne składają się z trzech zintegrowanych elementów: (1) segmentu kosmicznego, (2) centrum operacji sieciowych (NOC) oraz (3) infrastruktury naziemnej (znanej również jako stacje naziemne). Wybory projektowe dotyczące czynników, takich jak używane pasma częstotliwości widma, rozmiar anten odbiorczych i typ topologii sieci, wpływają na sposób zarządzania sieciami. Segment kosmiczny to element unoszący się na orbicie, czasami nazywany "ptakiem". Odbiera i wysyła dane przez sieć, czasem kierowane przez NOC, a czasem bezpośrednio do stacji naziemnych. Każdy satelita jest budowany na zamówienie, więc segment kosmiczny ma zmienną ładowność przepustowości transmisyjnej. Segmentem kosmicznym może być satelita geostacjonarny (GEO) lub satelita znajdujący się na niskiej orbicie okołoziemskiej (LEO). Systemy GEO zajmują stałą pozycję na orbicie, która jest zsynchronizowana z ruchem obrotowym Ziemi, sprawiając wrażenie nieruchomych względem Ziemi. Ze względu na swoją odległość od ziemi systemy GEO doświadczają większych opóźnień w transmisji niż systemy LEO, ale mają też większy zasięg transmisji. Z kolei systemy LEO znajdują się stosunkowo blisko Ziemi i poruszają się w przestrzeni kosmicznej, dlatego wymagają śledzenia stacji naziemnych lub wielu satelitów, aby zapewnić nieprzerwaną obsługę. Systemy LEO są skomplikowane w zarządzaniu, ale mogą również rozwiązać problemy z opóźnieniami systemów GEO. Ponieważ systemy LEO znajdują się blisko powierzchni Ziemi, zajmują mniej miejsca niż systemy GEO. Infrastruktura naziemna składa się ze stacji naziemnych ustawionych w dowolnym miejscu w zasięgu satelity. Stacje naziemne obejmują anteny lub anteny, które wysyłają i odbierają dane, a także sprzęt używany do ich przetwarzania i dystrybucji. Anteny mają średnicę od kilku metrów do kilku cm. Wymagają bezpośredniego połączenia z satelitą, co wpływa na ich rozmiar i położenie. Z biegiem czasu sprzęt stacji naziemnych stał się mniejszy, tańszy i twardszy. NOC lub koncentrator trasuje dane przesyłane między satelitami a stacjami naziemnymi. Zazwyczaj zarządzanie i obsługa satelitarnych systemów internetowych koncentruje się w NOC, ale zależy to od konfiguracji topografii sieci. Scentralizowane sieci składają się z bezpośrednich połączeń między stacjami naziemnymi a satelitą i są bardziej przystosowane do odbierania ruchu, przy czym NOC pełni bierną rolę. Zdecentralizowane sieci kratowe umożliwiają stacjom naziemnym łączenie się ze sobą za pośrednictwem NOC (lub regionalnych węzłów) i mogą obejmować zaawansowane techniki zarządzania przepustowością, takie jak kształtowanie ruchu między lokalizacjami. Projekt sieci satelitarnej różni się również konfiguracją infrastruktury naziemnej w lokalizacjach lokalnych. Sieć "agregatora społeczności" jest skonfigurowana do wysyłania i odbierania sygnałów z satelity w pojedynczym punkcie dostępu w społeczności. Dane są następnie dystrybuowane do domów i organizacji za pośrednictwem infrastruktury bezprzewodowej lub przewodowej, czasami przez lokalną organizację. Model ten daje więcej możliwości lokalnej kontroli sieci, np. kształtowania ruchu czy dynamicznego zarządzania przepustowością jako zasób społeczności. Model "bezpośrednio do domu" eliminuje ten element dostępu lokalnego w systemie, zamiast tego bezpośrednio łączy użytkowników końcowych w domach i organizacjach ze scentralizowanym NOC. Takie sieci obejmują dystrybucję anten rozmieszczonych w całej społeczności, na przykład na dachach domów i innych budynków. W tym modelu stacje naziemne są ograniczone do wysyłania i odbierania sygnałów.

Pasma częstotliwości używane w Internecie satelitarnym

Niezależnie od konstrukcji systemu Internet satelitarny przesyła dane wykorzystując pasma częstotliwości widma elektromagnetycznego. Najczęściej używane to pasmo C, pasmo KA i pasmo KU, chociaż nowsze systemy zaczynają wykorzystywać pasmo V o wysokiej częstotliwości. Każde pasmo częstotliwości ma inne parametry techniczne, które wpływają na takie czynniki, jak zasięg geograficzny sieci, przepustowość transmisji i typ anteny wymaganej na stacjach naziemnych. Wyższe częstotliwości, takie jak KA-Band i KUBand, mogą zapewnić szybsze prędkości transmisji i zwiększoną przepustowość, w tym dzięki innowacjom, takim jak wiele wiązek punktowych. Pozwalają również na zastosowanie mniejszych anten, co może obniżyć koszty i wesprzeć instalację dystrybucji usług bezpośrednio do domu. Mają jednak mniejszy zasięg geograficzny w porównaniu z systemami o niższej częstotliwości, takimi jak pasmo C, na które również nie mają tak dużego wpływu warunki atmosferyczne jak deszcz czy śnieg. Systemy pasma C są stosunkowo niedrogie, ale ich wykorzystanie może spadać ze względu na innowacje techniczne w innych pasmach widma. Nowo opracowane systemy V-Band, które działają na bardzo wysokich częstotliwościach, dobrze nadają się do łączy szerokopasmowych i pozwalają na stosowanie małych terminali, w niektórych przypadkach o średnicy zaledwie 30 cm

Kwestie techniczne i kosztowe

Internet satelitarny ma kilka wad. W większości systemów transmisja danych jest opóźniona (opóźnienia) ze względu na odległość między stacjami naziemnymi a satelitą. Chociaż technologia stale się rozwija, użytkownicy nadal doświadczają zauważalnych opóźnień podczas korzystania z usług w chmurze, dwukierunkowych wideokonferencji (np. Skype), wirtualnych sieci prywatnych lub gier online. Większość satelitarnych systemów internetowych ma również wolniejsze prędkości transmisji danych w porównaniu z sieciami naziemnymi. Na przykład badanie przeprowadzone w 2014 r. przez kanadyjski organ regulacyjny ds. telekomunikacji wykazało, że odległe społeczności korzystające z połączeń satelitarnych miały prędkość Internetu poniżej 5 Mb/s pobierania i 1 Mb/s wysyłania. Jednak ostatnie zmiany sugerują poprawę prędkości pobierania do 50 Mb/s. Ograniczona przepustowość to kolejne wyzwanie dla Internetu satelitarnego. Ponieważ pojemność segmentu kosmicznego jest często dzielona między wiele stacji naziemnych, przepustowość dostępna dla każdego użytkownika w danym momencie jest ograniczona. Aby rozwiązać ten problem, menedżerowie sieci stosują takie techniki, jak kształtowanie ruchu i ograniczenia danych, co może być frustrujące lub kosztowne dla użytkowników. Niektóre pasma częstotliwości również ulegają degradacji sygnału z powodu czynników atmosferycznych, takich jak pogoda. Wreszcie instalacja i eksploatacja systemów satelitarnych są drogie, szczególnie w odległych regionach, gdzie transport naziemny, infrastruktura elektryczna i wykwalifikowana siła robocza nie są łatwo dostępne. Internet satelitarny wymaga skomplikowanego planowania konfiguracji i obsługi. W rezultacie systemy satelitarne mogą kosztować setki razy więcej niż sieci światłowodowe. Chociaż ceny dla organizacji i indywidualnych użytkowników końcowych są różne, użytkownicy często płacą więcej za szybkość i pojemność. Istnieją dowody na to, że najnowsze innowacje techniczne mogą obniżyć te koszty

Zagadnienia dotyczące polityki i przepisów

Ponieważ satelitarne systemy internetowe wykorzystują zasoby publiczne (widmo) i wymagają dostępu do ograniczonej liczby licencjonowanych slotów orbitalnych, podlegają one regulacjom agencji międzynarodowych i krajowych. Ze względu na ich zdolność do wspierania bezpieczeństwa i suwerenności narodowej oraz łączenia obywateli z podstawowymi usługami publicznymi, krajowe systemy satelitarne również pozostają przedmiotem zainteresowania narodowego. Chociaż w ostatnich latach wiele rządów ograniczyło wymagania regulacyjne, firmy satelitarne nadal muszą przestrzegać szeregu zasad, w szczególności podanych ,rosnąca konkurencja i rosnące zapotrzebowanie na ograniczone widmo. Współpracując z rządami stanowymi, Międzynarodowy Związek Telekomunikacyjny (ITU) zarządza dystrybucją licencji na pozycje orbitalne i częstotliwości widma. Sektor Radiokomunikacji ITU zapewnia krajom licencje, które rządy stanowe przydzielają organizacjom. Licencje zawierają zasady regulujące pozycje orbitalne i przydzielane widmo, a także wytyczne dotyczące planów rozwoju i eksploatacji stacji ziemskich. Krajowe organy regulacyjne są również odpowiedzialne za ustalanie i monitorowanie stawek, warunków i warunków usług satelitarnych. Chociaż wiele z tych zasad ma charakter techniczny, rządy wykorzystują je również do realizacji określonych celów politycznych, takich jak świadczenie usług pożytku publicznego. Na przykład w Kanadzie operatorzy satelitarni muszą świadczyć usługi w regionach o niedostatecznym zasięgu, upewniając się, że ich zasięg geograficzny obejmuje cały kraj, w tym północ. W Meksyku operatorzy satelitarni muszą zarezerwować część przepustowości satelitarnej do bezpłatnego użytku przez państwo, do celów takich jak bezpieczeństwo narodowe. Jednak, jak zauważono wcześniej, w wielu krajach wymagania te zostały w ostatnich latach ograniczone. Ze względu na wysokie koszty kapitałowe związane z infrastrukturą, niewielką bazę klientów oraz złożony i czasochłonny proces licencjonowania rozwój i wdrożenie sieci satelitarnej jest ściśle powiązane z inwestycjami publicznymi. We wczesnych latach branży systemy satelitarne działały jako inicjatywy publiczne, ale z czasem zostały sprywatyzowane w większości krajów. Biorąc pod uwagę niskie zachęty ekonomiczne do zaangażowania sektora prywatnego w tym sektorze, w przeszłości rządy również zapewniały dotacje, aby zachęcić do budowy i bieżącej eksploatacji systemów satelitarnych. W krajach takich jak Kanada i Australia znaczna kwota środków publicznych została przeznaczona na wsparcie usług satelitarnych w społecznościach wiejskich i oddalonych. Jednak ostatnie wydarzenia wskazują na zwiększone inwestycje sektora prywatnego w Internet satelitarny, w tym przez firmy takie jak Google i Facebook.

Istniejące i przyszłe problemy

W ostatnich latach wiele znanych firm technologicznych ogłosiło plany rozwoju systemów satelitarnych, które połączą szacunkowo 4 miliardy ludzi, którzy inaczej nie mieliby dostępu do szerokopasmowego Internetu. Systemy satelitarne są również postrzegane jako sposób na rozwój wszechobecnej globalnej sieci, która umożliwia połączenia roamingowe i łączy rozwijający się Internet rzeczy. Od 2011 r. firmy, w tym Intelsat, OneWeb, SpaceX, Facebook i Google, ogłosiły plany rozwoju takich systemów, przy czym inwestorzy sięgają od Virgin po The Coca Cola Company. Jednak pomimo szeroko nagłośnionych planów branża nadal boryka się z wysokimi kosztami, problemami technicznymi i wyzwaniami regulacyjnymi. Wcześniejsze próby rozwoju globalnych satelitarnych systemów internetowych na początku XXI wieku doprowadziły do bankructwa kilku firm. Ponadto nie wszystkie rządy krajowe przyjęły te plany. Na przykład indyjski krajowy regulator telekomunikacyjny zablokował plany Facebooka dotyczące udostępnienia bezpłatnej aplikacji do obsługi Internetu, argumentując, że jest to sprzeczne z zasadami neutralności sieci. Przedsięwzięcia te napotykają również wyzwania techniczne. Na przykład w sierpniu 2016 r. nieudany test startowy SpaceX zniszczył satelitę o wartości około 200 mln USD, co wpłynęło na plany Facebooka dotyczące internetu satelitarnego w Afryce. Potencjał internetu satelitarnego wykorzystały również organizacje niekomercyjne. Na przykład w kilku krajach grupy tubylcze utworzyły satelitarne systemy internetowe, aby zaradzić przepaściom cyfrowym i wspierać inicjatywy samorządowe. Takie projekty obejmują Tanami Network w Australii, Southwest Virtual Alliance w Stanach Zjednoczonych i Northern Indigenous Community Satellite Network w Kanadzie. Jeden z partnerów Sieci Satelitarnej Społeczności Tubylczej Północnej, rząd regionalny Kativik, z siedzibą na terytorium Eskimosów w Nunavik, obsługuje regionalnego dostawcę Internetu satelitarnego o nazwie Tamaani Internet, który wspiera świadczenie usług publicznych i zapewnienia konsumenckiego Internetu rdzennej ludności tego terytorium. Również w Kanadzie, na rozległym północnym terytorium Nunavut, mieszkańcy, firmy i agencje rządowe polegają na satelitarnym Internecie, aby się ze sobą łączyć. wyłączone usługi łączności.

Pojawiające się osiągnięcia techniczne

Najnowsze innowacje techniczne mogą obniżyć koszty satelitarnych systemów internetowych, jednocześnie usuwając pewne ograniczenia technologii. Mniejsze, tańsze satelity LEO ze znacznie zmniejszonymi opóźnieniami w transmisji danych (ze względu na ich bliższe położenie względem powierzchni Ziemi) są obecnie powszechnie dostępne. Niektórzy twórcy systemów, tacy jak wspomniane wcześniej firmy, wyobrażają sobie sieciowe konstelacje setek, a nawet tysięcy tych małych satelitów. W niektórych przypadkach systemy te są łączone z sieciami satelitarnymi GEO lub innymi rozwiązaniami łączności, takimi jak lekkie drony zasilane energią słoneczną (Titan Aerospace lub Facebook′s Aquila) lub pływające balony na dużych wysokościach (Google Project Loon), aby zapewnić zintegrowaną, globalną łączność. Na przykład OneWeb i jego partnerzy wyobrażają sobie flotę 648 satelitów o niskiej orbicie połączonych w sieć kratową zdolną dotrzeć do każdego punktu na planecie. Podobne plany ogłosiły SpaceX, Google i ViaSat. Te ambitne plany podwoiłyby liczbę satelitów na orbicie, co wymagałoby złożonej koordynacji pozycjonowania orbitalnego i licencji na widmo. Satelity o dużej przepustowości (HTS) są postrzegane jako kolejny postęp techniczny, który ma pomóc w poprawie dostarczania Internetu przez satelitę, zwłaszcza w pasmach widma o wyższej częstotliwości. Systemy HTS są sprzedawane jako mające większą pojemność, większe prędkości i niższe koszty megabitów na sekundę w porównaniu ze starszą technologią, taką jak systemy pasma C. Jednak technologia HTS wiąże się z własnymi wyzwaniami, w tym koniecznością zapewnienia, że dostępna pojemność odpowiada szybkiemu wzrostowi popytu. Inne innowacje techniczne, które mogą przyczynić się do oszczędności kosztów i zwiększenia przepustowości Internetu satelitarnego, obejmują techniki zarządzania ruchem, takie jak łączenie przepustowości za pomocą wiązek punktowych, wykorzystywanie sygnałów optycznych zamiast częstotliwości radiowych do przesyłania danych, modernizacja wyposażenia stacji naziemnych oraz współdzielenie personelu i innych zasobów poprzez współpracę zarządzanie siecią.

Nowe aplikacje

Internet szerokopasmowy w roamingu w samolotach, statkach i innych poruszających się jednostkach pływających oraz obrazowanie Ziemi w wysokiej rozdzielczości są obecnie postrzegane jako główne czynniki napędzające wzrost zapotrzebowania na Internet satelitarny. Na przykład Royal Caribbean instaluje hotspoty internetowe na swoich statkach wycieczkowych, a kilka komercyjnych linii lotniczych zapewnia teraz Wi-Fi na trasie. Oczekuje się, że aplikacje roamingowe będą rosły wraz z pojawieniem się Internetu przedmiotów (np. producenci samochodów mogą instalować łączność satelitarną w pojazdach, aby zapewnić bezproblemowy zasięg, który jest obecnie niedostępny w sieciach naziemnych). Sieci satelitarne mogą również dostarczać obrazy śledzące o wysokiej rozdzielczości, aby umożliwić firmom monitorowanie ich aktywów w czasie zbliżonym do rzeczywistego podczas przemieszczania się w łańcuchu dostaw.

Pojawiające się kwestie dotyczące polityki i przepisów

Internet satelitarny wymaga dostępu do widma w środowisku o niskich zakłóceniach, a dostępne widmo staje się coraz rzadsze wraz ze wzrostem zapotrzebowania. Omówione tu propozycje wymagają wsparcia organów regulacyjnych, które muszą zapewnić dostępność widma i licencji dla planowanych operacji. Według ITU, chociaż możliwe jest, aby duża liczba satelitów LEO działała na nieco innych orbitach, potencjalne zakłócenia w nakładających się częstotliwościach radiowych między takimi systemami mogą stanowić wyzwanie.



Powrót

Inteligentne miasta



Nowy paradygmat inteligentnego miasta (inteligentne miasto jest terminem równoważnym) wyłonił się z badań akademickich i eksperymentalnych projektów miejskich w ciągu ostatnich kilku dekad. Seria publikacji i inicjatyw planistycznych pokazuje, w jaki sposób technologie internetowe mogą być wykorzystywane do wzmacniania pozycji obywateli i organizacji w opracowywaniu innowacyjnych i opartych na współpracy rozwiązań, które czynią miasta bardziej wydajnymi, zrównoważonymi i integracyjnymi. Paradygmat inteligentnego miasta stanowi punkt zwrotny w ewolucji rozwoju urbanistycznego i planowania miejskiego, zakłócenie tradycyjnych modeli planowania miasta wież o dużej gęstości i rozrostu przedmieść oraz nowszych modeli nowej urbanistyki i zwartego miasta, które zdominowały tworzenie miast w XX wieku. Nowa miejska rzeczywistość inteligentnego miasta wyłania się z sieci szerokopasmowych, aplikacji, danych z czujników i zaangażowania użytkowników, dzięki którym miasta stają się interaktywnymi, mierzalnymi, innowacyjnymi podmiotami reagującymi w czasie rzeczywistym. Obietnica inteligentnych miast polega na tym, że mogą one rozwiązywać złożone wyzwania miejskie oraz problemy wzrostu i zrównoważonego rozwoju, w których poprzednie modele zawiodły, oraz wdrażać bardziej wydajne wykorzystanie zasobów i bardziej inteligentne systemy podejmowania decyzji. Wyższa skuteczność i efektywność paradygmatu smart city wynika z interdyscyplinarnej i holistycznej perspektywy, której nadano formę poprzez zaangażowanie wielu dyscyplin inżynierii, nauk społecznych, zarządzania wiedzą i technologii informatycznych (IT). Dzięki temu zaangażowaniu miasto staje się partycypacyjnym, mierzalnym i przejrzystym systemem, a planowanie miasta - ilościową interdyscyplinarną nauką. Ten wpis analizuje koncepcję inteligentnych miast; jak pojmowane są przestrzenie cyfrowe w środowiskach miejskich; Innowacja oparta na Internecie; struktura, inteligencja i architektura inteligentneo miasta; oraz niektóre strategie napędzające ewolucję inteligentnych miast na całym świecie.

Pojęcie

Pojęcie smart city kształtowało się w literaturze na przestrzeni ponad 30 lat, od pierwszych prac na ten temat pod koniec lat 80. XX wieku do obecnej eksplozji publikacji poświęconych smart city. Wczesną fazę używania terminu i kształtowania się pojęcia można prześledzić do okresu 1985-1995, kiedy to zaczęto go systematycznie stosować w literaturze urbanistycznej, planistycznej, informatycznej i inżynierskiej po 2000 r. Pierwsza wzmianka o termin smart city pojawia się w latach 1988-1990 i był używany do uchwycenia innowacji w mobilności miejskiej podtrzymywanych przez IT, wykorzystania IT do świadczenia usług miejskich oraz lepszych wyników miast w zakresie środowiskowym, gospodarczym i społecznym cele. Wcześniej termin inteligentne miasto pojawiał się w kontekście literatury dotyczącej rozwoju miast opartych na innowacjach oraz japońskiego programu technopolis. Od końca 1980 r. do początku 1990 r. kilka zespołów badawczych nakreśliło, w jaki sposób wykorzystanie sieci informatycznych i internetowych może podtrzymać rozwój technologiczny i przewagę konkurencyjną miast. Następująca dekada (2000-2010) oznaczała akademickie i technologiczne ustanowienie paradygmatu inteligentnego miasta. Literatura tego okresu pokazuje, jak baza technologiczna (telekomunikacja, Internet, oprogramowanie, dane) wzbogacona o różne formy sieciowania i inteligencji społecznej może wytworzyć innowacyjną i efektywną funkcjonalność dla miast. Od wczesnych prac na temat inteligentnych / inteligentnych miast zaproponowano wiele definicji tego, czym jest inteligentne miasto, które pokazują różnorodność koncepcji inteligentnego miasta. Jednak analiza ontologii wielu formalnych definicji smart city i smart city ujawnia, że pojęcie to charakteryzują trzy bloki bytów: (1) miasto, obywatel, użytkownik, działania, infrastruktura i przepływy w miastach; (2) instytucje i procesy informacyjne, wiedzy, wywiadu i innowacji w miastach; oraz (3) inteligentne systemy, technologie miejskie, Internet, sieci szerokopasmowe i e-usługi miast. Przestrzeń pojęciowa stworzona przez definicje inteligentnego miasta wskazuje na zbieżność rozumienia inteligentnych miast jako podmiotów, które wdrażają i wykorzystują technologie internetowe i sieciowe, sieci społecznościowe i zaangażowanie użytkowników w celu poprawy swoich zdolności w zakresie innowacji i rozwiązywania problemów.

Cyfrowe Przestrzenie Miast

Cyfrowa przestrzeń miast, jako czynnik umożliwiający wyższe rozwiązywanie problemów i innowacyjne zachowania, jest konstrukcją złożoną. Został opisany jako system pierścieni nałożonych na siebie i połączonych ze sobą, z których każdy ma określone cechy i funkcjonalność. W centrum znajdują się sieci szerokopasmowe, przewodowe i bezprzewodowe, umożliwiające komunikację i łączność, sieci sensorowe oraz różnego rodzaju urządzenia dostępowe. Następnie istnieje krąg danych i technologii internetowych umożliwiających tworzenie danych, przetwarzanie danych, wizualizację i wgląd w dane. Trzeci pierścień składa się z aplikacji oprogramowania w wielu różnych dziedzinach miasta, od przedsiębiorczości po edukację, opiekę zdrowotną, transport, energię, bezpieczeństwo publiczne i inne. Aplikacje można podzielić na główne podsystemy miast: (a) gospodarka, (b) jakość życia, (c) infrastruktura miejska i media oraz (d) zarządzanie miastem. Pierścień zewnętrzny tworzą e-usługi; kilka aplikacji zostaje przyjętych na rynek i oferowanych regularnie jako e-usługi. Tworzenie cyfrowej przestrzeni miast przebiegało w procesie ewolucyjnym, dobrze opisanym przez Williama J. Mitchella w 2007 roku: Elementy inteligencji miejskiej pojawiły się w procesie powstawania technologii i integracji z większymi systemami, które rozpoczęły się od komutacji pakietów, Ethernetu, Internetu i sieci World Wide Web oraz przewodowych i bezprzewodowych kanałów komunikacji, a proces ten był kontynuowany wraz z miniaturyzacją komputerów, laptopami, telefonami komórkowymi, wbudowanymi mikroprocesorami, czujnikami cyfrowymi, znacznikami identyfikacji radiowej (RFID), GPS, wbudowanymi inteligentnymi obiektami i następnie przeszedł do oprogramowania na dużą skalę, aplikacji biznesowych i detalicznych, mediów społecznościowych i wreszcie do pojawienia się hierarchii kognitywnych. Kluczowymi przykładami obecnego stosu technologicznego cyfrowej przestrzeni miast są: (a) sieci bezprzewodowe 4G i 5G oraz sieci nowej generacji (VDSL2, FTTH) oraz interoperacyjność sieci umożliwiająca korzystanie z Internetu w każdym miejscu; (b) urządzenia mobilne umożliwiające powszechny dostęp do danych i sieci; (c) infrastruktura oparta na chmurze, platformy i oprogramowanie do przechowywania, integracji, przetwarzania i analizy danych; d) rzeczywiste interfejsy użytkownika, kody szybkiego reagowania w budynkach, RFID, sieci czujników siatkowych, liczniki o niskim zużyciu energii i urządzenia kontrolne; e) aplikacje internetowe i smartfony, urządzenia GPS, sterowanie głosowe i wizualizacja rzeczywistości rozszerzonej; oraz f) dane publiczne w sieci, otwarty dostęp do danych z czujników, dane powiązane oraz sieć semantyczna do komunikacji między urządzeniami mobilnymi.

Innowacja oparta na Internecie

Miasta zmieniają się z powodu sieci szerokopasmowych, aplikacji, e-usług i zbiorów danych. Zasoby te umożliwiają pojawienie się nowych form współpracy i innowacji. Na pierwszym miejscu, miejski system innowacji jest wzbogacany, jego węzły zyskują cyfrowych towarzyszy, a tworzenie sieci jest intensyfikowane lokalnie i rozszerzane globalnie. Innowacyjne mikrosieci na poziomie miasta spotykają się z globalnymi sieciami cyfrowymi, które umożliwia Internet. Tożsamości cyfrowe ułatwiają procesy innowacyjne; rynki i platformy crowdsourcingowe zapewniają dodatkowe możliwości, zmieniając biernych konsumentów w aktywnych producentów usług; podejmowanie decyzji w mieście staje się bardziej przejrzyste i inkluzywne. Wszystkie te zmiany oznaczają głęboką transformację, która wpływa na system innowacji miast. Wszystkie komponenty miejskiego systemu innowacji - badania, finansowanie, łańcuch dostaw, produkcja i dostęp do rynku - są wspomagane cyfrowo: brokerzy technologii online i laboratoria zanurzenia klienta ulepszają badania i rozwój dzięki technologiom i doświadczeniom użytkowników; finansowanie społecznościowe jest dodawane do głównego nurtu finansowania; globalni dostawcy dołączają do łańcuchów dostaw; rynki internetowe poszerzają rynki regionalne i krajowe. Większość z tych cyfrowych aktorów jest już dostępna, a odpowiednie aplikacje online dodają możliwości komunikacji, handlu, transakcji i świadczenia usług. Wydanie specjalne poświęcone cyfrowej rewolucji (Capgemini Consulting, 2015) oraz seria raportów na temat cyfrowej transformacji biznesu ( Networked Society Lab, 2015) podkreślają, w jaki sposób środowiska cyfrowe mają sens dla wszystkich firm, umożliwiając innowacje firmom i start-upom. Logika pchania rynku zmienia się w logikę napędzaną popytem wraz z rozwojem otwartych rynków, marketingu opartego na treści, marketingu w mediach społecznościowych i produkcji na żądanie. Wszystkie podkreślają priorytet nadany użytkownikom, konsumentom, a także przejście do ekonomii intencji i uwagi.

Struktura i inteligencja inteligentnych miast

Struktura inteligentnych miast jest zwykle opisywana jako wielowarstwowy gmach charakteryzujący się elastycznością, interoperacyjnością i skalowalnością elementów składowych. Toru Ishida (2005) opisuje strukturę miast cyfrowych za pomocą trzech warstw: (1) warstwy interakcji, z interakcjami społecznymi wspieranymi przez agentów między mieszkańcami i użytkownikami; (2) warstwa interfejsu z grafiką 2D i 3D oraz animacją agentów interfejsu w czasie rzeczywistym; oraz (3) warstwę informacyjną z archiwami internetowymi i cyfrowymi oraz danymi sensorycznymi w czasie rzeczywistym ze świata fizycznego. Paolo Gemma (2015) odnosi się do warstwy sensorycznej (np. Scada, czujniki, kamery, czytniki RFID), warstwa sieciowa (np. xDSL, FTTx, Wi-Fi), warstwa danych i wsparcia (cloud computing, miejska baza danych) oraz warstwa aplikacyjna (wiele dziedzin usług miejskich). System operacyjny inteligentnego miasta Living PlanIT składa się z czterech warstw: (1) wyzwań świata fizycznego, (2) ludzi i procesów, (3) aplikacji i obszarów rozwiązań oraz (4) platformy technologicznej. Strukturę inteligentnych miast można lepiej opisać przez połączenie trzech warstw i wielu komponentów w każdej warstwie. Podczas gdy trzy warstwy są zawsze obecne, ich składniki różnią się w zależności od dokonanych wyborów dotyczących technologii, informacji, oprogramowania i kontekstu świata fizycznego. Warstwa miejska obejmuje ludność miasta, działania wymagające wiedzy i infrastrukturę. Populacja miasta (pracownicy wiedzy i innowacyjne firmy) oraz jego klastry to podstawowe elementy, na których budowane są inteligentne miasta. Krytycznym czynnikiem w tej warstwie jest aglomeracja kapitału intelektualnego i inteligencji ludzkiej mieszkańców miasta. Warstwa informacji i wiedzy obejmuje instytucjonalne warunki przepływu wiedzy i współpracy w zakresie technologii i innowacji. Instytucje aktualizują i zarządzają przepływami wiedzy, współpracą w zakresie badań i innowacji oraz finansowaniem i alokacją zasobów; organizować sieci rozproszonej inteligencji; i wytwarzać zbiorową inteligencję. Krytycznymi czynnikami na tym poziomie są grubość instytucjonalna, kapitał społeczny do współpracy, zaufanie i rozprzestrzenianie się wiedzy w mieście. Warstwa inteligentnych środowisk to stos technologii obejmujący sieci szerokopasmowe, aplikacje i e-usługi, które usprawniają współpracę i funkcjonowanie miast w czasie rzeczywistym. Technologie te sprawiają, że ekosystemy innowacji w miastach są bardziej otwarte i partycypacyjne, a funkcjonowanie miast bardziej wydajne dzięki strumieniom danych, informacjom w czasie rzeczywistym i zautomatyzowanej kontroli. Czynnikami krytycznymi na tym poziomie są łącza szerokopasmowe komunikacyjne, technologie zarządzania danymi i treścią, przetwarzanie informacji, sieci cyfrowe oraz różne formy komunikacji i inteligencji między maszynami i maszynami. W każdej warstwie można znaleźć wiele komponentów. Na przykład w warstwie miasta można realizować wiele różnych działań, w połączeniu z wieloma różnymi przepływami wiedzy i wzorcami innowacji warstwy wiedzy oraz wieloma technologiami cyfrowymi, od Web 1.0 do komunikacji jednokierunkowej po interaktywne i partycypacyjne systemy zarządzania treścią Web 2.0 , social media i crowdsourcing oraz rozwiązania Internetu Rzeczy i sieci sensorowych. Ze względu na różnorodność komponentów w każdej warstwie, "Model Standardowy" inteligentnych miast z jego trzema warstwami przybiera różne formy, a każde inteligentne miasto jest unikalną konstrukcją w przestrzeni społecznej i fizycznej miasta.

Architektury inteligencji

Warstwy i komponenty w ramach każdej warstwy tworzą poziomy wymiar inteligentnych miast: różne elementy, z których są zbudowane. Wymiar pionowy jest tworzony przez sieci i łączniki między warstwami i komponentami. Sieci pionowe pojawiają się jako przepływy wiedzy i powiązania zdolności. Łączą w sobie możliwości ludzkie (np. umiejętności, kreatywność, wiedza), zdolności instytucjonalne (np. specjalizacja, koordynacja, skala uczenia się i innowacje) oraz możliwości cyfrowe (np. komunikacja, przechowywanie, przetwarzanie). Sieci rozproszonych możliwości między warstwami oferują zdolność rozwiązywania problemów inteligentnych miast, ich inteligencję lub inteligencję. Najprostszą formą takiej przestrzennej lub połączonej inteligencji jest inteligencja reprezentacyjna oferowana przez lustrzane miasta cyfrowe, których jedyną funkcją jest reprezentowanie miasta. Bardziej zaawansowane formy inteligencji to orkiestracja, wzmocnienie i inteligencja oprzyrządowania. Inteligencja orkiestracji opiera się na podziale pracy na dużą skalę i integracji zadań opartych na wiedzy, które są rozdzielane między populację, instytucje i infrastrukturę inteligentnego miasta. Każde zadanie może być proste, ale rozmiar współpracy określa złożoność całego procesu wiedzy. Ogólny wynik może być naprawdę imponujący. Inteligencja wzmacniająca opiera się na doskonaleniu ludzkich umiejętności i know-how realizowanym poprzez połączenie środków instytucjonalnych i cyfrowych. Jest to indywidualny proces uczenia się, ale praktykowany na masową skalę w całym mieście może przynieść wspaniałe rezultaty. Inteligencja oprzyrządowania dotyczy gromadzenia informacji z czujników, mediów społecznościowych i działań miejskich; przetwarzanie tych informacji; oraz dostarczanie informacji w czasie rzeczywistym, alertów, prognoz i, miejmy nadzieję, mądrzejszych decyzji. Inteligencja oprzyrządowania staje się możliwa dzięki najnowszym technologiom internetowym opartym na sieciach czujników i sieci semantycznej i pojawia się jako nowa forma inteligencji zbiorowej przechwytywanej przez urządzenia wbudowane w fizyczną przestrzeń miast. Wszystkie formy inteligencji przestrzennej opierają się na przetwarzaniu wiedzy, takim jak gromadzenie informacji, uczenie się, tworzenie nowej wiedzy i rozpowszechnianie informacji, które są rozmieszczone w heterogenicznych trzech warstwach inteligentnych miast.

Od struktury do innowacji

W literaturze panuje zgoda co do tego, że inteligentne miasta i konkretne zasoby, które mobilizują (sieci szerokopasmowe, czujniki, zbiory danych, oprogramowanie, e-usługi, zaangażowanie użytkowników, sieci globalne i lokalne) wprowadzają innowacje i optymalizują działanie miast. Inteligentne miasta dostarczają rozwiązań i innowacji tam, gdzie nowe warunki urbanizacji i dostępne zasoby sprawiają, że utarte modele stają się przestarzałe. Ulepszenia mają zwykle miejsce w trzech równoległych obwodach innowacji. Pierwszym obiegiem innowacji jest stworzenie cyfrowej przestrzeni miejskiej per se. Cyfrowy gmach - czyli cyfrowa powłoka miast - wyłania się albo z wielu nieskoordynowanych inicjatyw firm telekomunikacyjnych, programistów IT, producentów i użytkowników - z których każdy dodaje jakiś komponent cyfrowy, albo z odgórnego planowania i strategii. Lokalne rozwiązania współistnieją z globalnymi platformami i systemami dostosowanymi do lokalnych potrzeb. Cyfrowa przestrzenność miast powstaje jako dynamiczna aglomeracja heterogenicznych systemów i rozwiązań, w taki sam sposób, w jaki miasta powstały jako aglomeracje heterogenicznych praktyk, budynków i infrastruktury. Obieg innowacji 2 dotyczy doskonalenia systemu innowacji i podejmowania decyzji w mieście. W rzeczywistości w każdym mieście współistnieją różne ekosystemy innowacji, ponieważ każdy podsystem miejski (obszar przemysłowy, rynek, dzielnica finansowa, dzielnica technologiczna, porty i węzły lotnicze oraz sieci transportowe, energetyczne, wodne i kanalizacyjne) lub każdy sektor działalności gospodarczej może mieć własną ekologię organizacji, procesy decyzyjne i zarządzanie zmianą. Rozwiązania i aplikacje cyfrowe poprawiają zarządzanie innowacjami i sposób, w jaki miasta decydują o zmianach. Aplikacje takie jak "Improve-my-City", platformy crowdsourcingowe i rozwiązania City 2.0 to tylko kilka przykładów tego, jak technologia może przyczynić się do podejmowania decyzji i zaangażowania interesariuszy w zmiany miejskie. Obwód innowacji 3 rozpoczyna się od innego rodzaju aplikacji cyfrowych i inteligentnych systemów, które nie mają na celu zmiany sposobu podejmowania decyzji w mieście, ale optymalizację zachowań mieszkańców oraz sposobu korzystania z przestrzeni i infrastruktury miejskiej. Inteligentne systemy transportowe i mobilność miejska sterowana GPS, rozwiązania oparte na czujnikach i aplikacje mediów społecznościowych do znajdowania miejsc parkingowych w mieście, inteligentne pomiary energii na osiedlach mieszkaniowych, oparte na czujnikach oświetlenie uliczne i oparta na czujnikach zbiórka odpadów to przykłady rozwiązań, które doradzić, jak lepiej korzystać z miasta. Większość innowacji w obwodzie 3 dotyczy oszczędzania zasobów i dematerializacji, czyli przenoszenia praktyk z fizycznej do cyfrowej przestrzeni miast. W dłuższej perspektywie wywołują one zmianę zachowań po stronie obywateli lub konsumentów, szerząc kulturę zrównoważonego rozwoju i zarabiania więcej za mniej. Taka zmiana zachowań jest przejawem wyższej inteligencji miejskiej, wynikającej wprost z kultury i kapitału społecznego ludności.

Strategie dla inteligentnych miast

Początek XXI wieku upłynął pod znakiem nowych wyzwań związanych ze wzrostem, zrównoważonym rozwojem, nierównościami i bezpieczeństwem, co zwiększyło znaczenie badań, innowacji i skutecznego zarządzania dla ich rozwiązania. Wzrost i ubóstwo tworzą złożony związek, który zmienia się w zależności od położenia geograficznego i skali. Jeden rozmiar nie jest odpowiedni dla wszystkich, a wyzwania związane ze wzrostem nie są takie same w poszczególnych krajach i regionach. Niektóre kraje rozwijającego się świata, takie jak Chiny, Indie, Tajlandia i Wietnam, rozwijają się szybciej i zbliżają się do krajów rozwiniętych. W innych obszarach Ameryki Łacińskiej i Afryki Subsaharyjskiej wzrost zwolnił. Wzrost w krajach rozwiniętych jest powolny i wiąże się ze wzrostem produktywności, podczas gdy w krajach rozwijających się wzrost wiąże się z dywersyfikacją od produktów tradycyjnych do produktów o wyższej wartości. Wzrost krajowy nie jest jednakowo odzwierciedlony na poziomie regionalnym i lokalnym. Wszystkie miasta i regiony kraju nie podążają tą samą ścieżką rozwoju ani nie wykazują takich samych wskaźników wzrostu. Zrównoważony rozwój wiąże się z innym ogniwem wyzwania obejmującego szeroki zakres obszarów tematycznych, w tym ochronę siedlisk przyrodniczych i ekosystemów, zrównoważone użytkowanie gruntów, zarządzanie ekosystemami mórz i oceanów, jakość powietrza, emisje CO2, przystosowanie się do klimatu, oszczędność energii i przejście na energię odnawialną, warunki sanitarne, gospodarka wodna i jej ponowne wykorzystanie, recykling materiałów i rozwój gospodarki o obiegu zamkniętym. W miarę postępującej urbanizacji świata wyzwania związane ze zrównoważonym rozwojem będą coraz bardziej koncentrować się w miastach, zwłaszcza w miastach, w których urbanizacja postępuje bardzo szybko. Miasta stoją również w obliczu szeregu wyzwań związanych z bezpieczeństwem związanych z zagrożeniami spowodowanymi przez człowieka i naturalnymi, takimi jak przestępczość, terroryzm, ataki na infrastrukturę i wandalizm, klęski żywiołowe, wypadki miejskie i inne rodzaje sytuacji kryzysowych. Inteligentne miasta próbują sprostać tym złożonym wyzwaniom związanym ze wzrostem, zrównoważonym rozwojem i bezpieczeństwem oraz zapewnić lepsze warunki życia i lepsze codzienne życie ludzi. Oferują setki rozwiązań, które umożliwiają społecznościom poprawę gospodarki, infrastruktury i mediów oraz środowiska. Robią to na bardzo różne sposoby, ale we wszystkich przypadkach ulepszenia pojawiają się dzięki trzem obwodom innowacji - i ich architekturze inteligencji - opisanym wcześniej w tym wpisie. Inteligentne miasta oferują nowe technologie i zasoby informacyjne, poprawiają zarządzanie i wydajność operacyjną w sektorze publicznym i prywatnym oraz wywołują zmiany w zachowaniu obywateli, oferując lepsze rozwiązania działające w czasie rzeczywistym. Tan Yigitcanlar (2016) przedstawia 10 studiów przypadków miast w Azji, Europie, na Bliskim Wschodzie, w Stanach Zjednoczonych i Oceanii, które wdrożyły strategie smart city oraz przyjęte rozwiązania.

1. Songdo, Korea: część krajowego programu rozwoju gospodarczego, sieci szerokopasmowe i rozwiązania oparte na czujnikach dla inteligentnego życia, poligon testowy dla RFID oraz badania i rozwój (badania i rozwój) w zakresie inteligentnych technologii
2. Tianjin, Chiny: Technologie informacyjne i komunikacyjne (ICT) dla eko-miasta; inteligentne systemy zarządzania budynkami; i technologii wykrywania
3. Amsterdam, Holandia: ICT dla lepszego środowiska miejskiego i redukcji emisji CO2; ICT na rzecz zaangażowania użytkowników; projekty inteligentnych miast na rzecz mobilności, życia, pracy, przestrzeni publicznej i otwartych danych; podejście modernizacyjne
4. Barcelona, Hiszpania: Area 22@Barcelona jako dzielnica innowacji; Rozwiązania Sant Cugat oparte na czujnikach do parkowania, unikania korków, wywozu śmieci, monitorowania środowiska i oświetlenia ulicznego; inteligentne budynki, inteligentna sieć i inteligentne opomiarowanie
5. Mazdar, Abu-Dhabi: utworzenie globalnego klastra czystych technologii, zelektryfikowanego transportu zbiorowego oraz systemów oszczędzania energii i pomiarów
6. Stambuł, Turcja: ICT dla transportu i sygnalizacji dynamicznych skrzyżowań, analiza danych o ruchu i monitorowanie trzęsień ziemi, alarm w czasie rzeczywistym i bezpieczeństwo w przypadku zdarzenia
7. Rio de Janeiro, Brazylia: Inteligentne Centrum Operacyjne IBM z kilkunastoma systemami sterowania elektrycznością, wodą, gazem, transportem i ruchem ulicznym; bezpieczeństwo i reagowanie w sytuacjach kryzysowych oraz kontrola przestępczości; dane z kamer; analityka; i inteligentne liczniki do oszczędzania energii
8. San Francisco, Stany Zjednoczone: ICT na rzecz zrównoważonego rozwoju, zerowej ilości odpadów, recyklingu i redukcji CO2; aplikacje, takie jak mapa energetyczna, wyzwanie związane z wykorzystaniem energii, uczciwe budynki; Otwórz dane; i żywe laboratoria
9. Auckland, Nowa Zelandia: ICT na rzecz innowacji w energetyce, transporcie, gospodarowaniu odpadami, budynkach, produkcji żywności i rolnictwie; cyfrowe uczenie się i rozwój umiejętności; rozwój przedsiębiorczości; firmy zorientowane na innowacje
10. Brisbane, Australia: ICT na rzecz wzrostu, rozwoju opartego na wiedzy i obszarów wiedzy; Korytarz wiedzy Brisbane; ICT na rzecz zrównoważonego rozwoju i oszczędności energii; zamknięty obwód kamery telewizyjnej do wywiadu drogowego i sygnalizacji drogowej; Wi-Fi w parkach i bibliotekach

Przypadki te podkreślają różnorodność strategii rozwoju inteligentnych miast i wyjątkowość każdego przypadku. Różnorodność jest również wysoka, ponieważ strategie różnią się pod względem celu (skoncentrowane na sektorze, skupione na dzielnicy, infrastruktura), procesu (oddolne, odgórne, mieszane) i obszaru zasięgu (krajowy, regionalny, obejmujący całe miasto, sąsiedztwo lub dzielnica) . Ale pod pozornym chaosem kryje się pewien porządek. Po pierwsze, istnieje troska o pewne wyzwania i problemy. Wzrost jest w wielu przypadkach priorytetem, w połączeniu z tworzeniem okręgów wiedzy i innowacji, klastrów i cyfrowych środowisk biznesowych dla wzrostu. Istnieje bardzo silna troska o zrównoważony rozwój, efektywność infrastruktury miejskiej, oszczędność energii, wykorzystanie energii odnawialnej, oszczędność wody, gospodarkę odpadami i ekologiczny transport. Istnieje również troska o lepsze życie, e-zdrowie, opiekę społeczną oraz bezpieczeństwo i ochronę przed klęskami żywiołowymi. Po drugie, istnieje zbieżność logiki interwencji leżącej u podstaw strategii. Oprócz różnorodności, wszystkie strategie identyfikują i rozwiązują problemy za pomocą procesów, które łączą aplikacje, funkcje wiedzy oraz innowacje zorientowane na użytkownika lub oparte na danych. Nie ma znaczenia, czy poziomem wdrożenia jest całe miasto, klaster miejski, sieć czy sektor działalności. Strategie pobudzają innowacje poprzez (a) wzbogacanie systemu miejskiego o inteligentne środowiska, czujniki i aplikacje do przetwarzania informacji oraz ostrzeganie i reagowanie w czasie rzeczywistym oraz (b) umożliwianie innowacji napędzanych przez użytkowników, angażujących obywateli, klientów i użytkowników oraz otwieranie ekosystemów innowacji do współpracy z dostawcami, badaczami i innowatorami z miasta i spoza niego.

Od strategii do zastosowań

Każda strategia inteligentnego miasta obejmuje aplikacje i rozwiązania informatyczne jako niezbędne komponenty i środki realizacji. Ale strategie różnią się od aplikacji inteligentnego miasta w ich holistycznej perspektywie. Oprogramowanie jest kluczowym elementem integracji danych i przekształcania informacji w wiedzę i innowacje. Aby zrozumieć kontinuum od strategii do oprogramowania, Nicos Komninos i współpracownicy opracowali trzy mapy drogowe i siedem kroków, które obejmują cały proces inteligentnego planowania miast. Wraz z rozwojem paradygmatu smart city udostępnianych jest coraz więcej aplikacji, a władze miast stają się świadome oprogramowania, które można wykorzystać w odpowiedzi na wyzwania i potrzeby. Wielkoskalowe repozytoria oprogramowania, takie jak GitHub, SourceForge i Bitbucket, są ważnymi źródłami oprogramowania dla miast i filarami rozpowszechniania paradygmatu inteligentnych miast. To samo dotyczy mniejszych i dedykowanych repozytoriów rozwiązań smart city, takich jak Code for America, Best Apps for Barcelona czy aplikacji tworzonych w ramach hackathonów i konkursów. Licencje open source, modułowe architektury oprogramowania i rozwiązania oparte na chmurze mogą ułatwić wdrażanie inteligentnych miast. Współdzielenie i powtarzalność rozwiązań to wskaźniki dojrzałości rozwoju inteligentnych miast, w szczególności wdrażanie powtarzalnych standardowych procesów, przyjęcie architektury zorientowanej na usługi oraz wykorzystanie otwartych platform w różnych działach administracyjnych miast.

Ocena wpływu

Monitorowanie i ocena są zwykle ostatnim elementem i końcowym etapem planu działania inteligentnego miasta. Kluczowym działaniem jest uchwycenie niematerialnego wpływu inteligentnych miast, ukrytego w logach i rejestrach administracyjnych. Pomiar i ocena funkcjonowania inteligentnego miasta polega na wykorzystaniu kluczowych wskaźników efektywności, tworzeniu tablic wyników, gromadzeniu danych, wykorzystywaniu analitycznych i identyfikujących czynniki, które kształtują wyniki miast. Aby uchwycić wpływ inteligentnych miast, stosuje się różne metodologie pomiarowe. Różnią się one pod względem perspektywy i zmiennych, które są mierzone i oceniane. Pomiar ukierunkowany na politykę wykorzystuje wskaźniki, które odzwierciedlają wysiłek związany z polityką i planowaniem; pomiar skoncentrowany na mieście opiera się na charakterystyce i wynikach miast; pomiar skoncentrowany na infrastrukturze opiera się na danych z czujników i może uchwycić wzorce użytkowania miejskich mediów. Dobra metodologia oceny powinna zawierać jasne określenie celów, zdefiniować wskaźniki, które uwzględniają cały proces inteligencji miejskiej oraz łączyć podejście ukierunkowane na politykę i na miasto. Komninos i współpracownicy proponują wykorzystanie kluczowych wskaźników wydajności z elementów budulcowych inteligentnych miast: wiedzy, umiejętności, funkcji ekosystemu innowacji i przestrzeni cyfrowych dla warunku bazowego; mierzenie wysiłków poprzez inwestycje i wykorzystanie łączy szerokopasmowych, ICT i e-usług; oraz dokumentowanie wyników w typowych podsystemach miast, takich jak gospodarka miejska, jakość życia, infrastruktura i administracja, przy użyciu powszechnie akceptowanych wskaźników (np. ISO 37120:2014). W obecnej dyskusji na temat inteligencji, superinteligencji lub małej sztucznej inteligencji pokonującej ludzkie kompetencje w określonych dziedzinach, inteligentne miasta pokazują alternatywną trajektorię: drogę w kierunku koordynacji i integracji. Malują obraz tego, jak ludzka inteligencja i inteligencja instytucjonalna oparta na regułach mogą zostać wzmocnione przez inteligencję maszynową i technologie internetowe. Jest to obiecująca trajektoria, nie tylko dla przyszłości miast, ale także dla przyszłości ludzkości.



Powrót

Inteligentne systemy energetyczne



Inteligentny system energetyczny to architektura systemu energetycznego, która umożliwia dostarczanie energii w 100% ze źródeł odnawialnych, bez zużywania niezrównoważonego poziomu bioenergii. Głównymi źródłami energii w inteligentnym systemie energetycznym są bioenergia i nieciągłe odnawialne źródła energii, takie jak energia wiatru, słońca, fal i pływów. Wdrażając inteligentny system energetyczny, należy przezwyciężyć szereg kluczowych problemów technicznych, przede wszystkim, jak uniknąć nadmiernej zależności od bioenergii i jak dostosować się do wahań energii odnawialnej o charakterze nieciągłym. Aby pokonać te przeszkody, kluczową zasadą stojącą za inteligentnym systemem energetycznym jest integracja różnych sektorów energii (elektryczność, ciepłownictwo, chłodzenie, przemysł i transport), tak aby odnawialne źródła energii o nieregularnej charakterystyce mogły być dostosowane do nowych źródeł elastyczności, takich jak energia cieplna magazynowanie, magazynowanie gazu i magazynowanie paliw płynnych.

Dzisiejszy system energetyczny

Istniejący system energetyczny wyewoluował ze stosunkowo prostej struktury (rysunek 1). Energia elektryczna, ciepłownictwo i transport zostały zorganizowane jako odrębne części systemu energetycznego, zarówno z technicznego, jak i instytucjonalnego punktu widzenia. Ponadto konstrukcja dzisiejszego systemu energetycznego ewoluowała w oparciu o właściwości paliw kopalnych. Co najważniejsze, paliwa kopalne umożliwiają magazynowanie dużych ilości energii w postaci płynnej, gazowej i stałej. Korzystając z tego dużego "zlewu" zmagazynowanej energii, konsumenci oczekują, że energia będzie dostępna w sieci. Na przykład, gdy konsument włącza światło w swoim domu, oczekuje natychmiastowego dostarczenia energii elektrycznej. Jest to możliwe dzisiaj, ponieważ po włączeniu światła elektrownia może zwiększyć produkcję energii elektrycznej, zużywając więcej paliwa. W tym przykładzie elektrownia jest "technologią konwersji". przekształca energię zmagazynowaną w paliwie w produkt pożądany przez konsumenta. Ze względu na ten historyczny rozwój system energetyczny został zaprojektowany z dużą elastycznością po stronie podaży (tj. paliw kopalnych) i bardzo małą elastycznością po stronie popytu (tj. konsumenta). Może to trwać tak długo, jak dostępna jest wystarczająca ilość paliwa, aw pobliżu znajduje się odpowiedni magazyn paliwa, taki jak magazyn węgla dla elektrowni, źródło gazu ziemnego dla kotła lub zbiornik oleju napędowego w samochodzie. Jednak paliwa kopalne są zasobem ograniczonym iw pewnym momencie albo się wyczerpią, albo staną się zbyt drogie, aby je wydobyć. W związku z tym trzeba będzie je zastąpić odnawialnymi i/lub tańszymi alternatywami, takimi jak nieciągłe źródła energii.

Przyszły system energetyczny

Dostępne są dwa kluczowe zasoby umożliwiające przekształcenie krajowego systemu energetycznego w 100% w energię odnawialną: (1) bioenergia i (2) nieciągłe źródło energii. Bioenergia jest doskonałym zamiennikiem paliw kopalnych, ponieważ ma bardzo podobne właściwości fizyczne i chemiczne. Na przykład biomasa może być wykorzystywana w zastosowaniach, w których obecnie wykorzystuje się węgiel, biogaz może zastąpić gaz ziemny, a biopaliwo może zastąpić ropę naftową. Istniejące badania wskazują jednak, że nie ma wystarczających poziomów dostępnej bioenergii, aby zastąpić całe istniejące zapotrzebowanie na paliwa kopalne. Bioenergia konkuruje o grunty, które są potrzebne do wielu innych celów, zwłaszcza biorąc pod uwagę pośrednią zmianę użytkowania gruntów spowodowaną biopaliwami, więc zastąpienie paliw kopalnych bioenergią również spowoduje niezrównoważone rozwiązanie. Dlatego David Connolly i Brad Vad Mathiesen szacują, że w inteligentnym systemie energetycznym około połowa lub więcej końcowego zaopatrzenia w energię będzie pochodzić z nieciągłych źródeł odnawialnych. Gwarantuje to, że 100% energii odnawialnej jest technicznie możliwe, ekonomicznie przystępne i zrównoważone. Te nieciągłe zasoby odnawialne zmieniają sposób działania istniejących systemów energetycznych. W przeciwieństwie do technologii opartych na paliwach kopalnych, nie można "wezwać" zasobów o charakterze przerywanym, gdy konsument potrzebuje energii. Kiedy paliwa kopalne są zastępowane zasobami, takimi jak energia wiatrowa i słoneczna, duża ilość magazynowanej energii jest usuwana ze strony podaży systemu. Dostosowanie się do tego zmniejszenia magazynowania energii (lub elastyczności) jest kluczowym wyzwaniem technologicznym, przed którym stoją systemy energetyczne, które w przyszłości przestawią się w 100% na energię odnawialną. Kluczowym wyzwaniem jest to, czy przyszły system energetyczny, który będzie obejmował dużą penetrację przerywanej energii odnawialnej, może działać bez elastyczności, jaką zapewniają obecnie duże ilości energii zmagazynowanej w paliwach kopalnych, jednocześnie zapewniając przystępną cenowo energię i wykorzystując zrównoważony poziom dostępne zasoby.

Inteligentny system energetyczny

Koncepcja inteligentnego systemu energetycznego to architektura systemu energetycznego, która może zapewnić 100% energii odnawialnej w solidny technicznie, niedrogi i zrównoważony sposób. Składa się z nowych technologii oraz infrastruktury, które tworzą nowe formy elastyczności, przede wszystkim na etapie "konwersji" systemu energetycznego (rysunek 2). Osiąga się to poprzez przejście od prostego podejścia liniowego w dzisiejszych systemach energetycznych (tj. od paliwa do konwersji do końcowego wykorzystania) do podejścia bardziej połączonego. W najszerszym znaczeniu oznacza to połączenie sektorów energii elektrycznej, ogrzewania, chłodzenia, przemysłu i transportu w systemie energetycznym, tak aby elastyczność w tych różnych obszarach mogła zrekompensować brak elastyczności wynikający z nieciągłego źródła energii, takiego jak wiatr czy energia słoneczna. moc. Inteligentny system energetyczny składa się z następujących elementów.

•  Inteligentne sieci elektroenergetyczne to infrastruktury elektroenergetyczne, które mogą w inteligentny sposób integrować działania wszystkich podłączonych do nich użytkowników (tj. wytwórców, konsumentów i tych, którzy robią jedno i drugie), aby skutecznie dostarczać zrównoważone, ekonomiczne i bezpieczne dostawy energii elektrycznej. Są one podobne do koncepcji inteligentnych sieci, ale obejmują technologie wykraczające poza tradycyjny sektor elektroenergetyczny.
•  Inteligentne sieci ciepłownicze to sieć rur łączących budynki w dzielnicy, centrum miasta lub całym mieście, dzięki czemu mogą one być obsługiwane ze scentralizowanych instalacji, jak również z wielu rozproszonych jednostek produkcyjnych ogrzewania lub chłodzenia, w tym indywidualnego wkładu z połączone budynki. Dzisiejsza technologia jest zwykle określana jako sieć ciepłownicza lub chłodnictwo sieciowe, ale w przyszłości technologie te będą musiały ewoluować, aby dostosować się do zmian w innych sektorach. Na przykład nadwyżka energii wiatrowej w Danii jest już tak duża, że wykorzystuje się magazynowanie energii cieplnej w sieci ciepłowniczej, aby ją pomieścić.
•  Inteligentne sieci gazowe to infrastruktury gazowe, które mogą w inteligentny sposób integrować działania wszystkich podłączonych do nich użytkowników (tj. dostaw, konsumentów i tych, którzy wykonują obie te czynności), aby skutecznie dostarczać zrównoważone, ekonomiczne i bezpieczne dostawy i magazynowanie gazu. Na przykład inteligentne sieci gazowe mogą wykorzystywać procesy takie jak "przetwarzanie energii na gaz", aby energia wiatrowa mogła zastąpić gaz ziemny w pojazdach napędzanych gazem. Inteligentne sieci gazowe będą również musiały uwzględniać nowe rodzaje gazów, takie jak biogaz, gaz ze zgazowania biomasy i gaz syntezowy. Gazy te można dalej rafinować w celu wytworzenia paliwa syntetycznego, takiego jak metanol lub eter dimetylowy.

W oparciu o te podstawowe infrastruktury inteligentny system energetyczny definiuje się jako podejście, w którym inteligentne sieci elektroenergetyczne, cieplne i gazowe są łączone i koordynowane w celu określenia synergii między nimi w celu osiągnięcia optymalnego rozwiązania dla każdego sektora, jak również dla ogólny system energetyczny.

Kluczowe technologie

Istnieje szereg kluczowych technologii wymaganych do opracowania koncepcji inteligentnego systemu energetycznego, które przedstawiono w tabeli 1. Oczywiste jest, że integracja sektorów energii elektrycznej i ciepłownictwa może zostać przeprowadzona już dziś, ponieważ wszystkie wymagane kluczowe technologie są już dostępne . Możliwe jest rozpoczęcie integracji sektorów energii elektrycznej i mobilności z pojazdami elektrycznymi, ale konieczny jest dalszy rozwój technologii akumulatorów, aby obniżyć cenę i zwiększyć zasięg samochodu elektrycznego. W związku z tym integrację energii elektrycznej i cieplnej można postrzegać jako cel krótkoterminowy w ciągu najbliższych 5 do 10 lat, podczas gdy sektory energii elektrycznej i mobilności to cel średnioterminowy w ciągu najbliższych 10 do 20 lat. Aby zintegrować sektory energii elektrycznej i paliw, konieczne będzie opracowanie szeregu nowych technologii, z których wiele znajduje się dopiero w fazie demonstracyjnej, takich jak gazyfikacja biomasy i elektrolizery. Jest to więc cel długoterminowy, który można osiągnąć w ciągu najbliższych 20-40 lat. Dla wszystkich sektorów niezbędne jest również opracowanie odpowiedniego oprogramowania i technologii komunikacyjnej w celu uzupełnienia nowych technologii, które zostaną zainstalowane. Zrównoważenie przerywanej produkcji energii wiatrowej, słonecznej, fal i pływów w inteligentnych sieciach elektroenergetycznych, cieplnych i gazowych będzie wymagało dużej krótko- i długoterminowej komunikacji między różnymi sektorami, aby operatorzy systemów mogli zarządzać podażą i popytem w ekonomiczny i efektywny sposób. Internet i inna komunikacja informatyczna już pokazują te korzyści w duńskim systemie energetycznym, łącząc inteligentną sieć elektryczną z inteligentnymi sieciami cieplnymi. Przykładem jest ciepłownia w północnej Danii (Skagen): 16 maja 2010 r. "cena natychmiastowa" energii elektrycznej w Danii znacznie spadła i przez kilka godzin można ją nawet kupić za darmo. Ta wyjątkowo niska cena energii elektrycznej wynika głównie z bardzo dużej produkcji energii wiatrowej w tych godzinach. Operator inteligentnej sieci elektroenergetycznej przesyła te informacje do ciepłowni przez Internet, dzięki czemu inteligentna sieć ciepłownicza może odpowiednio zareagować: Ze względu na bardzo niskie ceny energii elektrycznej, ciepłownia włącza swój kocioł elektryczny. Jednak konsumenci nie potrzebują ciepła, gdy ceny energii elektrycznej są niskie, więc zamiast tego ciepło wytwarzane przez kocioł elektryczny jest magazynowane w magazynie ciepła. W związku z tym, dzięki sprawnej komunikacji pomiędzy inteligentną siecią elektroenergetyczną a inteligentną siecią cieplną, nadwyżki energii wiatrowej magazynowane są w termalnym magazynie energii, z którego konsumenci korzystają następnego dnia (17.05.2010). Podsumowując, technologia jest istotną częścią inteligentnego systemu energetycznego, ale komunikacja między tymi technologiami ma również fundamentalne znaczenie dla jego sukcesu.



Powrót

Inteligentne sieci



Systemy elektryczne mają kluczowe znaczenie dla działania Internetu. Od dużych, scentralizowanych elektrowni węglowych po panele słoneczne na dachach, sieci przesyłowe i dystrybucyjne, które kierują elektrony do centrów danych i komputerów, infrastruktura elektryczna jest niezbędna do zasilania naszego codziennego życia i, co ważne, Internetu. Potocznie i technicznie całość systemu elektroenergetycznego nazywamy "siecią". Od połowy lat 80. inżynierowie, ekonomiści i decydenci polityczni prowadzą działania mające na celu "modernizację" infrastruktury elektroenergetycznej poprzez dodanie skomputeryzowanych kontroli, sieci czujników oraz cyfrowe technologie informacyjno-komunikacyjne (ICT). Te "inteligentne sieci" są wynikiem modernizacji infrastruktury elektroenergetycznej za pomocą tych technologii lub tworzenia nowych sieci za pomocą inteligentnych technologii i cyfrowych technologii informacyjno-komunikacyjnych zintegrowanych z systemem. W miarę pojawiania się inteligentnych sieci na całym świecie pojawia się mnóstwo informacji o zużyciu, produkcji i dystrybucji energii, oferując nowe sposoby zarządzania podażą i popytem na energię elektryczną, nowe modele biznesowe, praktyki społeczne i nowe rozumienie sieci elektroenergetycznych. Inteligentna sieć jest zatem systemem socjotechnicznym, który zarówno kształtuje, jak i jest kształtowany przez społeczeństwo, gospodarkę i praktyki życia codziennego. Daleka jest przyszłość inteligentnych sieci i może się ona rozwijać w różny sposób w różnych kontekstach krajowych. Inteligentne sieci są otwarte na nowe konfiguracje - społeczne, polityczne, gospodarcze - oferując obiecującą okazję do innowacji, ale są również pozycjonowane jako rosnące polityczne pole bitwy o własność, kontrolę i podejmowanie decyzji dotyczących przyszłości systemu elektroenergetycznego. Ten wpis zawiera przegląd inteligentnych systemów elektroenergetycznych ze szczególnym uwzględnieniem polityki, technologii i implikacji społecznych. W następnej sekcji przedstawiono główne elementy inteligentnej sieci wraz z niektórymi jej możliwościami. Następnie omówiono krótką historię sieci elektrycznej, aby przedstawić ideę, że inteligentne systemy energetyczne są z natury systemami socjotechnicznymi. Omawia niektóre z głównych polityk i zmian technologicznych w USA, aby pokazać, w jaki sposób inteligentna sieć jest wynikiem dłuższej historii współewoluujących zmian technicznych, społecznych i politycznych. Następnie omówiono krótki przegląd niektórych środowiskowych, społecznych i ekonomicznych możliwości - integracji energii odnawialnej, odporności sieci - oraz wyzwań stojących przed inteligentnymi sieciami - przede wszystkim bezpieczeństwa cybernetycznego, interoperacyjności i standaryzacji. Na koniec przegląd podsumowuje niektóre potencjalne przyszłe ścieżki rozwoju inteligentnych sieci i ich implikacje społeczne.

Podstawy inteligentnych sieci

Dzisiejsza sieć elektryczna w USA składa się z ponad 9200 jednostek generujących energię elektryczną, zdolnych do wytworzenia ponad 1 miliona megawatów (moc wytwórcza), które są podłączone do linii przesyłowych, które przenoszą elektrony na odległość ponad 300 000 mil w całym kraju. Inteligentna sieć jest pozycjonowana jako sposób na wprowadzenie tej starej sieci elektrycznej w nowoczesną erę, zbudowaną w celu obsługi rozwoju cyfrowych technologii informacyjno-komunikacyjnych, smartfonów, komputerów i Internetu przedmiotów, które zależą od stałego i spójnego przepływu energii elektrycznej. Chociaż cele różnią się w zależności od kontekstu krajowego, wspólnym celem inteligentnych sieci jest automatyzacja i zarządzanie rosnącym zapotrzebowaniem na energię elektryczną wraz z jego rosnącą złożonością ze względu nie tylko na zmienność zapotrzebowania, ale także na większe włączenie odnawialnych źródeł energii, które są nieciągłe i zmienne. Prosta definicja inteligentnej sieci to system elektroenergetyczny, który umożliwia dwukierunkową komunikację między przedsiębiorstwami użyteczności publicznej a konsumentami, stwarza możliwości wykrywania wzdłuż sieci przesyłowych i dystrybucyjnych oraz umożliwia znaczną automatyzację operacji związanych z energią elektryczną. Często inteligentną sieć porównuje się do samego Internetu, "internetu energetycznego", który dzięki technologiom cyfrowym zaspokaja rosnące wymagania i preferencje stawiane sieci. Sieć jest złożonym systemem, który łączy instalacje wytwórcze, sieci przesyłowe i dystrybucyjne, transformatory i podstacje oraz różne zastosowania końcowe. Ogólnie rzecz biorąc, sieć odnosi się do systemów przesyłowych i dystrybucyjnych, podczas gdy system elektroenergetyczny obejmuje wszystko, od wytwarzania do końcowego wykorzystania. W tym przeglądzie terminy te będą używane zamiennie do omówienia całego systemu elektroenergetycznego. Urządzenia wytwórcze przekształcają energię chemiczną lub potencjalną w energię mechaniczną w celu wytworzenia energii elektrycznej za pośrednictwem generatora elektrycznego. Uzyskana w ten sposób energia elektryczna (zwykle w postaci prądu przemiennego [AC], ale także prądu stałego [DC] z paneli słonecznych i turbin wiatrowych) jest przenoszona pod wysokim napięciem przez system przesyłowy do centrów obciążenia, gdzie system dystrybucyjny dostarcza energię elektryczną o niższym napięciu do domów i firm, w których energia elektryczna jest ostatecznie zużywana w różnych zastosowaniach. Kiedy zmienia się jedna część systemu, reszta systemu również musi się dostosowywać i zmieniać, i to szybko, ponieważ operatorzy sieci muszą w każdej chwili równoważyć podaż i popyt, aby zapewnić optymalne i bezpieczne napięcie, częstotliwość i prąd poziomy. Technologie inteligentnych sieci obejmują wytwarzanie, przesyłanie, dystrybucję i zastosowania końcowe. W obecnym systemie wytwarzanie jest scentralizowane w dużych elektrowniach wytwarzających prąd przemienny, przesył przesyła energię elektryczną wysokiego napięcia z elektrowni do podstacji znajdujących się bliżej konsumentów, dystrybucja przesyła energię elektryczną niskiego napięcia z podstacji do gospodarstw domowych i innych budynków, a na koniec zastosowania są tak różnorodne, jak urządzenia i urządzenia konsumenckie, pompy i światła do zastosowań przemysłowych. W tym "przestarzałym" modelu systemów energia elektryczna przepływa w jednym kierunku, spływając do obszarów o niższym napięciu, tak jak woda spływa po zboczu, od wytwarzania do zużycia. W inteligentnej sieci wszystkie elementy tego dotychczasowego systemu są w jakiś sposób zmieniane lub przekształcane. Inteligentna sieć wiąże się z wykorzystaniem technologii cyfrowych, czujników, siłowników i innych technologii informacyjno-komunikacyjnych, które są zintegrowane z istniejącą siecią elektryczną, modernizując ją w celu umożliwienia różnych nowych zdolności. Po stronie wytwarzania falowniki sieciowe umożliwiają integrację odnawialnych źródeł energii, takich jak fotowoltaika, które wytwarzają prąd stały. Technologie systemów przesyłowych obejmują synchrofazory wykorzystywane do zbierania danych o funkcjach sieci; Oprogramowanie do analizy transmisji mocy do badania, modelowania lub sterowania systemami transmisji; oraz inteligentne falowniki i prostowniki do konwersji między prądem przemiennym a stałym. Po stronie dystrybucji technologie obejmują technologie automatyzacji podstacji, zastosowanie nowych przekaźników i wyłączników do bezpośredniego przepływu energii elektrycznej, systemów lokalizatora uszkodzeń, zaawansowanej infrastruktury pomiarowej i oprogramowania oraz automatyki dystrybucyjnej i oprogramowania umożliwiającego szybszą identyfikację przerw lub nieefektywności systemu. Jeśli chodzi o użytkowników końcowych, zastosowania konsumenckie obejmują inteligentne liczniki i oprogramowanie do zarządzania informacjami (zarówno użytkowe, jak i konsumenckie); systemy kontroli obciążenia, takie jak programowalne termostaty; oraz wszelkiego rodzaju systemy zarządzania energią i inteligentne urządzenia. Technologie inteligentnych sieci obejmują również różne technologie magazynowania energii, w tym elektrownie szczytowo-pompowe, magazynowanie sprężonego powietrza, akumulatory i koła zamachowe. Zelektryfikowany transport wpisuje się również w technologie smart grid ze względu na możliwość wykorzystania np. akumulatorów pojazdów elektrycznych do magazynowania energii.

Tworzenie inteligentnych sieci: historia, polityka i społeczeństwo

Sieć elektryczna w Stanach Zjednoczonych, określana jako "największa maszyna na ziemi", leży u podstaw systemu dostarczania energii elektrycznej i wszystkich jej różnych zastosowań w naszych domach, firmach i przemyśle. Sieć elektryczna zaczęła się nie jako jeden (lub trzy, jak obecnie w Stanach Zjednoczonych) połączone ze sobą systemy regionalne, ale jako wiele lokalnych sieci na obszarach miejskich. Wczesne systemy sieciowe były lokalne, wykorzystywały dynama prądu stałego lub alternatory prądu przemiennego do generowania i często miały wiele mediów z własnymi zestawami przewodów i klientami na jednym danym terytorium lub mieście. Na przykład w Muncie w stanie Indiana na początku XX wieku miasto obsługiwały trzy zakłady użyteczności publicznej: (1) jedno publiczne do oświetlenia ulicznego, (2) jedno prywatne do systemu tramwajowego i (3) jedno prywatne do innych zastosowań. Elektryczność przekształciła przemysł Muncie, skutecznie odciążając siłę roboczą lub całkowicie zmniejszając jej zapotrzebowanie, a jednocześnie stworzyła nowe gałęzie przemysłu zależne od elektryczności. Podczas gdy komercyjne wykorzystanie energii elektrycznej było duże w XX wieku, niewiele domów mieszkalnych zostało zelektryfikowanych. Jednak do 1930 r. Krajowa elektryfikacja domów wzrosła do 70%, głównie na obszarach miejskich, ponieważ sieci elektryczne nie zostały zbudowane na obszarach wiejskich. Tendencje rosnącego popytu związane z rozwojem przemysłu i elektryfikacją domów, włączeniem nowych urządzeń i oświetlenia, w połączeniu z centralizacją własności urządzeń wytwórczych i sieci dystrybucyjnych napędzaną korzyściami skali i zakresu, przekształciły system małych, lokalnych systemów wytwórczych w wielkoskalowe, wzajemnie połączone systemy w ramach przedsiębiorstw zintegrowanych pionowo, a ostatecznie w regulowane monopole. Ogólny trend polegał na centralizacji i monopolizacji modeli lokalnych i zdecentralizowanych, które charakteryzowały wczesne systemy sieci miejskich. Wszystkie te zmiany były całkowicie społeczne i techniczne. Elektryfikacja umożliwiła nowym maszynom zastąpienie pracowników montażowych, jednocześnie generując nowe formy wykwalifikowanej siły roboczej wymaganej do obsługi maszyn. Urządzenia i technologie elektryczne, takie jak grzejniki, kuchenki, pralki i kuchenki mikrofalowe, nie tylko stworzyły nowe możliwości i udogodnienia w domu, ale także stworzyły nowe oczekiwania właścicieli domów i gospodyń domowych, często podzielone według podziału pracy ze względu na płeć. Ekonomiczne modele organizacji usług elektroenergetycznych zmieniały się wraz ze wzrostem skali wytwarzania i zapotrzebowania na energię elektryczną, co wymagało większych systemów, które obsługiwały coraz większą liczbę klientów. W tym samym czasie zmieniły się modele organizacyjne i instytucje, aby poradzić sobie z większą złożonością większej sieci elektroenergetycznej.

Kontekst polityki USA

W Stanach Zjednoczonych krajowa polityka energetyczna i zmiany technologiczne w dużym stopniu wpłynęły na przemysł elektroenergetyczny, często skutkując stopniowymi zmianami w kierunku "inteligentniejszej" sieci. Wczesne wysiłki na rzecz niezawodności i wydajności miały kluczowe znaczenie dla wdrożenia mikrokomputerów w infrastrukturze elektroenergetycznej. Ponieważ mikrokomputery były częściej wykorzystywane do zarządzania systemami wytwarzania, transmisji i dystrybucji, opracowano więcej sieci gromadzenia danych i komunikacji w oparciu o istniejącą fizyczną infrastrukturę elektryczną. Rozwój tych sieci był prowadzony regionalnie przez zakłady użyteczności publicznej oraz regionalnych operatorów przesyłowych lub niezależnych operatorów usług, z których obaj zarządzają operacjami sieciowymi dla różnych regionów. Ponadto opracowano lokalne rozwiązania do gromadzenia danych licznikowych, na przykład, aby umożliwić automatycznym systemom odczytu liczników zwiększenie szybkości gromadzenia danych licznikowych do celów rozliczeniowych - to były poprzedniki "inteligentnego licznika" (Rysunek 1). Efektywność energetyczna, zarządzanie popytem i inne rozwiązania zorientowane na konsumenta rozwijały się w równoległej i przeplatającej się historii. Te interakcje są uważane za podstawę wielu programów inteligentnych sieci, takich jak reagowanie na zapotrzebowanie i behawioralne programy efektywności energetycznej. Wielu uczonych twierdzi, że główna zmiana w kierunku inteligentnej sieci jest zakorzeniona w polityce i modelach biznesowych. Ich zdaniem deregulacja i inteligentne technologie umożliwiają odejście od tradycyjnych modeli biznesowych opartych na towarach opartych na kilowatogodzinach na rzecz nowych modeli biznesowych przedsiębiorstw użyteczności publicznej: operatorów sieci lub przedsiębiorstw świadczących usługi energetyczne. W starym modelu biznesowym regulowany rynek energii elektrycznej gwarantował i ustalał stopy zysku dla mediów w oparciu o podstawę stawek - wartość nieruchomości, na której przedsiębiorstwo użyteczności publicznej może uzyskać określoną stopę zwrotu. To zachęciło przedsiębiorstwa użyteczności publicznej do budowy większej liczby instalacji, niwelując inwestycje w nowe systemy wytwarzania i przesyłu, aby umożliwić dalsze zyski. To kierowało wczesnym rozwojem regionalnych sieci energetycznych, zwłaszcza po niszczącej zaufanie ustawie o spółkach użyteczności publicznej z 1935 r. (PUHCA 1935) i okresie nieuregulowanych monopoli. Wraz z tym istniała ogólna zachęta do sprzedaży większej ilości energii elektrycznej. Większe zużycie energii elektrycznej zbiegło się z ogólnym wzrostem gospodarczym w gospodarce USA, zwłaszcza w okresie powojennym. Nowe modele biznesowe wymagają od przedsiębiorstw użyteczności publicznej zmiany i dostosowania się do nowego krajobrazu energii elektrycznej, charakteryzującego się rozproszonymi instalacjami wytwórczymi, dwukierunkowym przepływem informacji i elektronów oraz bardziej zliberalizowanym rynkiem energii elektrycznej. Argumenty te sugerują, że ewolucja przemysłu użyteczności publicznej była w dużym stopniu kształtowana przez dostępne technologie, korporacyjne struktury organizacyjne i systemy regulacyjne. Ale przemysł zareagował również na materialne realia niedoboru energii i ekonomikę produkcji energii. Na przykład historyk Richard Hirsh wyjaśnia, w jaki sposób branża elektroenergetyczna podupadła w latach siedemdziesiątych, kiedy osiągnęła okres "zastoju technologicznego" - co opisuje jako spadek postępu technologicznego i wydajności systemu w branży elektrycznej, który powstał wraz z określonym kierownictwem kultura, specyficzny zestaw technik produkcji i praktyk użytkowych, które tylko pogłębiły stagnację i stworzyły bariery w jej zwalczaniu. W 1978 r. uchwalono ustawę o polityce regulacyjnej użyteczności publicznej (PURPA), aby pomóc w promowaniu oszczędzania energii i promowaniu rozwoju energii domowej i odnawialnej. Jako część National Energy Act prezydenta Jimmy′ego Cartera, PURPA została opracowana w odpowiedzi na kryzys energetyczny z 1973 roku. Napędzane obawami związanymi z niedoborem ropy i ekstremalnymi cenami ropy, Stany Zjednoczone starały się zwiększyć swoją "niezależność energetyczną". PURPA zachęcała do produkcji energii pozaużytecznej, zwłaszcza ze źródeł odnawialnych, kogeneracji, energii wodnej i ochrony, jednocześnie ograniczając struktury stawek promocyjnych - obniżony koszt za kilowatogodzinę przy zwiększonym zużyciu. Rozwój rynku produkcji energii pozaużytkowej zapoczątkował restrukturyzację przemysłu elektrycznego, zapewniając konkurencję w wytwarzaniu. Przedsiębiorstwa zintegrowane pionowo nie były już jedynymi wytwórcami energii elektrycznej na swoim terytorium, podważając trwający pół wieku konsensus, że rynek energii elektrycznej sprzyja "monopolowi naturalnemu". Chociaż intencją PURPA było nadanie rozpędu ruchowi ekologicznemu, służyło to wprowadzeniu i stymulowaniu konkurencji w sektorze wytwarzania na rynku energii elektrycznej. Do 1992 roku nastąpił silny impuls do dalszej restrukturyzacji przemysłu elektrycznego. Było to napędzane przez charakterystyczną neoliberalną, wolnorynkową ideologię lat 80. i 90. XX wieku. Regulacja została zakwestionowana na tej podstawie, że nadal będzie kolidować z maksymalną wydajnością, na jaką pozwala wolny rynek. Telekomunikacja, transport i branże gazu ziemnego zostały zderegulowane, co stanowi precedens dla branży elektrycznej. Ustawa o polityce energetycznej z 1992 r. Częściowo uchyliła PUHCA 1935, mimo że zaniepokojone grupy obywatelskie i ekologiczne zaczęły się niepokoić możliwością korupcji. Ustawa Prezydenta George′a HW Busha o polityce energetycznej z 1992 r. otworzyła sieci przesyłowe dla generatorów niezwiązanych z mediami lub niezależnych producentów energii (IPP) i ułatwiła stworzenie konkurencyjnego rynku energii elektrycznej poprzez stworzenie innej kategorii kwalifikujących się obiektów oprócz kogeneracji i IPP, które prezydent Carter polityka ustanowiona 14 lat wcześniej: zwolnienie hurtowych wytwórców. Podjęto również działania na szczeblu stanowym, a Kalifornia i Rhode Island uchwaliły przepisy deregulacyjne, które pozwoliły konsumentom wybrać dostawcę energii elektrycznej. "Prawo wyboru" odbiło się zatem echem jako popularny dyskurs na rzecz suwerenności konsumentów i zaangażowania w przemysł energetyczny. Ponieważ stary model biznesowy usług użyteczności publicznej został zakwestionowany, konieczne było wdrożenie nowych struktur. Monopol naturalny i regulacje stanowe lub federalne zaczęto zastępować zrestrukturyzowanym systemem wytwórców energii elektrycznej konkurujących na rynku zaprojektowanym tak, aby był wydajny i rentowny. Zakłady użyteczności publicznej zapewniały konserwację systemów przesyłowych i dystrybucyjnych, podczas gdy wytwórcy dostarczali hurtową energię elektryczną na rynki, na których sprzedawcy energii i brokerzy ułatwialiby sprzedaż i transakcje. Zwolennicy sugerowali, że koszt energii elektrycznej spadł z powodu konkurencji, ostatecznie z korzyścią dla konsumenta końcowego. Korzyści środowiskowe wynikające z efektywności energetycznej zostały również uznane za przewagę konkurencyjną. Umożliwiono utworzenie nowego rynku IPP zorientowanych na odnawialne źródła energii, aby pomóc w spełnieniu wymogów wynikających ze standardów portfela energii odnawialnej, takich jak te wprowadzone w 2002 r. w Kalifornii lub w Teksasie w 1999 r. Skutki deregulacji są jednak kwestionowane. Wielu twierdzi, że otwarcie rynków i restrukturyzacja rynku spowodowały kryzys elektroenergetyczny w latach 2000-2001 w Kalifornii. W 2005 roku prezydent George W. Bush podpisał tzw. Ustawa o polityce energetycznej z 2005 r. w Sandia National Laboratory w symbolicznym ukłonie w stronę wsparcia dla zwiększenia produkcji energii jądrowej. Ustawa całkowicie uchyliła PUHCA 1935, eliminując ograniczenia dotyczące struktury korporacyjnej i ładu korporacyjnego, umożliwiające spółkom holdingowym wykorzystanie szerszego wachlarza źródeł kapitału na inwestycje. Zaledwie 2 lata później ustawa o niezależności i bezpieczeństwie energetycznym z 2007 roku wprowadziła inteligentną sieć jako krajowy cel modernizacji sieci elektroenergetycznej. W akcie wyjaśniono, że inteligentna sieć będzie wykorzystywać cyfrową technologię informacyjną i kontrolną w celu poprawy niezawodności, bezpieczeństwa i wydajności sieci elektroenergetycznej. Zawierał również przepisy dotyczące integracji energii odnawialnej, programów reagowania na zapotrzebowanie, dostarczania informacji i wdrażania inteligentnych technologii. W 2009 roku amerykańska ustawa o odbudowie i reinwestycji zapewniła fundusze na badania, wdrażanie i demonstrację technologii inteligentnych sieci w całym kraju. Inteligentna sieć została umieszczona jako sposób na modernizację starzejącej się infrastruktury elektroenergetycznej poprzez poprawę jej bezpieczeństwa, wydajności, niezawodności i zrównoważenia środowiskowego. Ponieważ inteligentne sieci przyciągają coraz więcej uwagi w obliczu wyzwań związanych z transformacją niskoemisyjną, bezpieczeństwem energetycznym i starzejącą się infrastrukturą, przedsiębiorstwa użyteczności publicznej i władze publiczne zaproponowały nowe programy rozwoju inteligentnych sieci elektroenergetycznych. Inteligentna sieć umożliwia większą integrację odnawialnych źródeł energii, generacji rozproszonej i magazynowania energii, jednocześnie zwiększając przepływ informacji do przedsiębiorstw użyteczności publicznej i ich klientów. Te nowe technologie umożliwiają nowe modele i logikę organizacji produkcji, przesyłu, dystrybucji i zużycia energii elektrycznej, często z "bardziej aktywną" rolą konsumentów. W związku z tym inteligentna sieć jest często przedstawiana jako niezbędny krok w kierunku zrównoważonego rozwoju, odporności, niezawodności i wzrostu. Jednak w zmieniającym się krajobrazie produkcji, przesyłu, dystrybucji i użytkowania energii elektrycznej inteligentna sieć zaczęła oznaczać różne rzeczy dla całej gamy różnych podmiotów na różnych poziomach. Wraz ze zmianami socjotechnicznymi istnieje możliwość pojawienia się nowych norm, konwencji i form zarządzania. Jako takie, wraz z nowymi interwencjami technologicznymi, takimi jak inteligentna sieć, na pierwszy plan wysuwają się różne wizje i cele, nie tylko inicjując działania polityczne, ale także usuwając bariery dla zmian.

Szanse i wyzwania dla inteligentnych sieci

Technologie inteligentnych sieci wiążą się z szeregiem obietnic i możliwości. Obejmują one korzyści dla środowiska i odporności, takie jak łagodzenie zmiany klimatu i przystosowanie się do niej poprzez integrację czystej energii odnawialnej i tworzenie mikrosieci, które działają niezależnie w przypadku zdarzeń ekstremalnych; korzyści i możliwości gospodarcze, w tym tworzenie nowych miejsc pracy w branżach energii odnawialnej i inteligentnej, stymulujące tzw. czystą gospodarkę energetyczną; korzyści w zakresie bezpieczeństwa, w tym bezpieczeństwa energetycznego i niezależności energetycznej na szczeblu krajowym poprzez wzrost wydajności i OZE oraz elektryfikację transportu; oraz możliwości społeczne, często opisywane jako "umożliwiające" konsumentom oszczędzanie pieniędzy poprzez lepsze wybory w zakresie zużycia energii. Niektóre z głównych wyzwań stojących przed inteligentnymi sieciami obejmują cyberbezpieczeństwo oraz interoperacyjność i standaryzację. Zagrożenia dla bezpieczeństwa cybernetycznego są coraz większe dzięki korzystaniu z coraz większej liczby połączonych urządzeń i systemów, które oferują atakującym wiele punktów wejścia, zwłaszcza na gotowych urządzeniach o niskim poziomie zabezpieczeń. Sekurytyzacja systemów inteligentnych sieci była zatem priorytetem dla rządów krajowych zaniepokojonych cyberatakami, które mogą wyłączyć duże części sieci elektrycznej. Interoperacyjność odnosi się do zdolności urządzeń do komunikowania się ze sobą. W przypadku wielu dostawców produktów i firm z własnymi zestawami zastrzeżonych standardów komunikacyjnych staje się to coraz ważniejszym problemem, powodując problemy z urządzeniami sieciowymi. Oprócz tych wyzwań technicznych istnieją również wyzwania społeczne i polityczne. Inteligentna sieć umożliwia wiele możliwych przyszłych konfiguracji socjotechnicznych, co oznacza, że należy podejmować decyzje dotyczące modeli biznesowych, mechanizmów regulacyjnych, planowania zasobów, konkurencji i wielu innych. Sugeruje to, że gdy rozbieżności posuną się do przodu, nad tymi ważnymi decyzjami będą miały miejsce ważne bitwy polityczne. Pojawią się również napięcia między szansami a wyzwaniami. Na przykład integracja bardziej zdecentralizowanych systemów energetycznych i technologii użytku końcowego, takich jak wyświetlacze domowe i urządzenia podłączone do sieci Wi-Fi, zwiększa potencjalne zagrożenia dla cyberbezpieczeństwa. Te kompromisy reprezentują ważne momenty polityczne dla rozwoju inteligentnych sieci w przyszłości.

Inteligentne sieci i społeczeństwo

Inteligentne sieci są złożone, obejmują różnorodne podmioty społeczne, wiele przewodnich wizji i wiele możliwych konfiguracji socjotechnicznych. Inteligentna sieć przedstawia zatem szereg problemów związanych z planowaniem, polityką i praktyką. Podczas gdy zmiany w systemach socjotechnicznych związanych z inteligentnymi sieciami były badane przez socjologów, prace przyniosły bardziej opisowe traktowanie w celu zidentyfikowania kluczowych problemów dla rozwoju i polityki, i jako takie poświęcono mniej uwagi dynamice władzy i polityce. Jednak przy wszystkich zmianach technologicznych i obietnicach inteligentnych sieci większość uwagi w dyskursie publicznym skupia się na technologiach konsumenckich lub końcowych, zwłaszcza inteligentnych licznikach. Nie bez powodu: większość instalacji technologii inteligentnych sieci obejmuje inteligentną infrastrukturę pomiarową, a liczniki lub rachunki za energię elektryczną są tradycyjnymi punktami interakcji konsumentów z przedsiębiorstwami użyteczności publicznej. Uwaga skupiona na konsumentach, kwestiach ekonomicznych i korzyściach dla środowiska skupia się na założeniu, że inteligentna sieć jest daleka nie tylko od czysto technologicznej, ale także społecznej i kulturalnej. Liczne najnowsze podejścia do nauk społecznych dotyczyły wielu zmian społecznych i problemów związanych z inteligentną siecią. Wiele badań dotyczyło wizji, obietnic i wyobrażeń dotyczących inteligentnej sieci. Badania te mają na celu odkrycie wizji postępu technologicznego, które leżą u podstaw przejścia na inteligentną sieć, przy jednoczesnym rozważeniu implikacji dla polityki i wdrażania technicznego. Niektóre krytyczne badania wyraźnie angażują się w pojęcie użytkowników inteligentnej sieci, podczas gdy badania dotyczące akceptacji technologii i zmian zachowań w systemach opłat za czas użytkowania, które umożliwiają inteligentne liczniki, zwykle koncentrują się na węższej definicji "konsumentów". Dyskusje związane z branżą obejmują również prace nad "zarządzaniem popytem" i "reakcją na popyt", na które zwrócono uwagę, ponieważ technologie inteligentnych sieci umożliwiają opracowywanie nowych programów kontrolowania popytu. Zapotrzebowanie na energię elektryczną zawsze zmieniało się wraz z rytmami i praktykami przemysłu, handlu i życia codziennego, ale inteligentna sieć obiecuje sposób na radzenie sobie z tą dynamiką i zarządzanie nią. Zarządzanie popytem, czyniąc go elastycznym i reagującym, jest kluczowym czynnikiem napędzającym wdrażanie inteligentnych sieci. Jednak popyt jest bardzo zmienny i trudny do zarządzania. Jak chętnie podkreślają badacze zajmujący się praktykami społecznymi, jest mało prawdopodobne, aby systemy cenowe miały duży wpływ na energię zużywaną w ramach zwyczajowych praktyk społecznych. Wpływ tego stypendium sugeruje, że aby zrealizować obietnice dotyczące zrównoważonego rozwoju, konieczne jest ponowne przemyślenie technologii i polityk inteligentnych sieci. Podczas gdy ostatnio wiele uwagi poświęcono zagadnieniom "społecznym" w inteligentnej sieci, w tym polityce, zachętom ekonomicznym i wizjom technologicznym, mniej uwagi poświęcono zrozumieniu zasad rządzących zmianą systemów energetycznych, zużyciem energii i jego wpływem na życie codzienne. Przyszłe badania nad społecznymi wymiarami inteligentnych technologii będą przedmiotem najwyższej troski osób zainteresowanych przyszłością inteligentnych sieci.



Powrót

Internetowy urząd ds. numerów przypisanych



Internet Assigned Numbers Authority (IANA) jest organizacją non-profit z siedzibą w Stanach Zjednoczonych; jest oddziałem Internet Corporation for Assigned Names and Numbers (ICANN). IANA jest odpowiedzialna za trzy główne funkcje zarządzania Internetem dotyczące unikalnych identyfikatorów: (1) przydzielanie adresów protokołu internetowego (IP), (2) zarządzanie strefą główną dla internetowego systemu nazw domen (DNS) - nazw domen najwyższego poziomu, takich jak . uk lub .com oraz (3) utrzymywanie kodów i numerów związanych z wieloma adresami IP dla poczty elektronicznej, routingu i Ethernetu. W ten sposób organizacja zapewnia, że nie ma nakładających się lub sprzecznych nazw domen. IANA deleguje odpowiedzialność za przydzielanie bloków adresów IP do pięciu regionalnych rejestrów internetowych, które z kolei przydzielają je dostawcom usług internetowych i innym organizacjom. IANA ponosi zatem odpowiedzialność za rozległą dziedzinę operacji technicznych niezbędnych do działania i sukcesu Internetu. Zapewnia, że wszyscy używają tych samych protokołów i parametrów, przypisuje identyfikatory oraz zapewnia, że adresy i nazwy domen są przypisywane uczciwie i dokładnie. Aby zarządzać alokacją umiędzynarodowionych nazw domen, IANA tworzy umiędzynarodowione tabele nazw domen, które dostarczają informacji w różnych językach. Zarządza również jednolitymi identyfikatorami zasobów i kodowaniem znaków do użytku w Internecie. Jednym z obowiązków jest zarządzanie nazwami domen dla organizacji międzynarodowych (.int) oraz obszarami routingu adresów i parametrów (.arpa). Zarządza również i aktualizuje bazę danych stref czasowych, która przedstawia oficjalną historię czasu w różnych miejscach, w tym harmonogramy czasu letniego i zmiany stref czasowych. Ponadto publikuje różnorodne raporty, audyty, recenzje i prezentacje dotyczące szerokiej gamy zagadnień technicznych i proceduralnych. Jego zasady, protokoły i zmiany są publikowane w dokumentach żądania komentarzy (RFC). IANA została utworzona nieformalnie na początku lat 70. XX wieku w celu nadzorowania wielu aspektów technicznych Sieci Agencji Zaawansowanych Projektów Badawczych (ARPANET), wcześniejszej wersji Internetu, co czyni ją jedną z najstarszych organizacji zajmujących się zarządzaniem Internetem. Zanim ICANN powstała w 1988 roku, administracją IANA kierował przez prawie 30 lat Jonathan Postel, jeden z "dziadków Internetu" w ramach kontraktu z Defense Advanced Research Projects Agency w Information Sciences Institute na Uniwersytecie Południowej Kalifornii w Los Angeles. IANA ma tam swoją siedzibę do dziś. Postel, proponując rejestr przydzielania numerów portów, nazwał siebie "carem numerów gniazd". Fizyczna konserwacja systemu odbywała się pod auspicjami firmy Network Solutions (obecnie znanej jako VeriSign), w ramach kontraktu z Departamentem Obrony USA. Postel odegrał kluczową rolę w sformalizowaniu IANA z szerokimi uprawnieniami administracyjnymi i prawnymi i zarządzał jej funkcjami aż do swojej śmierci w 1998 r. Uprawnienia prawne IANA pochodziły pierwotnie od National Science Foundation w okresie przejściowym NSFNET (1986-1995). W 1983 r., kiedy ARPANET przyjął protokół kontroli transmisji/protokół internetowy (TCP/IP), nadzór IANA został przekazany Radzie Architektury Internetowej. Nazwa IANA powstała w 1988 roku podczas przejścia z ARPANET na NSFNET; termin ten został po raz pierwszy użyty w dokumencie RFC 1083 ("Oficjalne standardy protokołów IAB"). RFC 1591 ("Domain Name System Structure and Delegation") wskazuje, że IANA jest "odpowiedzialna za ogólną koordynację i zarządzanie DNS". IANA zaczęła przechodzić od nieformalnej technokracji do bardziej zinstytucjonalizowanej organizacji. Po śmierci Postela i uznając, że jedna osoba miała nadmierny wpływ na funkcje IANA, w 1998 roku Departament Handlu uznał ICANN na mocy protokołu ustaleń. 24 grudnia 1998 r. ICANN przejęła funkcje IANA od Uniwersytetu Południowej Kalifornii. Tydzień później, 1 stycznia 1999 r., IANA została przekształcona w oddział ICANN w ramach finansowania Agencji Zaawansowanych Projektów Badawczych Obrony, która stworzyła Internet. Krajowa Administracja Telekomunikacji i Informacji (NTIA), podlegająca Departamentowi Handlu, rok później, w lutym 2000 r., zawarła umowę zezwalającą ICANN na nadzorowanie funkcji IANA. NTIA nadal nadzoruje zmiany w strefach głównych DNS, aby upewnić się, że IANA przestrzega swoich zasad. W 2011 roku Departament Handlu zwrócił się do różnych podmiotów internetowych o opinie dotyczące działalności i funkcji IANA w świetle odnowienia jej umowy. Kolejne zmiany obejmowały zakaz kontaktów z grupami terrorystycznymi, politykę dotyczącą konfliktu interesów, zastrzeżenie, że rząd USA miał prawa do danych dostarczanych przez wykonawcę wybranego do nadzorowania IANA (tj. ICANN) oraz zastrzeżenie, że zarządzanie nim będzie przejrzyste i odpowiedzialny. W miarę jak Internet stawał się coraz bardziej globalny, a zwłaszcza po ujawnieniu masowego szpiegostwa Agencji Bezpieczeństwa Narodowego i przeciekach Edwarda Snowdena, rosło niezadowolenie z amerykańskiej dominacji ICANN i IANA. W odpowiedzi, zwłaszcza na Deklarację z Montevideo w sprawie przyszłości współpracy internetowej, szefowie organów zarządzających Internetem zgodzili się na zwiększenie międzynarodowego udziału w jego nadzorze. W 2014 r. NTIA ogłosiła plany rozpoczęcia przenoszenia zarządzania nazwami domen do międzynarodowej społeczności obejmującej wielu interesariuszy i dopuściła do wygaśnięcia umowy z ICANN na nadzorowanie IANA we wrześniu 2016 r. Posunięcie to zasadniczo oznacza prywatyzację funkcji IANA. Zwolennicy twierdzą, że zmiana zapewni bardziej otwarty i demokratyczny Internet przy mniejszym nadzorze ze strony Stanów Zjednoczonych i że niewiele zmieni się dla użytkowników Internetu.



Powrót

Internetowe sieci szkieletowe



Żaden techniczny opis Internetu nie może pominąć roli i wartości internetowych sieci szkieletowych. Te sieci infrastrukturalne są odpowiedzialne za przesyłanie pakietów danych internetowych na całym świecie. Składają się z połączeń długodystansowych, które łączą miejsca docelowe oddzielone dużymi odległościami. Jeśli chodzi o sprzęt internetowy, sieci szkieletowe to łącza światłowodowe o dużej przepustowości, które znajdują się na szczycie hierarchii infrastruktury Internetu i są zwykle własnością prywatnych dostawców usług telekomunikacyjnych i internetowych (ISP). W szerszej perspektywie Internet składa się z dwóch warstw: (1) technicznej i (2) treściowej, przy czym ta druga nakłada się na pierwszą. Kluczową cechą warstwy technicznej Internetu, której zasadniczą częścią są sieci szkieletowe, jest topologia sieci, na którą składają się krawędzie i węzły o określonych topologicznych i fizycznych lokalizacjach. W rzeczywistości nie jest to pojedyncza sieć, jak zakłada wielu użytkowników. Internet, jako sieć sieci, składa się z kilku połączonych ze sobą małych, średnich i dużych sieci. Ze względu na tę złożoność sieci te, aby były funkcjonalne, powinny charakteryzować się określoną i predefiniowaną hierarchią. Aby dokładniej zbadać znaczenie internetowych sieci szkieletowych, ten wpis zawiera przegląd architektury Internetu, a następnie omawia warstwę fizyczną Internetu, dostawców usług internetowych oraz lokalizacje równorzędne i węzłowe w Internecie.

Architektura Internetu

Z topologicznego punktu widzenia liczne sieci internetowe są w stanie komunikować się tylko dzięki przyjęciu wspólnych protokołów. Technologia przełączania protokołu kontroli transmisji/protokołu internetowego (TCP/IP) to protokół, który umożliwia przesyłanie pakietów danych między różnymi lokalizacjami za pomocą przełączników i routerów. Aby doszło do wymiany danych, wiadomości są dzielone na pakiety danych i oznaczane etykietami z adresem pochodzenia i przeznaczenia oraz kolejnością, w jakiej dane mogą zostać odtworzone. Pakiety te są transportowane przez różne połączone ze sobą węzły. Każde miejsce docelowe w Internecie (tj. połączony komputer) ma unikalny adres IP, który jest dostępny z pozostałej części świata. TCP/IP jest zgodny z wytycznymi szerszego protokołu, który zarządza funkcjami Internetu. Jest znany jako model otwartych systemów wzajemnych połączeń (OSI) i został wprowadzony przez Międzynarodową Organizację Normalizacyjną w 1984 r. Jest zbudowany jako system siedmiowarstwowy: dolne warstwy są przeznaczone do podstawowych zadań technicznych, podczas gdy górne warstwy, które opierają się na wydajnej funkcji niższych warstw, są bliżej użytkownika końcowego i zawierać bardziej zaawansowane funkcje. Pierwsza warstwa nazywana jest warstwą fizyczną i składa się z przewodów, światłowodów, łączy bezprzewodowych i ogólnie elementów fizycznych, które odpowiadają za transmisję danych zgodnie z dyrektywami warstw wyższych. Warstwa danych zasila warstwę fizyczną bezbłędnymi przepływami, które są przesyłane przez najniższą warstwę między dwoma sąsiednimi węzłami. Trzecia warstwa, określana jako warstwa sieciowa, jest pierwszą warstwą, w której konfigurowana jest pełna trasa źródłowa-docelowa przy użyciu adresów IP. Podczas gdy przełączniki, które działają w warstwie danych, są w stanie przełączać pakiety danych tylko między sąsiednimi węzłami kompletnej trasy, routery, które działają w warstwie sieci, są odpowiedzialne za konfigurację i zarządzanie kompletnymi trasami pakietów danych , który zwykle składa się z wielu węzłów pośrednich. Znaczenie tej warstwy polega na tym, że definiuje ona całą sieć: jeśli witryna nie jest widoczna dla routera, nie jest częścią Internetu. Następna jest warstwa transportowa, której głównym protokołem jest protokół TCP, który poświadcza, że pakiety danych są odbierane poprawnie i we właściwej kolejności. Na tej warstwie odbywa się rozgłaszanie aplikacji do nadawców i odbiorców. Jednak za kontrolę dialogu między nadawcami a odbiorcami odpowiada warstwa piąta, warstwa sesyjna. Siódma to warstwa aplikacji, w której działają najpopularniejsze aplikacje internetowe, takie jak File Transfer Protocol i Hypertext Transfer Protocol. Pomiędzy warstwą aplikacji, która jest najbliższa warstwie użytkownika, a warstwą sesji znajduje się kolejna warstwa zwana warstwą prezentacji, będąca interfejsem pomiędzy tymi dwiema warstwami. George Gilder (2000) opisuje model OSI za pomocą analogii telefonicznej: podnieś słuchawkę i posłuchaj sygnału wybierania (warstwa fizyczna); wybrać numer (każda cyfra przybliża połączenie do miejsca docelowego o kolejne łącze); nasłuchuj dzwonka (oznaczającego połączenie sieciowe i transport sygnałów). Po podłączeniu kogoś do linii można powiedzieć, że ukończyłeś pierwsze cztery warstwy stosu OSI. Następnie powitanie rozpoczyna sesję, wybór języka angielskiego definiuje prezentację, rozmowa stanowi warstwę aplikacji. Rozłączenie kończy sesję.

Warstwa fizyczna i jej metryki

Wydajność Internetu jest silnie związana z jego warstwą fizyczną. Istnieją dwa główne wskaźniki oceny wydajności sieci komputerowej: (1) przepustowość i (2) opóźnienie. Pierwsza odnosi się po prostu do liczby bitów, które można przesłać przez sieć w określonym czasie, podczas gdy druga odnosi się do czasu mierzonego w milisekundach, potrzebnego do wysłania i odebrania danych między dwoma węzłami w sieci. Internet. Na przykład nowoczesny tor transatlantycki może mieć przepustowość 10 Gb/s, co oznacza, że może przesyłać 10 × 109 bitów na sekundę (8 bitów = 1 bajt = jeden wpisany znak). Przepustowość jest definiowana głównie przez system fizyczny, który przesyła dane, a kable światłowodowe zapewniają największą przepustowość. Z drugiej strony opóźnienie jest bardziej skomplikowaną miarą, która jest mierzona w jednostkach czasu i odnosi się do czasu podróży w obie strony: czasu potrzebnego pakietowi danych na dotarcie do miejsca docelowego i powrót do miejsca pochodzenia. Na opóźnienie mogą mieć wpływ (a) długość łącza i prędkość przesyłania danych w łączu, (b) rozmiar pakietu danych i dostępna przepustowość oraz (c) opóźnienie przetwarzania spowodowane przełączaniem między różnymi węzły internetowe. W praktyce opóźnienie zwykle pojawia się, gdy cała trasa składa się z dużej liczby przeskoków lub przełączników przez różne węzły. Aby zrozumieć sposób, w jaki funkcjonuje Internet, ważne jest zrozumienie natury jego warstwy fizycznej. Brzegi Internetu to z pewnością najdroższy i najbardziej rozbudowany element inwestycji ISP. Istnieją trzy główne typy mediów, które ułatwiają transmisję danych. Najstarsza to skrętka dwużyłowa, która składa się z dwóch izolowanych drutów miedzianych skręconych ze sobą w celu uniknięcia zjawiska anteny tworzonego przez dwa równoległe przewody. Publiczne komutowane sieci telefoniczne nadal częściowo opierają się na skrętce dwużyłowej. Potrafią osiągnąć kilka Mb/s na kilka kilometrów. Następną kategorią jest kabel koncentryczny, który również jest zbudowany na miedzi i był najpierw szeroko stosowany do transmisji telewizyjnej, a następnie do długodystansowych łączy telefonicznych. Obecnie łącza długodystansowe oparte są wyłącznie na kablach światłowodowych (np. kabel światłowodowy SEA-ME-WE-3; zob. rys. 1). Ich główna różnica polega na tym, że zamiast przesyłania impulsów elektrycznych światłowody przesyłają impulsy świetlne przez światłowód, które są generowane przez źródło światła umieszczone na jednym końcu i rozpoznawane przez detektor na drugim końcu. Brak światła jest rozpoznawany jako 0, podczas gdy obecność światła jest rozpoznawana jako 1, podobnie jak elektryczność przez kable miedziane. Oprócz przepustowości istnieje jeszcze kilka różnic między łączami światłowodowymi i miedzianymi. Po pierwsze, niskie tłumienie tego pierwszego, a co za tym idzie małe zapotrzebowanie na repeatery, które służą do wzmocnienia sygnału, sprawiają, że światłowód jest znacznie bardziej odpowiedni dla łączy długodystansowych. Ponadto światłowód nie podlega zewnętrznym zakłóceniom elektromagnetycznym i jest mniej wrażliwy na warunki środowiskowe. Co ciekawe, światłowody preferują również operatorzy telekomunikacyjni, ponieważ są znacznie lżejsze i mają niższy koszt instalacji niż przewody miedziane. Ponadto zajmuje mniej miejsca w już wąskich i wypełnionych kanałach. Kable światłowodowe, podobnie jak druty miedziane, układane są w rurach, które są instalowane albo obok istniejącej infrastruktury sieciowej (np. autostrady, drogi, linie kolejowe), albo w rurach już nieużywanych, takich jak sieci kanalizacyjne . Zastąpienie ponadgabarytowych drutów miedzianych światłowodem o mniejszej objętości, ale o większej przepustowości, jest potencjalnym zyskiem dla operatorów. Jednakże, instalacja i konserwacja światłowodu wymagają specjalnych umiejętności inżynierów i są bardzo wrażliwe na zginanie. Ponadto koszt interfejsu optycznego jest dość wysoki i wyższy niż jego odpowiednik dla przewodów miedzianych. Rozszerzone połączenia międzyregionalne są zbudowane na światłowodach, a miedziana infrastruktura ostatniej mili na całym świecie jest coraz częściej zastępowana kablami światłowodowymi. Rzeczywiście, światłowód w domu staje się coraz ważniejszy dla dostępu szerokopasmowego. Jednak od 2017 r. koszty instalacji są nadal zbyt wysokie, aby umożliwić ekstensywne wykorzystanie światłowodu w pętli lokalnej, co wiąże się z wykopami na terenach gęsto zaludnionych i zurbanizowanych o wysokich kosztach gruntów.

Dostawcy usług internetowych

Z biznesowego punktu widzenia połączone sieci są zwykle własnością dostawców usług internetowych. To ostatnie odnosi się do firm lub organizacji, które utrzymują jedną lub więcej połączonych sieci i za ich pośrednictwem zapewniają dostęp do Internetu. Zwykle, aby osiągnąć pożądaną łączność globalną (tj. łączność z resztą sieci internetowych, a za ich pośrednictwem ze wszystkimi połączonymi komputerami), dostawca usług internetowych musi współpracować, łączyć się i wymieniać dane z innymi dostawcami usług internetowych. Może się to zdarzyć na różne sposoby, jak opisano w następnej sekcji. Rozróżnienie między dostawcami usług internetowych wynika z rygorystycznej struktury Internetu. Ponadto można znaleźć ISP Tier-1, które charakteryzują się rozległymi sieciami globalnymi i które są w stanie osiągnąć globalną łączność bez kupowania łącza internetowego od innego ISP (tj. znany jako tranzyt IP). Na świecie istnieje tylko kilku dostawców usług internetowych poziomu 1, którzy zazwyczaj są częścią globalnych firm telekomunikacyjnych (telcos), które utrzymują sieci szkieletowe o dużej przepustowości na całym świecie. Dostawcy usług internetowych poziomu 1 wymieniają między sobą dane (tzw. peering) i sprzedają łączność internetową (znaną jako tranzyt IP) dostawcom usług internetowych niższego poziomu, zwanym poziomem 2, którzy również mają własne, ale mniej rozbudowane sieci. Oprócz własnej łączności sieci Tier-2 muszą również kupować dostęp do Internetu od dostawców usług internetowych Tier-1, aby uzyskać globalną łączność. Dostawcy usług internetowych Tier-3 i Tier-4 to dostawcy o niższej skali, którzy działają głównie na poziomie krajowym i lokalnym. Opisana wcześniej struktura odzwierciedlała Internet od początku jego komercjalizacji na początku lat 90. do 2007 roku, kiedy to narodził się "nowy Internet". To ostatnie odnosi się do zmian instrumentalnych, które zaczęły zachodzić w tym okresie. Zmiany te zostały zapoczątkowane dominującą rolą, jaką dostawcy treści, tacy jak YouTube, zaczęli odgrywać w generowaniu ruchu internetowego w związku z ekspansją dystrybucji treści wideo w sieci. Celem dostawców treści było rozszerzenie działalności biznesowej po infrastrukturalnej stronie Internetu, pozyskanie bardzo rozległych sieci fizycznych i rozpoczęcie odgrywania roli podobnej do sieci szkieletowych Internetu Tier-1. Od 2007 r. nastąpiła konwergencja między dostawcami treści i sieci, co zaowocowało coraz bardziej dominującymi rolami pełnionymi przez bardzo niewiele międzynarodowych korporacji i ogólnie znacznie bardziej spolaryzowanym krajobrazem internetowym.

Lokalizacje peeringowe i węzłowe w Internecie

Peering jest niezbędnym procesem funkcjonowania Internetu, ponieważ integruje różne sieci, dając im wzajemny dostęp. To ostatnie odbywa się w określonych lokalizacjach węzłowych, takich jak punkty wymiany ruchu internetowego (IXP). IXP to obiekt, w którym różni dostawcy usług internetowych łączą swoje sieci i umieszczają swoje dedykowane routery, a za ich pośrednictwem łączą się z niektórymi lub wszystkimi dostawcami usług internetowych obecnymi w tym IXP. Ta część topologii Internetu została po raz pierwszy wprowadzona w 1991 roku w Stanach Zjednoczonych, kiedy wielu komercyjnych operatorów szkieletowych założyło Commercial Internet Exchange w Santa Clara w Kalifornii. Później, w 1995 roku, National Science Foundation Network, mając za cel komercjalizację (tj. przodek dzisiejszego Internetu), wprowadziła cztery prywatnie zarządzane punkty dostępu do sieci zlokalizowane w San Francisco w Kalifornii (obsługiwane przez PacBell); Chicago, Illinois (BellCore i Ameritech); Waszyngton, DC (MFS); i Pennsauken, New Jersey (Nowy Jork obsługiwany przez Sprint Link). Podobnie jak Commercial Internet Exchange, umożliwiły dostawcom usług internetowych komunikację równorzędną, prowadząc do powstania ogólnokrajowego komercyjnego Internetu. Obecnie termin IXP jest częściej używany niż punkty dostępu do sieci, zwłaszcza w Europie. Oprócz publicznego peeringu, który ma miejsce w IXP, dostawcy usług internetowych mają również możliwość prywatnego peeringu. Publiczny peering w IXP wydaje się być najtańszym wyborem dla dostawców usług internetowych do wymiany dowolnej ilości danych, ponieważ są oni obciążani tylko (jeśli istnieją) opłatami IXP i kosztami logistycznymi. Ponadto, łącząc się z IXP, który ma zasięg krajowy lub nawet lokalny, pakiety danych o krajowym lub lokalnym pochodzeniu i przeznaczeniu mogą pozostać na tym poziomie, unikając długiego transportu danych tylko ze względu na peering. Taka praktyka skutkuje oszczędnością czasu i pieniędzy, ponieważ unika się niepotrzebnego korzystania z drogich połączeń długodystansowych. Jednak publiczny peering nie zawsze ma miejsce. Ze względu na gwałtowny wzrost ruchu internetowego pod koniec lat 90. wiele amerykańskich IXP stało się wąskimi gardłami dla internetowego ruchu danych. I właśnie dlatego niektórzy główni dostawcy usług internetowych zaczęli wdrażać "prywatny peering", który odnosi się do dwustronnych umów peeringowych między dowolnymi dwoma dostawcami usług internetowych za pomocą połączeń bezpośrednich, aby ominąć przeciążone routery IXP. Private peering odbywa się albo w punktach IXP, jeśli dwaj dostawcy usług internetowych są już tam obecni, ale bez korzystania z routerów IXP, albo bezpośrednio w punktach obecności dostawców usług internetowych, czyli węzłach, w których użytkownicy końcowi są połączeni z dostawcami usług internetowych. Zasadniczo to poprzez peering dwie sieci łączą się, tworząc coś, co jest powszechnie znane jako Internet. Aby uzyskać globalną łączność, dostawcy usług internetowych stosują różne kombinacje publicznego i prywatnego peeringu oraz tranzytu IP. Wspomniane wyżej wybory peeringu są związane z takimi czynnikami, jak klienci ISP, biznesplan i lokalizacja.

Geografia internetowych sieci szkieletowych

Internetowe sieci szkieletowe okazały się jednym z najbardziej atrakcyjnych elementów infrastruktury internetowej dla geografów zainteresowanych przestrzennością Internetu i gospodarką cyfrową. Można to wytłumaczyć zdolnością tych sieci do zapewnienia globalnego zasięgu Internetu. Z miejskiego punktu widzenia struktura sieci szkieletowej może potencjalnie dostarczać informacji o intensywności udziału miast w gospodarce cyfrowej. Jest miarą łączności cyfrowej miasta i jego zdolności do uczestnictwa w globalnej gospodarce cyfrowej. Z perspektywy analitycznej geografia sieci szkieletowych może dostarczyć wglądu w determinanty tych sieci. Z bardziej zorientowanego na politykę punktu widzenia położenie geograficzne łączy szkieletowych (a być może, co ważniejsze, ich przepustowość) może mieć wpływ na lokalną działalność gospodarczą, ponieważ może bezpośrednio wpływać na firmy, które są w dużym stopniu uzależnione od globalnej komunikacji internetowej. W związku z tym wydajność Internetu między dowolnymi dwoma miejscami nie zależy od fizycznej odległości między nimi, ale głównie od zainstalowanej przepustowości połączeń szkieletowych - zwanej przepustowością - między nimi. Chociaż w celu uchwycenia badań geografii Internetu wprowadzono różne i cenne taksonomie, nacisk kładziony jest tutaj na dostarczanie infrastruktury internetowej, a dokładniej na geografię internetowych sieci szkieletowych. Takie badania pojawiły się pod koniec lat 90., koncentrując się głównie na Stanach Zjednoczonych. Ten strumień badań dotyczył prawie wyłącznie najwyższego poziomu sprzętu internetowego, internetowych sieci szkieletowych. Częstym rezultatem takich badań jest miejski charakter infrastruktury internetowej, która koncentruje się tam, gdzie jest zapotrzebowanie na łączność z Internetem, czyli na dużych aglomeracjach miejskich. W skali globalnej przestrzenne rozmieszczenie internetowych sieci szkieletowych wzmacnia istniejące wzorce globalizacyjne, ale skutkuje też powstawaniem nowych hierarchii przestrzennych, ponieważ stwarza możliwości dla miejsc, które nie należą do tradycyjnego rdzenia. Chociaż lokalizacja internetowych sieci szkieletowych zawsze faworyzowała ugruntowane miasta globalne, stwarzała również możliwości dla miast poza rdzeniem miast globalnych, zarówno w Europie, jak iw Stanach Zjednoczonych. Badania przeprowadzone w USA ilustrują to zjawisko. Miasta takie jak Nowy Jork, Nowy Jork; Chicago, Illinois; Waszyngton.; San Francisco, Kalifornia; Dallas w Teksasie; Atlanta, Georgia; i Los Angeles w Kalifornii zgromadziły największą przepustowość w 2000 r., podczas gdy 4 lata wcześniej Nowy Jork zajmował dopiero czwarte miejsce we względnym rankingu. Opierając się na tym ostatnim, Anthony Townsend doszedł do wniosku, że rozproszenie infrastruktury internetowej jest większe niż zakładali to zwolennicy hipotezy miasta światowego , przewidywany dla Stanów Zjednoczonych. Argument Townsenda staje się jeszcze bardziej oczywisty dla Europy: Londyn, Wielka Brytania; Amsterdam, Holandia; Paryż, Francja; i Frankfurt w Niemczech pełnią rolę centrów europejskiego Internetu, podczas gdy miasta takie jak Wiedeń w Austrii; Praga, Czechy; i Kopenhaga w Danii działają jako bramy do różnych regionów. Badania wyjaśniające podkreśliły rolę gospodarki opartej na wiedzy, której wyrazem są patenty i instytucje przyznające doktoraty, jako czynnika przyciągającego infrastrukturę internetową. Co więcej, wielkość rynku i metropolitalny charakter również okazały się istotnymi czynnikami przyciągającymi. Niektórzy badacze przeanalizowali rolę zależności od ścieżki w tworzeniu ogólnoeuropejskiej sieci szkieletowej Internetu i podkreślili rolę istniejących wcześniej sieci morskich i kolejowych. W tym samym duchu porównali właściwości strukturalne tych sieci z właściwościami innej sieci, która również ma kluczowe znaczenie dla globalizacji - sieci lotniczej. Podobnie jak w przypadku każdego innego rodzaju infrastruktury sieciowej, odległość wiąże się z kosztami, dlatego też struktura sieci szkieletowej Internetu odzwierciedla ten atrybut. Ponadto w literaturze poświęcono również wysiłek w celu określenia potencjalnych skutków ekonomicznych takiej infrastruktury. Chociaż większy nacisk położono na ekonomiczne skutki szerokopasmowej łączności internetowej w skali lokalnej, badania koncentrowały się również na skali globalnej i na internetowych sieciach szkieletowych. Nawet na taką skalę badania wykazały pozytywny wpływ bezpośredniego połączenia z internetowymi sieciami szkieletowymi na innowacyjność i rozwój gospodarczy. Globalny zasięg internetowych sieci szkieletowych sprawił, że ten element infrastruktury stał się najbardziej znanym elementem sprzętu internetowego. Zdjęcia światłowodów lądujących w portach nie są rzadkością, a badacze poświęcili sporo wysiłku na analizę ich topologii, położenia geograficznego i potencjalnych skutków ekonomicznych, jakie połączenie z takimi sieciami może generować dla miast, regionów i krajów. Internetowe sieci szkieletowe, choć niewidoczne, są odpowiedzialne za globalny zasięg Internetu i dlatego mogą być postrzegane jako wspierająca warstwa globalizacji.



Powrót

Internetowa Korporacja ds. Przydzielania Nazw i Numerów



Internet Corporation for Assigned Names and Numbers (ICANN) to międzynarodowa organizacja non-profit odpowiedzialna za koordynację adresów IP i nazw domen. Zadanie to obejmuje nadzorowanie firm rejestrujących nazwy domen, przydzielanie adresów IP, rozwiązywanie sporów, utrzymywanie bazy danych Whois rejestratorów nazw domen oraz utrzymywanie infrastruktury systemu nazw domen. Chociaż prace te mogą wydawać się czysto techniczne, w rzeczywistości mają poważne implikacje handlowe i prawne. Odgrywa zatem ważną rolę w nadzorze, regulacji i zarządzaniu Internetem. Skupia się generalnie na oddolnym, otwartym, inkluzywnym i przejrzystym systemie zarządzania Internetem, chociaż nie jest pozbawiony krytyków. Ten wpis omawia historię, organizację, działalność i kontrowersje ICANN.

Historia i organizacja

ICANN została utworzona w 1998 roku na polecenie Departamentu Handlu Stanów Zjednoczonych w okresie, w którym zarządzanie Internetem przechodziło z rządu federalnego USA do sektora prywatnego. Następnie odnowiła umowy z Departamentem Handlu i wydała kilka protokołów ustaleń. Organizacja została zarejestrowana w Monterey w Kalifornii, a jej przewodniczącą jest przedsiębiorczyni i filantropka Esther Dyson, a jej siedziba główna znajduje się w Los Angeles. Miał nadzorować Internet Assigned Numbers Authority, który zarządzał operacjami sieciowymi i przydzielaniem adresów IP oraz zarządzaniem strefą główną, z których większość była pierwotnie wykonywana przez Jona Postela na Uniwersytecie Kalifornijskim w Los Angeles, a później na Uniwersytecie południowej Kalifornii. ICANN została powołana częściowo w celu rozstrzygania sporów dotyczących rejestracji nazw domen i znaków towarowych, ponieważ liczba witryn .com rosła wykładniczo, a Internet stawał się globalny. ICANN sama w sobie nie ma członków; raczej jego strukturę organizacyjną określa zarząd (składający się z 16 członków), rzecznik praw obywatelskich, funkcjonariusze i mechanizmy doradcze. Ponadto współpracuje z trzema organizacjami wspierającymi: (1) organizacją wspomagającą adresy, która zajmuje się adresami IP; (2) organizacja wspierająca nazwy kodów krajów; oraz (3) Organizacja Wspierająca Nazwy Rodzajowe. Posiada również Rządowy Komitet Doradczy z przedstawicielami 111 państw. Głównym źródłem dochodów organizacji są opłaty za rejestrację nazw domen. Na przykład opłaty za ogólne nazwy domen najwyższego poziomu zaczynają się od 185 000 USD, a roczna opłata za odnowienie wynosi 25 000 USD. ICANN otrzymała ponad 60 mln USD opłat za nazwy domen najwyższego poziomu. Niektóre korporacje narzekają, że opłaty są wygórowane. W 2009 roku ICANN stała się prywatną organizacją non-profit. W 2011 roku administracja Obamy ogłosiła, że stopniowo zaprzestanie wspierania nadzoru ICANN. W 2014 roku Krajowa Administracja Telekomunikacji i Informacji Departamentu Handlu zaczęła odchodzić od nadzoru ICANN. W 2016 roku ICANN całkowicie rozwiązała umowę z Krajową Administracją Telekomunikacji i Informacji.

Zajęcia

ICANN przyjęła zmieniający się zestaw zasad dotyczących nazw domen. Na przykład w 1999 r. zaczęto zezwalać, aby nazwy firm były domenami najwyższego poziomu (np. sony.com jest na równi z .edu) i nazwami domen w alfabecie innym niż łaciński (np. cyrylica, chiński i arabski). Odegrał również znaczącą rolę w przejściu z adresów IPv4 na IPv6 w latach 90. Baza danych Whois jest podstawową częścią działalności ICANN. W 2003 roku zainicjowała politykę przypominania o danych Whois, która wymaga corocznych aktualizacji rejestratorów nazw domen. W 2004 r. zapoczątkowała politykę dokładności przywracania nazw, która nakazywała wstrzymanie nazw domen usuniętych z powodu niedokładnych informacji do czasu ich aktualizacji. W tym samym roku zapoczątkowała politykę ograniczeń marketingowych Whois, która zabrania komercyjnego wykorzystywania danych Whois. Organizacja zaczęła wymagać, aby usługi katalogowe danych rejestracyjnych były zgodne z Polityką przejścia Whois dla nazw domen .com, .net i .jobs. W przeciwieństwie do cienkiego rejestru Whois, który przechowuje tylko minimalne dane techniczne, takie jak nazwa rejestratora oraz daty rejestracji i wygaśnięcia, gruby rejestr Whois zawiera informacje o aktualizacjach, dane kontaktowe i inne. ICANN nadzoruje również jednolity proces rozstrzygania sporów, który został utworzony w 1999 r. przez Światową Organizację Własności Intelektualnej w celu rozstrzygania sporów dotyczących nazw domen i znaków towarowych. Najpoważniejsze problemy w tym zakresie dotyczą cybersquattingu, do którego dochodzi, gdy osoby fizyczne rejestrują nazwę i zachowują do niej prawa w nadziei na sprzedaż jej nabywcom korporacyjnym. W 2011 roku ICANN przejęła internetową bazę danych stref czasowych, która zawiera kod komputerowy określający dokładny i poprawny czas w danej lokalizacji. Wcześniej zarządzali nim wolontariusze.

Kontrowersje i krytyka

Ponieważ ICANN była tworem amerykańskim, często postrzegano ją jako dającą Stanom Zjednoczonym nadmierny wpływ na Internet. Krytyka znacznie się nasiliła po ujawnieniu przez Edwarda Snowdena wszechobecnej inwigilacji przez Agencję Bezpieczeństwa Narodowego w 2013 r. Doprowadziło to ostatecznie do Deklaracji z Montevideo w sprawie przyszłości współpracy internetowej, podpisanej przez zasadniczo wszystkie organizacje na całym świecie zaangażowane w zarządzanie Internetem, wyrażającej nadzieje na bardziej demokratyczne , system globalny. ICANN starała się odrzucić swój wizerunek amerykańskiego narzędzia, na przykład organizując okresowe spotkania publiczne na całym świecie i dążąc do zwiększenia udziału Afryki w swoich organach regulacyjnych. Niemniej jednak krytycy i przeciwnicy utrzymują, że ICANN wykracza poza swój techniczny, regulacyjny mandat i angażuje się w podejmowanie decyzji politycznych. Starali się ograniczyć jej wpływy i stworzyć konkurencyjne organizacje, takie jak Światowy Szczyt Społeczeństwa Informacyjnego i Forum Zarządzania Internetem ONZ. Niektóre decyzje ICANN dotyczące nazw domen były kontrowersyjne, na przykład utworzenie nazwy domeny .pa dla terytoriów palestyńskich. Zaakceptował nawet kontrowersyjną nazwę domeny ".sucks". ICANN został również pozwany przez producentów pornografii w związku z nazwami domen .xxx. ICANN była zaangażowana w kilka procesów sądowych kwestionujących jej autorytet prawny, praktyki księgowe i listy przestępców spamujących. Jego związek z Departamentem Handlu został zakwestionowany w sądzie. W 2011 roku 79 firm zorganizowało się przeciwko ICANN, argumentując, że jej system rejestracji nazw domen najwyższego poziomu jest niesprawiedliwy i dyskryminujący. Niektórzy właściciele nazw domen, których strony internetowe zostały zamknięte przez ICANN, narzekają, że działa ona jak rodzaj internetowej "mafii".



Powrót

Internetowe centra danych



Internetowe centrum danych to obiekt, w którym znajdują się tysiące systemów komputerowych umożliwiających nieprzerwane uruchamianie usług informatycznych (IT). Infrastruktura do przechowywania, przetwarzania i analizowania informacji oraz świadczenia usług przez Internet jest definiowana potrzebami przedsiębiorstw, w szczególności minimalizacją zakłóceń i przeszkód związanych z systemami informatycznymi. W tym wpisie omówiono definicję i ogólną historię internetowych centrów danych, najważniejsze fakty, koszty, aktualne trendy i przyszłe kierunki. Wraz z globalnym rozwojem operacji IT, znaczenie internetowych centrów danych wzrosło wielorako. Centrum danych jest obecnie integralną częścią organizacji korporacyjnych: Przedsiębiorstwa biznesowe muszą przetwarzać duże ilości danych generowanych każdego dnia. Nie jest to nowe zjawisko, ale na coraz bardziej konkurencyjnym i otwartym rynku większość przedsiębiorstw musi wykorzystywać te dane i tworzyć nowe platformy i rozwiązania. Te z kolei utrzymują przedsiębiorstwa w dobrej kondycji finansowej i pomagają utrzymać bazę klientów. Ze względu na zalety centrów danych w wielu przedsiębiorstwach pojawiły się wydajne rozwiązania analityczne zorientowane na klienta.

Historia

Tradycyjne centrum danych, znane również jako "silosowe" centrum danych, jest silnie uzależnione od fizycznych serwerów i sprzętu, w przeciwieństwie do internetowych centrów danych. Pochodzenie tradycyjnych centrów danych zaczęło się od komputerów typu mainframe, a ich rozwój został zapoczątkowany przez bańkę dot.com pod koniec lat 90. i na początku XXI wieku. Niezawodność i wydajność niezależnie od rozbudowy tradycyjnych centrów danych jest ograniczone ograniczeniami fizycznymi i czasem potrzebnym do wdrożenia nowych aplikacji. Obawy związane z przestrzenią, skalowalnością i przenośnością doprowadziły do narodzin wirtualnych centrów danych, które tworzą pulę zasobów urządzeń komputerowych, które można ponownie przydzielić w zależności od zapotrzebowania. Trend ten po raz pierwszy zaobserwowano w 2003 r. Do końca 2011 r. 72% organizacji korporacyjnych przekształciło jedną czwartą swoich tradycyjnych centrów danych w centra wirtualne. Globalna zależność od internetowych centrów danych wzrosła fenomenalnie. Zapotrzebowanie na przechowywanie i konserwację danych nie ogranicza się do facylitatorów IT, ale rozprzestrzeniło się na wszystkie formy firm i dostawców usług, prywatnych, publicznych i indywidualnych.

Najważniejsze fakty dotyczące centrów danych

Centrum danych nie może przetrwać bez systemów zasilania, chłodzenia i łączności sieciowej. Energia elektryczna jest dostarczana do dużych centrów danych z sieci lub lokalnych generatorów. Systemy chłodzenia są wymagane w celu złagodzenia ciepła rozpraszanego przez zasilacze do systemów komputerowych. Chillery służą do dostarczania zimnej wody niezbędnej do systemów klimatyzacji. Dlatego na przykład Facebook wdrożył jedno ze swoich największych centrów danych na Alasce. Zazwyczaj systemy informacyjne i obliczeniowe są zorganizowane w szafach komputerowych, jak pokazano na rysunku 1. Szafa to obudowa Electronic Industries Association o wysokości 2 metrów, szerokości 0,61 metra i głębokości 0,76 metra. Standardowa szafa może pomieścić od 40 do 42 jednostek obliczeniowych, a gęsta grupa serwerów konfiguracyjnych (zwana szafą kasetową) może pomieścić 200 jednostek obliczeniowych. Ciepło rozpraszane przez standardowy stojak wynosi 10 kW, a stojak z ostrzami rozprasza ciepło do 30 kW. Zazwyczaj centrum danych zawierające 2000 szaf może wymagać mocy 20 MW. Uptime Institute zdefiniował cztery poziomy centrów danych w oparciu o dostępność miejsca docelowego. Poziomy 1, Poziom 2, Poziom 3 i Poziom 4 gwarantują dostępność odpowiednio 99,671%, 99,741%, 99,982% i 99,995% danych. Centra danych są skutecznie wykorzystywane w przetwarzaniu w chmurze. Są one znane jako centra danych w chmurze. Chmura jest przykładem przetwarzania poza lokalem, w którym usługi są dostarczane przez centra danych. Dostawcy usług w chmurze również są właścicielami centrów danych , które znajdują się w różnych lokalizacjach geograficznych w celu świadczenia nieprzerwanych usług w przypadku awarii i nieprzewidzianych incydentów. Infrastruktura jako usługa (znana również jako IaaS), która zapewnia usługi takie jak maszyny wirtualne, pamięć masowa i równoważenie obciążenia, utrzymuje dużą pulę zasobów w centrach danych.

Koszt

Główne koszty ponoszone przez centra danych to infrastruktura, zasilanie i chłodzenie. Rosnące koszty energii i troska o środowisko sprawiły, że centra danych znajdują się pod ogromną presją, aby zmniejszyć zużycie energii. Według Obrony Zasobów Naturalnych. W dokumencie Rady z sierpnia 2014 r. centra danych zużyły 1,3% całkowitego światowego zużycia energii w 2010 r. Niewielka poprawa zużycia energii będzie miała znaczący wpływ na koszty, oszczędzając miliony ton emisji dwutlenku węgla. Najbardziej znaną miarą używaną do pomiaru efektywności energetycznej centrum danych jest efektywność zużycia energii (PUE). Idealnym scenariuszem jest wartość PUE równa 1,0, co wskazuje na brak ogólnego zużycia energii poza sprzętem IT. Wydajność Google PUE poprawiła się z 1,21 w 2008 r. do 1,12 w 2013 r. dzięki przyjęciu najlepszych praktyk. Oczekuje się, że koszt zasilania centrów danych zdominuje wszystkie inne koszty. W celu obniżenia kosztów przyjęto niektóre najnowsze postępy technologiczne, takie jak techniki dynamicznego inteligentnego chłodzenia, wyposażone w algorytm chłodzenia uwzględniający temperaturę oraz wykorzystujący skalowany procesor i moc systemu. W 2007 roku Google wydało 2,4 miliarda dolarów na swoje centra danych, które w 2015 roku zwiększyło do 11 miliardów dolarów.

Centra danych i przyszłość Internetu: czy to dobra ekonomia?

Ekonomika centrów danych nie cieszy się należytą uwagą. Organizacje IT muszą dużo inwestować, aby założyć własne centra danych. Małe firmy raczej wynajmują w nich powierzchnię niż budować nowe obiekty. Rosnące koszty zasilania, niedobór powierzchni magazynowej z powodu baniek na rynku nieruchomości oraz trudności w pozyskiwaniu gruntów pod przemysł przekładają się na ważne kompromisy dla centrów danych. Wzrost konkurencji prowadzi do niższych cen jednostkowych, ale koszty uległy eskalacji. Duże firmy wydają się radzić sobie z rosnącymi kosztami, ponieważ rynek działalności centrów danych jest dość skoncentrowany. Rzeczywiście, duże organizacje zainwestowały w centra danych, aby wspierać przetwarzanie w chmurze. Jednak przypadkowa obserwacja sugeruje, że w tej branży zwykle działa duża liczba firm, a zatem odchylenia od najmniej kosztownych kombinacji nakładów z powodu szoków egzogenicznych mogą być katastrofalne dla wielu firm, wpływając na skalę działalności. W wielu przypadkach innowacje obniżające koszty i potencjał elastyczności są ważne, ale często są one wynikiem trwałych i kosztownych działań badawczo-rozwojowych na poziomie firmy. Większe firmy chętniej angażują się w tego typu działania. Kwestia ta jest szczególnie istotna i rodzi pytania o to, czy rynek centrów danych jest wystarczająco konkurencyjny i czy małe firmy powstrzymają ten atak.

Bieżące i przyszłe badania

Lata 2010 były świadkami eksplozji badań akademickich i sponsorowanych przez przemysł nad centrami danych. Jednym z gorących tematów jest fuzja dużych zbiorów danych i centrów danych w chmurze. Pojawienie się przetwarzania w chmurze i platform o wysokiej wydajności, takich jak Hadoop i Scala, położyło podwaliny pod analizę dużych zbiorów danych wykorzystującą dźwignię zapewnianą przez internetowe centra danych. Internetowe centra danych opierają się na przetwarzaniu rozproszonym, które jest podatne na zagrożenia bezpieczeństwa. Bezpieczeństwo danych jest poważnym problemem, a w szczególności bezpieczeństwo dużych zbiorów danych to obszar, w którym odbywa się wiele działań badawczych. Naukowcy w coraz większym stopniu koncentrują się na optymalizacji różnych składników kosztów, co w konsekwencji poprawi dochody organizacji i być może zapewni opcje zrównoważonego rozwoju małych i średnich przedsiębiorstw w tej branży. Znaczna działalność badawcza koncentrowała się na równoważeniu obciążenia przychodzących żądań w centrach danych. Ekonomika i zarządzanie centrami danych to obszary, którym należy się uważnie przyjrzeć w najbliższej przyszłości.



Powrót

Internet Engineering Task Force



Internet Engineering Task Force (IETF) to najważniejsza komisja normalizacyjna zajmująca się komunikacją między komputerami za pomocą sieci transmisji pakietów danych. Istnieje duża i rosnąca różnorodność hostów internetowych, od czujników po interaktywne urządzenia do pomiaru energii elektrycznej, komputery osobiste, stacje robocze, platformy użytkowników, duże farmy serwerów i komputery typu superkomputer. Założona w 1986 r., historyczna korzenie IETF sięgają finansowanej przez rząd Stanów Zjednoczonych sieci ARPANET, opracowanej w latach 60. XX wieku przez Agencję Zaawansowanych Projektów Badawczych Departamentu Obrony USA. IETF jest stowarzyszony z Internet Society, niezależną organizacją non-profit. Członkostwo w IETF jest otwarte dla wszystkich osób, bez opłat rejestracyjnych. Działania robocze IETF są zorganizowane w dużej liczbie grup roboczych poświęconych określonym obszarom. Spotkania IETF odbywają się co roku, najczęściej w Ameryce Północnej, Europie i Azji, a uczestniczą w nich przedstawiciele różnych dziedzin. Decyzje nie są oparte na formalnym głosowaniu, ale na konsensusie wśród członków. Trwa proces publikacji w celu ujednolicenia dokumentów IETF publikowanych w tzw. prośbach o komentarze (RFC), które są publicznie dostępne za darmo w edytorze RFC. Dokumenty RFC na ścieżce standardów osiągają status proponowanego standardu po osiągnięciu porozumienia w społeczności IETF. Przed 2011 r. proponowana norma mogła stać się projektem normy w oparciu o co najmniej dwa udane wdrożenia. Projekt standardu mógłby ostatecznie uzyskać status standardu internetowego w oparciu o dalsze doświadczenia i szerokie wdrożenie. W 2011 r. zreformowano organizację ścieżki normalizacyjnej, ograniczając zakres dalszych wymagań w fazie wdrażania oraz eliminując kategorię projektu normy. Od tego czasu jedyne rozróżnienie dotyczy standardu proponowanego i standardu internetowego (RFC 6410). Z drugiej strony dokumenty RFC na ścieżce niestandardowej również odzwierciedlają znaczny wysiłek IETF o statusie informacyjnym, eksperymentalnym lub historycznym. Do 23 grudnia 2016 r. łączna liczba dokumentów RFC osiągnęła 8039. W tym wpisie rozważane są trzy główne tematy, które odzwierciedlają ewolucję IETF od lat 80. XX wieku: po pierwsze, uniwersalna łączność sieci transmisji danych między hostami nadawcy i odbiorcy; po drugie, zarządzanie przeciążeniami w Internecie; i po trzecie, pojawiające się wymagania stochastycznych i deterministycznych gwarancji jakości ruchu dla transmisji pakietów danych, aby umożliwić Internet rzeczy.

Uniwersalna łączność i kontrola transmisj

Protokół/stos protokołów internetowych Podstawy obecnej architektury internetowej zostały opracowane w ramach programu internetowego Agencji Zaawansowanych Projektów Badawczych Departamentu Obrony Stanów Zjednoczonych. Opracowano hierarchiczny schemat warstw protokołów (stos protokołów). We wrześniu 1981 r. opublikowano przełomowe standardy internetowe, które położyły podwaliny pod stos protokołu kontroli transmisji/protokołu internetowego (TCP/IP). Najniższą warstwę stanowi fizyczna infrastruktura sieci komunikacyjnej. Podstawowa logistyka sieciowa transmisji pakietów danych znajduje się w dolnej warstwie sieci, podczas gdy protokoły warstwy transportowej i protokoły aplikacyjne wyższego poziomu znajdują się na górnym końcu stosu. RFC791 wprowadził narodziny protokołu IP w warstwie sieciowej, umożliwiając transmisję pakietów danych (lub datagramów) od hosta nadawcy do hosta docelowego za pośrednictwem połączonego zestawu sieci za pomocą znormalizowanych reguł adresowania, trasowania i fragmentacji. W przeciwieństwie do tradycyjnej telekomunikacji z komutacją obwodów, pakiety danych (lub datagramy) należące do tego samego przepływu transmisji nie muszą być przesyłane razem tą samą ścieżką, ale są fragmentowane i ponownie składane w docelowym hoście przy użyciu adresów przenoszonych w nagłówkach pakietów. RFC 792 definiuje standard Internet Control Message Protocol umożliwiający hostowi docelowemu komunikację z hostem nadawczym w celu zgłaszania błędów. Standard IP nie skupia się na niezawodności transmisji pakietów danych poprzez retransmisję utraconych pakietów danych czy kontrolę przepływu. Zarządzanie ruchem w celu umożliwienia niezawodnej transmisji pakietów danych pomiędzy hostem nadawcą a odbiorcą realizowane jest przez protokół TCP znajdujący się w warstwie transportowej (RFC 793). Zarządzanie ruchem odbywa się na komputerach-hostach zlokalizowanych na obrzeżach Internetu. Utraty pakietów w transmisji danych są sygnalizowane w przypadku pozytywnego potwierdzenia hosta odbiornika w ciągu a interwał limitu czasu nie dociera do hosta nadawcy. Jeśli tak, utracone pakiety danych są retransmitowane przez hosta nadawcy. Aby zapewnić niezawodność i zmniejszyć przeciążenie sieci, host nadawcy zmniejsza prędkość wysyłania. Ze względu na narastające problemy z przeciążeniem i "załamaniem się przeciążenia" Internetu w 1986 r., znaczne ulepszenia protokołów TCP zostały wymuszone jako standard internetowy (RFC 1122) w 1989 r. poprzez wdrożenie bardziej subtelnych algorytmów unikania i kontroli zatorów (połączenie "wolnego startu" z "unikanie zatorów"). Chociaż TCP jako protokół zorientowany na połączenie zapewnia wyższą niezawodność transmisji pakietów niż alternatywny, bezpołączeniowy protokół User Datagram Protocol, TCP nie może zapewnić gwarancji jakości ruchu.

Aktywne zarządzanie ruchem i różnicowanie jakości ruchu

Od lat 90. XX wieku, w związku z rosnącym przechodzeniem z Internetu wąskopasmowego na szerokopasmowy, IETF podjął duże wysiłki w celu opracowania standardów dla jakości ruchu heterogenicznego w Internecie. Konieczność aktywnego zarządzania zasobami sieciowymi, takimi jak przepustowość, aby spełnić wymagania aplikacji w czasie rzeczywistym, została uznana i doprowadziła do przesunięcia punktu ciężkości IETF na zbadanie możliwości rozszerzenia możliwości architektury Internetu, aby świadczyć nie tylko usługi w czasie nierzeczywistym, takie jak e-maile i przesyłanie plików, ale także usługi w czasie rzeczywistym, bez wymogu alternatywnej infrastruktury fizycznej. W opublikowanym w 1994 r. dokumencie informacyjnym RFC 1633 przedstawiono podstawową koncepcję przyjęcia protokołu pojedynczej warstwy sieci dla usług czasu rzeczywistego i nieczasu rzeczywistego. Podstawowym spostrzeżeniem było to, że w celu zapewnienia heterogenicznych jakości ruchu (zwanych usługami zintegrowanymi [IntServ]) konieczne staje się przesunięcie pasywnego zarządzania ruchem opartego na protokole TCP zlokalizowanego w warstwie transportowej do aktywnego zarządzania ruchem zlokalizowanego w warstwie sieciowej. Aby zapewnić gwarancje jakości ruchu umożliwiające świadczenie usług opartych na protokole IP w czasie rzeczywistym, kluczowa staje się kontrola opóźnień pakietów danych. Aktywne zarządzanie ruchem musi opierać się na funkcjonalności warstwy sieciowej i być realizowane przez routery. W ten sposób można ustanowić różne klasy ruchu i wyposażyć je w heterogeniczne gwarancje jakości ruchu, koncentrując się na opóźnieniach przypadających na pakiet. Routery mogą mieć kilka aktywnych funkcji zapewniających wymagany poziom jakości ruchu. Pakiety mogą być oznaczane i ustalane priorytety zgodnie z poziomami priorytetów różnych klas ruchu. Pakiety pochodzące z a pojedynczy host może być przypisany do różnych klas ruchu iw ten sposób może otrzymywać różne priorytety. Oprócz mechanizmów szeregowania pakietów mogą być również wymagane mechanizmy kontroli dostępu. IETF opracował dwa alternatywne protokoły architektury ruchu: (1) IntServ/RSVP (Resource Reservation Protocol) i (2) DiffServ (Differentiated Services). Proces standaryzacji IntServ/RSVP rozpoczął się w 1997 roku od zaproponowania standardu RFC 2205 i miał na celu zapewnienie wysokiej i stabilnej jakości transmisji pakietowej dostosowanej do wymagań jakości ruchu aplikacji działających w czasie rzeczywistym w oparciu o kompleksową rezerwację zasobów i kontrolę dostępu oraz najlepszą jakość transmisji w przypadku aplikacji niedziałających w czasie rzeczywistym. W ciągu następnej dekady wysiłki standaryzacyjne dla IntServ, aw szczególności RSVP, były kontynuowane i zaowocowały w 2010 roku zaproponowanym standardem RFC 5946, który aktualizuje RFC 2205. Pomimo ciągłych wysiłków standaryzacyjnych architektura IntServ nigdy nie została szeroko wdrożona. Jednym z powodów mogą być problemy ze skalowalnością spowodowane wysokimi kosztami sygnalizacji stanu specyficznego dla przepływu we wszystkich routerach wzdłuż ścieżki od końca do końca. Projekt podstawowych elementów architektury DiffServ został opublikowany jako standard informacyjny RFC 2475 w 1998 r. Podstawowe podejście koncepcyjne jest ukierunkowane na cel, jakim jest umożliwienie skalowalnej architektury ruchu w dużych sieciach, unikając kontroli ruchu opartej na przepływie. Zamiast tego definiowane są różne klasy jakości ruchu. Zgodnie z proponowanym standardem RFC 2474, który został opublikowany w 1998 r., pakiety są oznaczane w polu nagłówka IP tylko na routerach wejściowych granic sieci, aby określić, do której klasy ruchu pakiety należą. Pakiety w ramach klasy ruchu są przesyłane zgodnie z dobrze zdefiniowanym, specyficznym dla klasy zachowaniem na przeskok. Pakiety wymagające małego opóźnienia, małej wariancji opóźnienia (jitter) i małej straty są traktowane priorytetowo w klasie ruchu Expedited Forwarding, zgodnie z definicją z 2002 roku w proponowanym standardzie RFC 3246 (który sprawił, że RFC 2598 stał się przestarzały). Niższe klasy ruchu są standaryzowane przez klasy Assured Forwarding, które określają również poziom pierwszeństwa odrzucania. Dostępne są wytyczne dotyczące klas ruchu DiffServ w ramach informacyjnego dokumentu RFC 4594, opublikowanego w 2006 r. i opartego na zaleceniu ITU-T (maj 2002 r.) Sektora Normalizacji Telekomunikacji Międzynarodowego Związku Telekomunikacyjnego (ITU-T). Opublikowany w 2010 r. eksperymentalny RFC 5976 proponuje projektowanie klas ruchu, a także odnosi się do ośmiu klas ruchu celów wydajności sieci określonych w ITU-T Y.1541. Wymagania dotyczące jakości ruchu wielu heterogenicznych aplikacji są odzwierciedlone przez raczej niewielką liczbę klas ruchu, które zapewniają deterministyczne lub stochastyczne gwarancje z góry określonych parametrów jakości ruchu, takich jak górna granica opóźnień pakietów, fluktuacja i współczynniki utraty pakietów. Podczas gdy protokół Voice over Internet Protocol i wideokonferencje są bardzo wrażliwe na opóźnienia i drgania, inne zastosowania, takie jak strumieniowe przesyłanie wideo w wysokiej rozdzielczości lub przesyłanie plików o dużej pojemności, są raczej wrażliwe na straty. Klasy ruchu bez gwarancji jakości ruchu są dostępne dla aplikacji wymagających jakości transmisji typu best-effort lub nawet jakości ruchu o mniejszym wysiłku (RFC 3662). Wysiłki IETF mające na celu opracowanie wielozadaniowych architektur dla wprowadzenia zróżnicowanych klas jakości ruchu koncentrują się na logistyce zarządzania ruchem opartego na protokole IP, zdolnej do dostarczania dostosowanych rozwiązań dla dużej liczby usług aplikacyjnych. RFC 4594 pokazuje, że IETF ponadto uznaje podział pracy między swoją własną rolą jako komitetu ustanawiającego standaryzację a podejmowaniem decyzji przedsiębiorczych na podstawie tych standardów. Te ostatnie obejmują decyzje dotyczące inwestycji w zasoby sieciowe oraz wyboru i realizacji logistyki zarządzania ruchem.

IETF i Internet rzeczy

Komunikacja maszyna-maszyna w tak zwanym Internecie rzeczy zyskuje coraz większe znaczenie w przekształcaniu tradycyjnych branż sieciowych w inteligentne sieci, w których czas rzeczywisty adaptacyjne wymagania dotyczące geolokalizacji i mobilności odgrywają szczególnie ważną rolę. Internet rzeczy zapewnia wirtualną podstawę do łączenia dużej liczby urządzeń fizycznych. Przykładami są inteligentne sieci, sieciowa i zautomatyzowana jazda, koncepcje inteligentnych miast i aplikacje e-zdrowia. Podczas gdy w przeszłości Internet szerokopasmowy nabierał coraz większego znaczenia w celach komunikacyjnych i rozrywkowych, Internet Rzeczy odgrywa kluczową rolę w budowaniu interfejsu umożliwiającego łączenie sieci fizycznych (np. stymulując w ten sposób rozprzestrzenianie się inteligentnych sieci, takich jak dwukierunkowe sieci czujników. Chociaż ITU-T odgrywa ważną rolę w działaniach normalizacyjnych dla inteligentnych sieci, IETF wniósł kilka fundamentalnych innowacji związanych z IP. Po pierwsze, ze względu na bardzo dużą liczbę urządzeń podłączonych do Internetu Rzeczy, przestrzeń adresowa tradycyjnej wersji IP (IPv4) osiągnęła swoje granice pojemności. Podstawę do nieuchronnego przejścia na nową wersję protokołu IP (IPv6) zdolną do zapewnienia znacznie większej przestrzeni adresowej położono w 1998 r., publikując dokument RFC 2460. Po drugie, bezprzewodowe sieci osobiste małej mocy, standaryzowane przez Instytut Stowarzyszenia Inżynierów Elektryków i Elektroników Komputerowych w standardzie IEEE 802.15.4, zostały zmodernizowane, umożliwiając transmisję pakietów IPv6. Pakiety IPv6 oparte na bezprzewodowych sieciach sensorowych małej mocy są znormalizowane w dokumencie RFC 6282 i zostały opublikowane w 2011 r. Po trzecie, ze względu na pojawiające się wymagania dotyczące mobilności w Internecie Rzeczy, protokół separacji lokalizatora/identyfikatora, opublikowany w eksperymentalnym dokumencie RFC 6830, zyskał na znaczeniu. Celem jest rozdzielenie adresów IP na dwie oddzielne przestrzenie liczbowe dla identyfikatorów węzłów i lokalizatorów węzłów zależnych od topologii sieci



Powrót

Internetowy hazard



Hazard internetowy jest przykładem przełomowych innowacji często związanych z wprowadzeniem technologii informacyjnych i komunikacyjnych. Komercjalizacja Internetu w latach 90. przyniosła wzrost kilku działań online, takich jak hazard i treści dla dorosłych, które wcześniej były ograniczone przez prawo i położenie geograficzne. Możliwość korzystania z Internetu w celu obstawiania gier losowych lub wydarzeń, takich jak mecze sportowe lub wybory, zmieniła krajobraz prawny, ekonomiczny i społeczny hazardu. Ten wpis omawia historię hazardu internetowego, uwarunkowania prawne, geografię, mechanikę, organizację oraz kwestie społeczne i prawne. Hazard, zarówno legalny, jak i nielegalny, od dawna jest częścią społeczeństwa i celem kontroli rządów motywowanych względami społecznymi lub potrzebami finansowymi. Wiele społeczności obawiało się niszczycielskiej mocy hazardu i zagrożenia, jakie stanowiło dla XIX-wiecznych rodzin i ich bogactwa. Doprowadziło to do kontroli lokalizacji, formy i uczestników gier hazardowych. Skutkiem potencjalnych społecznych i karnych konsekwencji hazardu jest krajobraz prawnych i geograficznych kontroli, które Internet dramatycznie zakłócił na początku lat 90. Istnieją rozbieżne poglądy na temat tego, jak odnosić się do hazardu internetowego, a branża hazardowa woli przekształcić tę działalność w "gry", co ma łagodniejszy rezonans i znaczenie z podobieństwami do gier wideo. Hazard sugeruje ryzyko, podczas gdy gry wydają się sugerować rozrywkę. W tym wpisie przyjęto termin hazard, aby uniknąć pomyłki z rozległą dziedziną gier online. Język hazardu przesunął się w stronę rozrywki, czyli jak wiele jest realnych i wirtualnych źródeł hazardu są prezentowane opinii publicznej. Obecnie hazard internetowy obejmuje szeroki zakres działań, w tym gry kasynowe (np. poker, blackjack, ruletka), zakłady sportowe i na wydarzenia (np. piłka nożna, koszykówka, wyścigi konne, wybory) oraz loterie. W przeszłości legalny hazard był ściśle kontrolowany przez rządy w wielu wymiarach, takich jak gry, miejsce hazardu, wiek i/lub narodowość uczestników, godziny pracy, referencje pracowników i źródło inwestycji. Ogólnie rzecz biorąc, tego rodzaju ograniczenia miały na celu ograniczenie dostępu do gier hazardowych i uniemożliwienie korzystania z nich przez przestępców. Na przykład zatwierdzane są licencje dla uznanych gier kasynowych pod określonym adresem i dla osób starszych niż 18 lub 21 lat, wraz z weryfikacją operatorów pod kątem przestrzegania przepisów finansowych i pracowniczych. Standardy i warunki gry, wraz ze specyfikacjami przestrzeni fizycznej, są często ustalane za pomocą zasad i kodeksów hazardowych. Niektóre obszary szukają korzyści ekonomicznych z hazardu, ale całkowicie ograniczają dostęp lokalnych mieszkańców lub podlegają opłacie, na przykład w Singapurze, gdzie mieszkańcy muszą płacić za korzystanie z kasyn w państwie-mieście, podczas gdy goście nie. Licencjonowanie gier hazardowych ogranicza również konkurencję, ponieważ wysokie bariery wejścia, zarówno finansowe, jak i moralne, zapewniają zatwierdzonym firmom przestrzenne oligopole. Wreszcie, niektóre rządy czerpią dochody z gier hazardowych, takich jak loterie, ponieważ chcą chronić swoich obywateli przed konkurencyjnymi działaniami. Skala hazardu internetowego znacznie wzrosła od lat 99. XX wieku, chociaż uzyskanie danych może być trudne ze względu na status prawny niektórych operacji i zastrzeżony charakter informacji biznesowych. KPMG oszacowało w raporcie z 2010 r., Że hazard internetowy na całym świecie jest branżą o wartości 30 miliardów USD, podczas gdy w 2014 r. Deloitte podał, że branża ta wyniosła 34 miliardy USD w 2012 r., W porównaniu ze wszystkimi światowymi przychodami z hazardu w wysokości 417 miliardów USD. Hazard online, stanowiący łącznie mniej niż 10% hazardu, ma znaczny potencjał wzrostu, zarówno w rozwijających się regionach, takich jak Azja, jak i w formatach mobilnych.

Warunki prawne

W połowie lat 90. komercyjny Internet szybko zakwestionował ścisłą kontrolę nad tym, co, kto, kiedy i gdzie może mieć miejsce hazard. W wielu przypadkach Internet wymazał znaczenie miejsca i dostępu, ponieważ istniało wiele miejsc, w których hazard online mógłby być legalny, jednocześnie umożliwiając mieszkańcom kontrolowanych jurysdykcji dostęp do zakładów. Na przykład osoby w Stanach Zjednoczonych mogą korzystać z Internetu, aby uzyskać dostęp do kasyn online legalnie zlokalizowanych na Antigui. Dostęp do Internetu oznacza również, że można łatwo ominąć ograniczenia dotyczące tego, kto może uprawiać hazard, zwłaszcza osoby niepełnoletnie, podobnie jak przepisy dotyczące godzin gry, rodzajów gier hazardowych i lokalizacji gier hazardowych. Hazard online stanowi wyzwanie dla każdej kontroli wprowadzonej przez społeczeństwa i rządy w celu ograniczenia legalnego hazardu. Istotą hazardu internetowego jest jurysdykcja, powiązanie praw z miejscami, które określają legalność działalności w określonym miejscu i czasie. Chociaż dostęp telefoniczny umożliwiał obejście przepisów dotyczących hazardu w połowie XX wieku, koszt i możliwość komunikacji zapewniały jedynie ograniczony dostęp do odległych miejsc hazardowych. W przeciwieństwie do tego Internet umożliwił radykalną zmianę w dostępie, tak że większość ludzi mieszkających w kontrolowanych lokalizacjach hazardowych mogła uzyskać dostęp do lokalizacji, w których znajdują się legalne firmy hazardowe online. Mimo że hazard online w miejscach, w których był zakazany, narusza lokalne przepisy, trudność w wykryciu i aresztowaniu nie zniechęciła wielu osób do udziału. Możliwość legalnego uprawiania hazardu w innym kraju doprowadziła do dekady sporów sądowych i konfliktów dotyczących miejsca uprawiania hazardu oraz roli rządów w kontrolowaniu dostępu. W Stanach Zjednoczonych ustawa Unlawful Internet Gambling Enforcement Act z 2006 r. stwierdziła nielegalność większości gier hazardowych w Internecie w tym kraju, chociaż wiele osób w Stanach Zjednoczonych nadal uprawiało hazard online. W szczególności rozwój gier hazardowych w Internecie postawił Stany Zjednoczone, które ściśle kontrolują dostęp i warunki wszystkich rodzajów gier hazardowych, do krajów, w których ta działalność była legalna. W 2005 r. Antigua złożyła skargę do Światowej Organizacji Handlu (WTO), że amerykańskie ograniczenia hazardu internetowego kolidują z wolnym handlem usługami rekreacyjnymi. WTO podtrzymała roszczenie Antigui i potwierdziła je w procesie odwoławczym. Spór rozpoczął się w 2004 roku i pomimo orzeczeń WTO konflikt trwa nadal jako kwestia między Stanami Zjednoczonymi a Antiguą. Początkowo twierdzono, że kraje przyjmujące hazard online powinny ograniczać dostęp mieszkańców miejsc, w których hazard nie jest dozwolony, ale wkrótce zostało to prawnie odrzucone, a skupiono się ponownie na kontrolowaniu użytkowników, a nie na źródle. Wyzwanie związane z tym skutkiem prawnym polegało na tym, że o wiele trudniej jest kontrolować miliony graczy online niż tysiące witryn hazardowych.

Geografia hazardu internetowego

Częstymi lokalizacjami hazardu internetowego są kraje, które mają podstawę prawną do prowadzenia działalności oraz rozwiniętą infrastrukturę internetową i bankową wspierającą działalność komercyjną. Pierwszym regionem, w którym rozwinął się hazard internetowy, były Karaiby i Ameryka Środkowa, które obsługiwały duży rynek gier hazardowych w Stanach Zjednoczonych. Kraje z ugruntowaną branżą internetową to Antigua i Barbuda, Belize, Kostaryka, Curaçao, Panama oraz Saint Kitts i Nevis. InternetGeografia hazardu internetowego Typowe lokalizacje hazardu internetowego to kraje, które mają podstawę prawną do prowadzenia działalności oraz rozwiniętą infrastrukturę internetową i bankową wspierającą działalność komercyjną. Pierwszym regionem, w którym rozwinął się hazard internetowy, były Karaiby i Ameryka Środkowa, które obsługiwały duży rynek gier hazardowych w Stanach Zjednoczonych. Kraje z ugruntowaną branżą internetową to Antigua i Barbuda, Belize, Kostaryka, Curaçao, Panama oraz Saint Kitts i Nevis. Hazard internetowy został później zalegalizowany na Cyprze, Gibraltarze, Wyspie Man i Malcie. Wspólnymi tematami w tych krajach jest historia pełnienia funkcji regionalnych centrów usług dla biznesu i bankowości oraz potrzeba zidentyfikowania działalności gospodarczej, która mogłaby służyć ich potrzebom rozwojowym. Często hazard internetowy znajduje bazę w miastach i krajach peryferyjnych w stosunku do głównego nurtu działalności gospodarczej, przy czym Internet zapewnia połączenie z dużymi rynkami, których wewnętrznie brakuje w tych krajach. Ponadto kraje te często znajdowały inny cel rozwojowy w międzynarodowym systemie finansowym do obsługi przepływów środków związanych z hazardem internetowym. Jednym z wyzwań dla tych krajów jest to, że wraz ze wzrostem presji na legalizację hazardu internetowego na głównych rynkach w Stanach Zjednoczonych i Europie Zachodniej ich przewaga jurysdykcyjna zostanie utracona, ponieważ hazard internetowy za granicą konkuruje ze źródłami krajowymi. W Kanadzie i Stanach Zjednoczonych istnieje również możliwość regionalnego hazardu za pośrednictwem grup First Nation i rdzennych Amerykanów, które mają prawną kontrolę nad działalnością na ich ziemi. Doprowadziło to nie tylko do znacznych inwestycji w tradycyjne gry hazardowe w rezerwatach, ale także do wykorzystania ziem plemiennych do gier hazardowych w Internecie. Najbardziej rozwiniętym tego przykładem jest Kahnawake, terytorium Mohawków w Quebecu, które od dawna ma ugruntowaną branżę związaną z technologią informacyjną, a później hazardem online. Kahnawake ma regulowany sektor gier hazardowych, który obsługuje rynek międzynarodowy, chociaż rosnąca presja ze strony Stanów Zjednoczonych w ciągu ostatnich 15 lat ograniczyła jego zasięg, tak że od września 2016 r. nie udziela już licencji kasynom internetowym skierowanym na Stany Zjednoczone.

Mechanika hazardu internetowego

Przed hazardem internetowym ten sam wynik można było osiągnąć, korzystając z połączeń telefonicznych w celu uzyskania dostępu do zakładów offshore, zwłaszcza w przypadku wydarzeń sportowych. Internet zwrócił uwagę na dostęp do komputerów stacjonarnych i laptopów za pomocą oprogramowania internetowego. Obecnie rozwój hazardu internetowego opiera się na dostępie smartfonów do stron hazardowych, dzięki czemu dostęp dla wielu może być niemal wszechobecny. Strony internetowe są tworzone i często hostowane na serwerach w jurysdykcjach, które zezwalają na tę działalność, przy czym nazwy domen witryn hazardowych często odnoszą się do znanych miast, takich jak Las Vegas czy Monte Carlo, ale znajdują się gdzie indziej. U podstaw operacji związanych z hazardem internetowym leży zarządzanie przepływami finansowymi między graczami a kasynami online. Identyfikacja fizycznej lokalizacji witryny internetowej i jej właściciela może być trudna, ale każda witryna zazwyczaj zawiera informacje bankowe, które często znajdują się poza Stanami Zjednoczonymi lub Europą Zachodnią. Początkowe wykorzystanie trybów transakcji takie jak karty kredytowe doprowadziły do wysokich wskaźników niewypłacalności i przepisów bankowych, które w dużej mierze wyeliminowały tę drogę do gier hazardowych online. Hazard internetowy ewoluował i obejmuje szeroką gamę gier i wydarzeń, w tym gry kasynowe (np. ruletka, keno), gry karciane (np. blackjack, poker), zakłady na wydarzenia (np. sport, wybory) i loterie . Jednym z obszarów wzrostu hazardu internetowego są zakłady na wydarzenia sportowe, które są popularne wśród młodszych ludzi, ale są również źródłem tarć między rządami. Zakłady sportowe są legalne tylko w czterech stanach w Stanach Zjednoczonych (Nevada, Oregon, Montana i Delaware) i są wyraźnie zakazane we wszystkich innych stanach, zapewniając przestrzenny monopol na operacje związane z hazardem sportowym. Ograniczenia geograficzne są kwestionowane przez hazard internetowy, ponieważ jest on w stanie uniknąć tego ograniczenia, lokując się na morzu. Internetowy dostęp do zakładów sportowych rozszerza rynki, ponieważ pozwala osobom zainteresowanym amerykańskimi i europejskimi wydarzeniami sportowymi uprawiać hazard, podczas gdy w przeszłości nie mieliby takiego dostępu. W artykule z 2011 roku Brad Humphreys zauważa, że nie tylko rządy są zaniepokojone skutkami społecznymi i utraconymi dochodami spowodowanymi przez hazard sportowy w Internecie, ale także same sporty. Główne sporty zawodowe i amatorskie dostrzegają potencjał organizowania lub ustawiania meczów oraz wprowadzenia korupcji wśród sportowców.

Organizacja

Początkowo hazard internetowy był oferowany przez małe firmy poszukujące niszy w w dużej mierze nieuregulowanej branży. Ugruntowane interesy związane z hazardem unikają działań online z obawy przed implikacjami dla ich znacznie większych operacji naziemnych. Branża widziała rozwój dużych firm internetowych poprzez fuzje i przejęcia oraz wejście na rynek online istniejących firm hazardowych. Firmy z ugruntowaną fizyczną działalnością stanęły w obliczu rosnącej konkurencji ze strony źródeł internetowych, a także miały potencjał swojej marki i reputacji, aby łączyć rzeczywiste i wirtualne interesy biznesowe. Wiodące firmy hazardowe online są prowadzone przez niedawno połączone Betfair (brytyjski z licencją hazardową na Gibraltarze) i Paddy Power (Irlandia), które utworzyły w 2016 r. Paddy Power Betfair z kapitalizacją rynkową przekraczającą 12 miliardów USD. Inne wiodące firmy to firma William Hill zajmująca się hazardem fizycznym i internetowym (6 mld USD z siedzibą w Wielkiej Brytanii), twórca oprogramowania Playtech (6 mld USD z siedzibą na Wyspie Man) oraz operatorzy witryn hazardowych Amaya (3,5 mld USD w Kanada) i Unibet (2,9 mld USD na Malcie).

Kwestie

Gry hazardowe w ogóle są często kojarzone z kwestiami społecznymi i prawnymi, a sama regulacja gier hazardowych odwołuje się do problemów jako uzasadnienia dla ustanowienia limitów i kontroli uczestnictwa. Problemy pogłębiają się w przypadku dostępu online, ponieważ wiele kontroli dostępu zostało usuniętych lub można ich łatwo uniknąć. Chociaż na przykład wiele krajów zabrania hazardu dla osób w wieku poniżej 18 lub 21 lat, obowiązujące procedury weryfikacji wieku mają trudności równe weryfikacji osób i tożsamości, którą mogą zapewnić fizyczne obiekty. Oznacza to, że młodzi ludzie lub uzależnieni od hazardu mają łatwy dostęp przez Internet, bez kontroli i nadzoru, który towarzyszy tradycyjnemu kasynu. Nieprzejrzysty charakter hazardu online może być również wykorzystywany do omijania lub łamania prawa oraz promowania nielegalnego przepływu funduszy lub ukrywania innej nielegalnej działalności. Wiele z tych problemów wynika z natury Internetu i płynnego znaczenia przestrzeni i jurysdykcji w cyberprzestrzeni. Używanie i uzależnienie od hazardu internetowego stwarzają wiele problemów społecznych i ekonomicznych, które często są trudne do zidentyfikowania i odkrycia, ponieważ są online. Jednym z najczęściej badanych tematów hazardu internetowego jest jego wpływ na zdrowie i zachowanie, zwłaszcza młodych ludzi. Gracze internetowi są częściej młodsi i rzadziej szukają pomocy niż gracze nieinternetowi. Istnieją również dowody na związek między hazardem internetowym a szkodliwymi zachowaniami, w tym nadużywaniem alkoholu i narkotyków. Innym problemem związanym z hazardem internetowym jest pranie pieniędzy, czyli próba oczyszczenia nielegalnych funduszy pochodzących z kradzieży, oszustw lub uchylania się od płacenia podatków. Financial Action Task Force zidentyfikowała trzy elementy Internetu, które sprawiają, że hazard online jest narzędziem prania pieniędzy: (1) łatwy dostęp online, (2) depersonalizacja kontaktu oraz (3) szybkość transakcji elektronicznych. Oczekuje się, że legalna branża gier hazardowych online będzie czujna wobec korzystania z działań online, które łamią prawo, ale nie wszystkie jurysdykcje wymagają monitorowania lub pełnej identyfikacji graczy. Po tysiącach lat obstawiania i zakładów Internet w latach 90. zapoczątkował poważną zmianę organizacyjną, zmieniając fundamentalną podstawę prawną hazardu. Internet usunął granice terytorialne, fizyczną obecność i obserwację hazardzisty, które stanowiły podstawę kontroli działalności. Umożliwiając dostęp do stron internetowych w krajach, w których hazard jest legalny, zniesiono kontrolę nad podażą możliwości hazardowych. Jednocześnie możliwa była również możliwość częściowej lub całkowitej autonomii co do wieku i lokalizacji, co rozszerzyło popyt na osoby niepełnoletnie uprawniające do uprawiania hazardu. Wreszcie rosnąca wszechobecność dostępu dla wielu osób za pośrednictwem komputerów i telefonów komórkowych oznaczała, że hazard nie wymagał już specjalnej wycieczki do kasyna lub legalnej lokalizacji, ale zamiast tego można go było doświadczyć prawie w dowolnym miejscu i czasie. Konsekwencje łączenia technologii informacyjnych i komunikacyjnych z ludzkimi zachowaniami doprowadziły do kwitnącego globalnego przemysłu i związanego z nim wzrostu gospodarczego, a także wzrostu problemów społecznych i przestępczych.



Powrót

Internetowy GIS



Internetowe systemy informacji geograficznej (GIS) to sieciowe GIS, które wykorzystują Internet do uzyskiwania dostępu, analizowania, wizualizacji i dystrybucji informacji geograficznych. Jest to termin blisko spokrewniony z web GIS i rozproszonym GIS, ale istnieją różnice między tymi nazwami. Internet to infrastruktura sieciowa, która łączy miliony urządzeń na całym świecie. Dzięki takim połączeniom wszystkie urządzenia tworzą sieć, w której klienci mogą komunikować się z dowolnym innym komputerem, o ile oba są podłączone do Internetu. Sieć jest jedną z usług obsługiwanych przez Internet, a system jest sieciowym GIS, jeśli korzysta tylko z technologii sieciowych i żadnych innych usług internetowych. Rozproszony GIS kładzie nacisk na środowisko sieciowe i obejmuje zarówno przewodowe, jak i bezprzewodowe kanały, za pośrednictwem których usługi i operacje GIS są dostępne dla podłączonych urządzeń klienckich. Należy jednak zauważyć, że te trzy terminy są czasami używane zamiennie, chociaż w rzeczywistości implikują różne znaczenia internetowego GIS. W tym wpisie omówiono historię, ramy, standardy, technologie rozwoju, aplikacje i przyszłe kierunki internetowego GIS.

Historia i rozwój

We wczesnej fazie GIS wszystkie komponenty, takie jak sprzęt, oprogramowanie, dane i użytkownicy, były zintegrowane w jednym komputerze. W takim samodzielnym GIS-ie dla komputerów stacjonarnych nie było bezpośredniej komunikacji danych ani interakcji funkcjonalnych z innymi komputerami. Nawet przy rozwoju pulpitu GIS opartego na sieci lokalnej, skonfigurowanego w modelu klient/serwer, każdy komputer nadal wymagał od użytkowników indywidualnej instalacji oprogramowania GIS. Z tego powodu oprogramowanie GIS było dostępne tylko dla kilku użytkowników. Rozwój technologii internetowych pobudził GIS do dalszej ewolucji, od samodzielnych pakietów biurkowych do systemów opartych na Internecie, które umożliwiały komunikację między komputerami klienckimi a serwerami. Ewolucja zmieniła również sposób zarządzania bazami danych GIS, od scentralizowanych konfiguracji po formaty rozproszone. Wraz ze wzrostem wydajności sprzętu komputerowego i oprogramowania, GIS był stopniowo wzmacniany. Zarządzanie danymi i funkcje analityczne w GIS mogą być teraz zlokalizowane na oddzielnych komputerach połączonych przez Internet na duże odległości fizyczne. Wiele wczesnych internetowych systemów GIS, skupiających się głównie na internetowych usługach mapowania, zapewniało jedynie ograniczone funkcje analityczne. Ich zastosowania były ograniczone w przypadku hostowania wielu jednoczesnych użytkowników. Jednak takie wczesne formy połączeń przez Internet pokazały, że każdy autoryzowany użytkownik w dowolnym miejscu na świecie może korzystać z komputera, laptopa, osobistego asystenta cyfrowego lub telefonu komórkowego w celu uzyskania dostępu do internetowego GIS bez instalowania programów GIS na swoich komputerach klienckich. Wraz z rozwojem technologii internetowej, Internet GIS rozszerzył swoje funkcje od wyświetlania map internetowych do wykonywania większości, jeśli nie wszystkich, funkcji GIS. Funkcje te obejmują przechwytywanie, przechowywanie, edytowanie i manipulowanie danymi, a także analizowanie i wizualizację danych oraz udostępnianie uzyskanych wyników. Koncepcja usługi sieciowej pojawiła się pod koniec lat 90. Był to znormalizowany sposób integrowania aplikacji internetowych przy użyciu otwartych standardów (XML [extensible markup language]) przez sieć szkieletową protokołu internetowego (SOAP [Simple Object Access Protocol]). Zdając sobie sprawę z zalet usług sieciowych, społeczność GIS przyjęła tę technologię do implementacji współdziałania różnych aplikacji poprzez udostępnianie zasobów obliczeniowych i danych. Zarządzanie danymi, wykorzystanie oprogramowania i platformy zasobów obliczeniowych mogą być dostarczane jako usługi sieciowe. Pod względem konfiguracji Internet GIS to nie tylko GIS, ale także zestaw usług, które można wykorzystać do rozwijania innych GIS. Teraz z interfejsem programowania aplikacji internetowych (API), który jest interfejsem API dla usługi sieciowej, Internet GIS przeszedł z usług sieciowych opartych na protokole SOAP do opartych na reprezentatywnym transferze stanu (REST). Te internetowe interfejsy API RESTful są dostępne za pośrednictwem standardowych metod protokołu przesyłania hipertekstu (HTTP) przez różnych klientów HTTP, w tym przeglądarki i urządzenia mobilne. Na przykład Yahoo Maps zapewnia REST dla wszystkich swoich usług internetowych. Coraz częściej generowane są ogromne dane geoprzestrzenne i coraz dokładniejsza technologia sprawiają, że Internet GIS jest bardziej inteligentny niż kiedykolwiek. Jako sposób świadczenia ukierunkowanych usług, oparte na lokalizacji usługi GIS zapewniają ludziom możliwość dzielenia się swoimi położeniami geograficznymi z przyjaciółmi i/lub znajdowania interesujących rzeczy wokół siebie w dowolnym momencie. W połączeniu z mobilnym GIS ludzie mogą planować trasy podróży na podstawie informacji o ruchu drogowym w czasie rzeczywistym. Internetowe GIS zmieniły sposób, w jaki ludzie żyją i, jak większość twierdzi, poprawiły jakość ludzkiego życia.

Ramy internetowego GIS

Model klient-serwer


Internetowe systemy GIS są obecnie często konfigurowane w modelach klient-serwer. W takiej konfiguracji urządzenie klienckie wysyła żądanie, a serwer, który je otrzymuje, spełnia je i dostarcza wyniki z powrotem do urządzenia klienckiego. Na przykład, gdy użytkownik po stronie klienta używa graficznego interfejsu użytkownika (GUI) do wysłania żądania do połączonego serwera, serwer odpowiada na żądanie i przesyła klientowi informację zwrotną. Oznacza to, że w procesie komunikacji klient jest aktywnym komponentem, a serwer pasywnym. Logicznie rzecz biorąc, te dwa komponenty są definiowane na podstawie zgłoszeń serwisowych, dzięki czemu są całkowicie niezależne. Jednak w modelach fizycznych klient to komputer, z którego korzysta użytkownik po stronie klienta, a serwer to komputer używany do przetwarzania logicznego i/lub przechowywania danych. Zazwyczaj serwery działają na potężnych maszynach, podczas gdy klientami mogą być komputery stacjonarne lub urządzenia mobilne. Jednak nie zawsze tak jest, ponieważ klienci i serwer mogą czasami znajdować się na tym samym komputerze. Internetowa architektura klient-serwer, często nazywana po prostu modelem B/S (model Blacka-Scholesa), jest szczególnym przypadkiem ogólnego modelu klient-serwer z przeglądarkami internetowymi jako klientami. W modelu B/S nie ma potrzeby instalowania dodatkowego oprogramowania klienckiego, ponieważ użytkownicy uzyskują dostęp do aplikacji za pomocą przeglądarki internetowej. W początkach technologii internetowej, kiedy przeglądanie stron internetowych było ograniczone szybkością Internetu, klienci przeglądarek byli cienkimi klientami, z których korzystano ,czysty GUI do wysyłania żądań i wyświetlania wyników. Wraz z rosnącą przepustowością pojawił się gruby klient Internet GIS. Te internetowe systemy GIS wykorzystują aplikacje po stronie klienta o zwiększonej wydajności, takie jak wtyczki do przeglądarek, formanty ActiveX, do wykonywania prostych operacji przetwarzania danych lub logiki biznesowej. Oprócz modelu klient-serwer, Internet GIS może wykorzystywać architekturę peer-to-peer, w której peer-to-peer komunikują się ze sobą bezpośrednio, dzięki czemu klienci i serwer nie są utwierdzeni w modelu logicznym lub fizycznym. Internetowy GIS często działa jednocześnie jako serwer i klient. Aby umożliwić komunikację między serwerem a klientami podczas przetwarzania zgłoszeń serwisowych, niezbędny jest komponent połączenia, zwany "klejem". Rolą kleju jest umożliwienie klientowi i serwerowi komunikacji w tym samym języku i przestrzeganiu tych samych reguł (np. HTTP, TCP/IP [Transmission Control Protocol/Internet Protocol], SOAP). Po skonfigurowaniu kleju serwer może zrozumieć, czego chce klient podczas otrzymywania i przetwarzania żądania wysłanego przez klienta.

Architektura aplikacji internetowych GIS

Z perspektywy inżynierii oprogramowania architektura internetowego GIS jest zawsze podzielona na kilka warstw, dzięki czemu każdy komponent może być rozwijany oddzielnie i łatwo ponownie wykorzystywany przez różne aplikacje. Najpopularniejszą architekturą wielowarstwową jest architektura trójwarstwowa, która zwykle obejmuje (1) warstwę prezentacji, (2) warstwę logiki biznesowej i (3) warstwę zarządzania danymi. Każda warstwa pełni inną rolę w procesie komunikacji z poszczególnymi funkcjami. Wśród nich są również wspólne komponenty, które łączą ze sobą różne warstwy, dzięki czemu system może działać bezproblemowo. Te wspólne komponenty obejmują autoryzację bezpieczeństwa, zarządzanie operacjami i komunikację. Rysunek 1 przedstawia przegląd trójwarstwowej architektury powszechnie stosowanej w internetowym GIS. Warstwa prezentacji jest warstwą najwyższego poziomu w systemie. Zapewnia GUI (stronę internetową), aby użytkownicy mogli uzyskać bezpośredni dostęp do internetowego GIS. Jego głównym celem jest wysyłanie zgłoszeń serwisowych do serwera oraz odbieranie i prezentowanie wyników z serwera. Tymczasem ma również funkcje sprawdzania poprawności formatów danych i zapisywania tymczasowej pamięci podręcznej danych w celu zmniejszenia ilości żądanych informacji przesyłanych między klientem a serwerem w celu poprawy wydajności systemu. Warstwa logiki biznesowej (nazywana również warstwą logiki, warstwą aplikacji lub warstwą środkową) znajduje się między warstwą prezentacji a warstwą zarządzania danymi. Jak sama nazwa wskazuje, ta warstwa określa sposób wyszukiwania, przetwarzania, wyświetlania i przechowywania danych zgodnie z regułami biznesowymi i przepływami pracy. Otrzymując żądanie z warstwy prezentacji, analizuje i rozumie działania, a następnie powiadamia warstwę danych, aby wyszukała/przechowała dane po wykonaniu niezbędnych procesów biznesowych. Jeśli istnieją informacje zwrotne dotyczące danych z warstwy danych, jest ona odpowiedzialna za wstępne przetworzenie wyników odesłanych przez warstwę danych przed wyświetleniem ich za pomocą interfejsu użytkownika. Warstwa danych obejmuje adapter przechowywania danych i adapter dostępu do danych, które hermetyzują interfejsy w celu udostępniania danych lub przechowywania danych. Adapter dostępu do danych jest klejem łączącym warstwę logiki biznesowej i bazę danych. Warstwa logiki biznesowej wykorzystuje adapter dostępu do danych do komunikowania się z bazą danych w celu wyszukiwania lub przechowywania danych bez konieczności znajomości struktury danych i lokalizacji danych. Przechowywanie danych może pomieścić jedną lub więcej baz danych i serwerów plików. Usługi warstwy danych można wdrażać w dowolnym miejscu w Internecie. Autoryzacja zabezpieczeń, zarządzanie operacjami i komunikacja to wspólne komponenty współdzielone ze wszystkimi wyżej wymienionymi poziomami. Jest to infrastruktura internetowego GIS z zadaniami takimi jak walidacja użytkowników, zarządzanie błędami i dziennikami, konfiguracja i transmisja danych w oparciu o określony protokół. Wielowarstwowa architektura, która dzieli aplikację GIS na kilka niezależnych warstw, zapewnia systemowi luźne powiązanie, dzięki czemu każdą partycję można ponownie wykorzystać, wymienić lub rozszerzyć. Co więcej, między tymi poziomami można nawet dodawać dodatkowe warstwy. Z tego powodu niektóre aplikacje internetowe GIS zawierają w razie potrzeby warstwę usług między warstwą prezentacji a warstwą logiki biznesowej. Innymi słowy, architekturę trójwarstwową można dostosować do dowolnej liczby warstw w zależności od potrzeb użytkownika.

Normy

Wraz z rozwojem internetowego GIS aplikacje, dane i użytkownicy rozwijają się w niewiarygodnym tempie. Użytkownicy z różnych dziedzin, takich jak klimat, zarządzanie katastrofami, ludzkość i ekonomia, mają swoje unikalne wymagania dotyczące rozwiązywania specjalnych problemów. Problemy te, choć pochodzą z różnych dziedzin, wymagają sposobów standaryzacji formatów danych, funkcji analitycznych i wizualizacji informacji geoprzestrzennych. Aby sprostać temu wyzwaniu, utworzono dwie duże organizacje, których zadaniem jest opracowanie standardów internetowego GIS. Są to Open Geospatial Consortium (OGC) i komitet techniczny Międzynarodowej Organizacji Normalizacyjnej (ISO), znany jako ISO/TC 211, oba założone w 1994 r. OGC kładzie nacisk na integrację i współdziałanie danych GIS i geoprzetwarzania, podczas gdy ISO/TC 211 zajmuje się usługami geoprzetwarzania oraz równowagą informacji, aplikacji i systemu informacyjnego. Organizacja OGC opracowała zestaw publicznie dostępnych standardów interfejsów, zwanych specyfikacjami OpenGIS, które umożliwiają twórcom technologii udostępnianie i wykorzystywanie złożonych informacji przestrzennych i usług w różnych aplikacjach GIS. Specyfikacje OpenGIS obejmują specyfikację abstrakcyjną i serię specyfikacji implementacji dla różnych rozproszonych platform obliczeniowych. Specyfikacja abstrakcyjna to architektura wspierająca wizję technologii geoprzestrzennej i interoperacyjności danych. Zapewnia koncepcyjne podstawy dla większości działań związanych z opracowywaniem specyfikacji OGC. Zapewnia również model referencyjny dla rozwoju Standardów Wdrożeniowych OGC. W specyfikacji abstrakcyjnej istnieje obecnie ponad 20 tematów, które dotyczą różnych zestawów modeli abstrakcyjnych, takich jak odniesienia przestrzenne za pomocą współrzędnych, struktur geometrii lokalizacji, cech i/lub metadanych. Specyfikacje implementacyjne różnią się od specyfikacji abstrakcyjnej. Są one napisane dla odbiorców bardziej uzdolnionych technicznie. Szczegółowo opisują strukturę interfejsu między komponentami oprogramowania w internetowym GIS. Uważa się, że specyfikacja interfejsu jest na poziomie szczegółowości implementacji, jeśli po zaimplementowaniu przez dwóch różnych i niezwiązanych ze sobą inżynierów oprogramowania specyfikacja skutkuje opracowaniem komponentów typu plug-and-play, które łączą oba. ISO/TC 211 koncentruje się na pracach nad standardami informacji geograficznej dotyczącymi obiektów geograficznych lub zjawisk, które są bezpośrednio lub pośrednio związane z lokalizacjami na powierzchni Ziemi. Normy ISO/TC 211 określają w przypadku informacji geograficznej metody, narzędzia i usługi lub zarządzanie danymi, w tym definiowanie i opisywanie informacji, pozyskiwanie, przetwarzanie, analizowanie, uzyskiwanie dostępu, prezentowanie i przesyłanie takich danych w postaci cyfrowej/elektronicznej między różnymi użytkownikami, systemami i lokalizacjami. Chociaż ISO/TC i OGC rozwijały się niezależnie, bez żadnej współpracy, współpraca między tymi dwiema organizacjami została już nawiązana. Istnieją już specyfikacje OpenGIS, które są również publikowane jako normy ISO.

Technologie rozwoju

Internet GIS jest gałęzią aplikacji internetowych, więc technologie, które są wykorzystywane w innych aplikacjach internetowych, mogą być wykorzystywane do rozwijania internetowego GIS. Jednak aplikacje GIS mają również swoje unikalne funkcje przetwarzania danych przestrzennych. Istnieją specyficzne narzędzia, które różnią się od ogólnych aplikacji internetowych. Poniżej przedstawiono niektóre z popularnych technologii projektowania i tworzenia sieciowego GIS. Łączenie hipertekstowego języka znaczników (HTML) z Cascading Style Sheet (CSS) to najnowocześniejsze podejście do projektowania stron internetowych obsługujących GIS. HTML5, opublikowany w październiku 2014 r., to najnowsza wersja języka HTML, który jest językiem znaczników używanym do strukturyzowania i prezentowania treści w sieci World Wide Web. CSS jest używany do opisywania stylu treści zorganizowanej przez język znaczników. Dzięki HTML5 i CSS łatwo jest oddzielić styl od treści podczas projektowania stron internetowych. Rozdzielenie formatowania i zawartości strony umożliwia prezentację tej samej strony w różnych stylach w zależności od preferencji lub urządzeń użytkownika. Ponadto JavaScript, dynamiczny i interpretowany język programowania, umożliwia stronie internetowej zbudowanej za pomocą HTML5 i CSS prostą interakcję z użytkownikiem bez wysyłania jakichkolwiek żądań do serwera WWW. Złożone funkcje można również implementować w oparciu o interfejsy API JavaScript innych firm. Na przykład Mapy Google udostępniają popularny i zaawansowany interfejs API języka JavaScript dla programistów aplikacji internetowych, który umożliwia dodawanie map do własnej witryny internetowej, aplikacji internetowej lub mobilnej. Innym przykładem jest ArcGIS API for JavaScript, który udostępnia usługi wizualizacji danych i manipulacji mapami wraz z innymi prostymi aplikacjami GIS. Dzięki ArcGIS API programiści mogą z łatwością tworzyć piękne internetowe aplikacje mapowe z dwuwymiarowym lub trójwymiarowym widokiem za pomocą kodu JavaScript. Oczywiście konieczne jest, aby programista napisał własne kody za stronami internetowymi w innych językach programowania wysokiego poziomu. Jednym ze znanych środowisk programistycznych jest Visual Studio. NET firmy Microsoft, które jest wszechstronnym wieloplatformowym środowiskiem programistycznym obsługującym kilka języków programowania, takich jak C#, Visual Basic i Java. Dzięki Visual Studio.NET 2015 łatwo jest generować aplikacje Web GIS dla różnych urządzeń, na przykład działających w systemach iOS, Android i Windows, w jednym zintegrowanym środowisku programistycznym. Oprócz Visual Studio. NET istnieją inne platformy, które zostały zaprojektowane głównie dla języka Java. Na przykład Eclipse to zintegrowane środowisko programistyczne, którego głównym zastosowaniem jest tworzenie aplikacji Java. Na początku tych prac rozwojowych programiści mogli korzystać z platformy ArcGIS Web Application Developer Framework for Microsoft .NET Framework lub for Java w celu zintegrowania danych i możliwości GIS z własnymi aplikacjami internetowymi. Teraz jednak głównym kierunkiem Esri w Redlands w Kalifornii jest rozwijanie API dla JavaScript i zachęcanie programistów do używania API do tworzenia Web GIS.

Aplikacje

Zastosowania internetowego GIS obejmują zastosowania dla społeczeństwa, rządów, firm, społeczności i instytucji badawczych do różnych celów, takich jak usługi lokalizacyjne, udostępnianie lub przetwarzanie danych oraz biznes związany z informacjami geograficznymi. W tej sekcji przedstawiono kilka typowych przypadków, aby pokazać, w jaki sposób Internet GIS odgrywa ważną rolę w odpowiednich scenariuszach.

Publiczna aplikacja GIS online

Publiczna internetowa aplikacja GIS to system informacji geograficznej, do którego dostęp ma każdy, kto posiada przewodowe lub bezprzewodowe urządzenia połączone z Internetem. Te aplikacje zapewniają bezpłatne i łatwo dostępne publiczne usługi GIS. Większość rządów stanowych lub hrabstw w Stanach Zjednoczonych zapewnia własne GIS online, aby pomóc społeczeństwu dowiedzieć się, gdzie się znajdują; sytuacja ich ludności, gospodarki i klimatu; i lokalne wydarzenia, które miały miejsce w przeszłości. Publiczny internetowy system GIS utrzymywany przez samorządy lokalne zapewnia dodatkowe narzędzie do eksploracji i analizowania różnych cyfrowych danych geograficznych wraz z tradycyjnymi bazami danych. Ponadto mapy internetowe, takie jak Google Maps, Yahoo Maps i Bing Maps, są najpopularniejszymi internetowymi aplikacjami GIS, za pomocą których użytkownicy mogą wyszukiwać lokalizacje, mierzyć odległości i znajdować interesujące miejsca wokół nich. W szczególności mapy i nawigatory stały się niezbędnymi narzędziami w codziennym życiu ludzi.

Przemysłowe aplikacje internetowe GIS

Przemysłowa internetowa aplikacja GIS jest definiowana na podstawie jej użytkowników, takich jak badający grunty, rolnictwo, leśnictwo, klimat, katastrofy, populacje, ekonomię, transport, a nawet politykę. Internetowe GIS są wygodne dla użytkowników do przechowywania, wyszukiwania, analizowania i wyświetlania ich danych w perspektywach czasowo-przestrzennych. Na przykład, Internet GIS w przypadku katastrof zapewnia zespołom zadaniowym ds. zarządzania kryzysowego funkcje zarządzania, udostępniania i analizy danych. Innym przykładem jest bezpieczeństwo publiczne: Internet GIS umożliwia wydziałom policji zarządzanie rejestrami przestępstw i badanie czasowo-przestrzennych wzorców zdarzeń przestępczych przy użyciu tych rejestrów. Internet GIS zapewnia również funkcje do obsługi zgłaszania przestępstw w czasie rzeczywistym lub przewidywania stanu bezpieczeństwa i przygotowywania planów rozmieszczenia dla przyszłych operacji.

Udostępnianie i przetwarzanie danych online

Większość funkcji operacyjnych dostępnych w istniejących internetowych systemach GIS dotyczy zarządzania danymi geograficznymi. Różnica między internetowym GIS a komputerowym GIS polega na tym, jak działa Internet. Z tego powodu pojemność internetowego GIS jest znacznie większa niż GIS dla komputerów stacjonarnych w obszarach przechowywania danych, udostępniania danych, wyszukiwania danych i przetwarzania danych. Na przykład Federalny Komitet ds. Danych Geograficznych opracował platformę o nazwie Platforma geoprzestrzenna, która zapewnia zestaw dobrze zarządzanych, szeroko dostępnych i zaufanych danych geoprzestrzennych, usług i aplikacji dla rządu i innych użytkowników. Inny przykład, ArcGIS online firmy Esri, to platforma mapowania oparta na technologii chmury. Upoważnieni użytkownicy mogą łatwo tworzyć nową mapę z danymi online i udostępniać ją przez Internet. Oczywiście użytkownicy mogą stworzyć niestandardową mapę, przesyłając lokalne dane i łącząc je z mapami online. Ten system pozwala nawet użytkownikom na przeprowadzanie analiz, zarządzanie i integrację danych GIS na tej platformie.

Mobilny GIS

Mobile GIS to aplikacja, do której można uzyskać dostęp lub z której można korzystać za pośrednictwem urządzeń bezprzewodowych i mobilnych, takich jak smartfony, osobiste urządzenia cyfrowych asystentów, przenośnych laptopów i komputerów kieszonkowych. Bez ograniczeń związanych z siecią przewodową ludzie mogą być w ruchu dzięki urządzeniom mobilnym, które mogą korzystać z internetowego systemu GIS, aby sprostać ich wymaganiom w czasie rzeczywistym. Większość klasycznych scenariuszy aplikacji dla mobilnego GIS to usługi oparte na lokalizacji. Urządzenia mobilne uzyskują dostęp do Internetu za pośrednictwem sieci bezprzewodowych; daje to szansę na zidentyfikowanie pozycji użytkownika klienta. Takie usługi lokalizacyjne stały się popularnymi funkcjami w mobilnym GIS. Aplikacje nawigacyjne w samochodach lub telefonach komórkowych dostarczają użytkownikom informacji o ruchu drogowym i trasach w czasie rzeczywistym, udostępniając pozycję użytkownika klientowi serwera systemowego. Aplikacje mobilne zainstalowane na smartfonach mogą polecać pobliskie restauracje, banki czy hotele. Oprócz tych usług opartych na lokalizacji, innym ważnym zastosowaniem internetowego GIS są funkcje GIS wspierające pracę w terenie. Na przykład w codziennej konserwacji, na zewnątrz pracownicy użyteczności publicznej mogą łatwo dowiedzieć się o lokalizacji i stanie obiektów użyteczności publicznej za pomocą urządzeń przenośnych, aby znaleźć problemy i jak najszybciej podjąć działania naprawcze.

Przyszłe kierunki

Nowe technologie i wymagania zawsze popychają obecne aplikacje do przodu. Internetowy GIS cały czas się rozwija. Urządzenia połączone przez Internet, czujniki bezprzewodowe i inne środki stwarzają szanse na pozyskiwanie danych w czasie rzeczywistym w celu przeprowadzenia miarodajnych analiz. Jednocześnie użytkownicy oczekują, że internetowy GIS będzie coraz bardziej inteligentny i działał w czasie rzeczywistym, aby zapewnić im lepsze wrażenia niż kiedykolwiek wcześniej. W przypadku internetowego GIS, chociaż dokonano wielkich osiągnięć, przyszłość niesie ze sobą wiele wyzwań. Jednym z problemów, którymi należy się zająć, jest GIS oparty na chmurze. Wieloźródłowe, heterogeniczne dane w czasie rzeczywistym zbierane przez różne branże w różnych formatach wymagają potężniejszych mocy obliczeniowych, aby sobie z nimi poradzić. Dlatego Internet GIS musi wykorzystywać nową technologię do przechowywania i przetwarzania ogromnych ilości danych w rozproszonym środowisku. Przetwarzanie w chmurze to rodzaj przetwarzania opartego na Internecie, który zapewnia wspólne zasoby do komputerowego przetwarzania danych cyfrowych na żądanie. Dzięki technologii chmurowej dane, aplikacje i usługi GIS mogą znajdować się na platformie chmurowej, gdzie pojemność przechowywania i przetwarzania danych zwiększa się automatycznie w miarę potrzeb. Cloud GIS, technologia GIS na żądanie nowej generacji, pobudzi potencjał internetowego GIS, aby sprostać nowym wymaganiom. Innym ważnym kierunkiem rozwoju jest wewnętrzny Internet GIS. W przeszłości większość internetowych systemów GIS koncentrowała się na funkcjach obsługujących dane zewnętrzne. W rzeczywistości wewnętrzne aplikacje GIS są przydatne dla użytkowników w określonych sytuacjach, takich jak lokalizowanie pozycji, którą chce się odwiedzić za pomocą smartfona w centrum handlowym, szpitalu, kopalni lub na lotnisku. Nawigatory wewnętrzne mogą mieć bardziej znaczące zastosowanie w zmniejszaniu niebezpieczeństwa i strat podczas sytuacji awaryjnych w pomieszczeniach. Wyzwanie polega na tym, jak skonstruować i zwizualizować mapy wnętrz oraz jak zlokalizować aktualną pozycję użytkownika za pomocą urządzenia mobilnego. Istnieją pewne technologie, takie jak wspomagane globalne systemy pozycjonowania, identyfikacja częstotliwości radiowej i komunikacja bliskiego zasięgu, które można wykorzystać do udostępniania danych o lokalizacji urządzeń mobilnych w celu reagowania na sytuacje kryzysowe i zarządzania nimi. Na przykład Mapy Google zapewniają usługę pomocy w nagłych wypadkach ratownicy ustalają, gdzie znajdują się potencjalne ofiary, na którym piętrze się znajdują i gdzie się udać w pomieszczeniu. Gdy ktoś porusza się w górę i w dół w budynku, aplikacja automatycznie aktualizuje informacje o swojej lokalizacji na podstawie pozycji użytkownika, aby wyświetlić piętro, na którym się znajduje. Bez wątpienia w nadchodzących latach będzie więcej internetowych systemów GIS do pozycjonowania i nawigacji GIS w pomieszczeniach.



Powrót

Internetowa baza filmów



Internet Movie Database (IMDb) to wspólnie tworzone i utrzymywane zasoby dokumentujące fakty dotyczące filmów, programów telewizyjnych i celebrytów, a także reakcje i opinie opinii publicznej. IMDb ma być "najpopularniejszym i najbardziej autorytatywnym źródłem na świecie" (IMDb, b.d.) treści dotyczących branży rozrywkowej. Rzeczywiście, zapytania wyszukiwarek dotyczące tytułu filmu lub programu telewizyjnego lub imię celebryty zazwyczaj wyświetlają IMDb wśród najlepszych wyników. Pod koniec 2016 r. IMDb.com zajmował 59. miejsce w globalnym rankingu Alexa, wyprzedzając konkurencyjne witryny, takie jak Fandom i Rotten Tomatoes, co świadczy o jego popularności wśród międzynarodowej publiczności. Podobnie wśród wszystkich witryn hostowanych w Stanach Zjednoczonych, pod koniec 2016 r. IMDb zajmował 32. miejsce pod względem ruchu, ponownie wyprzedzając Fandom (36) i Rotten Tomatoes (231). Ten wpis przedstawia przegląd historii IMDb, opisując jego kluczowe cechy i funkcjonalność. Następnie umieszcza IMDb w kontekście komputerów społecznościowych i mediów społecznościowych oraz analizuje jego wpływ na badania komputerowe, zarówno jako przedmiot badań, jak i źródło danych do badania ludzkich zachowań komunikacyjnych.

Historia

Obecnie IMDb jest dobrze znany jako złożona witryna internetowa z różnymi funkcjami społecznościowymi, które ułatwiają udział publiczności. Utrzymuje również obecność w mediach społecznościowych na Facebooku, Twitterze i Instagramie, co przyciąga odbiorców do witryny i promuje interakcję. Jednak IMDb ma swoje korzenie w prewebowym systemie Usenet, a konkretnie w grupie rec.arts.movies, liście dyskusyjnej, na której uczestnicy mogą dokumentować i wymieniać się informacjami o swoich ulubionych filmach. Założyciel IMDb, Col Needham, uznał potrzebę zapewnienia funkcji wyszukiwania w rec.arts.movies, biorąc pod uwagę ciągły wzrost ilości treści publikowanych na liście. W październiku 1990 r., wraz z opublikowaniem skryptów umożliwiających tę funkcję, powstała społeczność miłośników rozrywki, która później stała się znana jako IMDb. Gdy baza danych została przeniesiona z Usenetu do sieci World Wide Web w 1993 roku, uczestnicy mogli wchodzić z nią w bezpośrednią interakcję, dodawać i edytować swój wkład w bazę danych, bez konieczności polegania na osobach utrzymujących listę Usenetu jako pośrednikach. Needham przystąpił do rejestracji IMDb w Wielkiej Brytanii w 1996 roku, ale ostatecznie sprzedał go Jeffowi Bezosowi z Amazon.com. Od 1998 roku IMDb działa jako spółka zależna Amazona. Oprócz udostępniania forum dla publiczności, IMDb oferuje usługę subskrypcji IMDbPro dla profesjonalistów z branży rozrywkowej. Abonenci IMDbPro mogą prowadzić profil ze swoimi zdjęciami i napisami, a także monitorować trendy w branży i nawiązywać kontakty z innymi.

Podstawowe cechy i funkcjonalność

IMDb jest zasadniczo zbiorem wpisów opisujących trzy rodzaje podmiotów - (1) filmy, (2) seriale telewizyjne (oraz poszczególne odcinki) oraz (3) profesjonalistów z branży (np. aktorzy i aktorki, członkowie ekip produkcyjnych, pisarze, i dyrektorzy) - oraz relacje między nimi. Jego kluczowe funkcje pomocnicze obejmują oceny filmów, rankingi i recenzje, a także fora dyskusyjne uczestników. Każdy użytkownik IMDb, który jest zalogowany do systemu może się do nich przyczynić. Oceny filmów dokonywane są w skali od 1 do 10 gwiazdek. IMDb agreguje te dane, zapewniając średnią ważoną ocenę, a także podział ocen filmów według płci i wieku uczestników. IMDb nie ujawnił formuły oceny średniej ważonej, mającej na celu złagodzenie uprzedzeń poprzez manipulację mechanizmem głosowania. Na podstawie ocen uczestników IMDb prowadzi również ranking 250 najlepszych filmów w bazie danych. Oprócz ocen i rangi filmu, jego wpis na IMDb wyświetla recenzje użytkowników, a także odpowiednie fora dyskusyjne. Recenzje użytkowników są prawdopodobnie jedną z głównych atrakcji IMDb i stanowią ważne źródło zrozumienia reakcji publiczności na film. Na przykład, w chwili pisania tego tekstu Skazani na Shawshank jest filmem najwyżej ocenianym i zawiera ponad 4000 recenzji nadesłanych przez użytkowników. Recenzje zawierają imię i nazwisko uczestnika wnoszącego wkład oraz link do jego profilu na IMDb, a także recenzję tekstową i numeryczną ocenę w postaci gwiazdek. Ze względu na dużą liczbę przesłanych recenzji są one oceniane i selekcjonowane za pomocą mechanizmu głosowania społecznościowego. Uczestnicy są pytani, czy każda recenzja jest "pomocna". Te "pomocne głosy" są następnie wykorzystywane przez IMDb do organizowania zbioru recenzji, domyślnie prezentując je w kolejności według postrzeganej przez tłum przydatności. Wyselekcjonowane kolekcje można również przeglądać za pomocą różnych filtrów, takich jak nastawienie recenzentów do filmu (tj. filtry "kocham to/nienawidzę"), porządek chronologiczny lub wielu recenzentów.

IMDb w kontekście komputerów społecznościowych

Aby lepiej zrozumieć, czym jest IMDb i jaką rolę odgrywa w społeczeństwie informacyjnym, można wykorzystać kilka koncepcji komputerów społecznościowych. Po pierwsze, można ją opisać jako społeczność internetową o wspólnych zainteresowaniach. Uczestnicy prawdopodobnie nie znają się poza interakcjami na IMDb ani nigdy nie mogą spotykać się poza siecią. Reprezentują raczej społeczność fanów filmów, których łączy wspólny interes w dokumentowaniu tego, co wiedzą i co czują na temat oglądanych filmów oraz w dzieleniu się tymi informacjami z innymi. Ta interpretacja odzwierciedla intencje Needhama, kiedy tworzył oryginalną listę Usenetu, aby przechowywać szczegółowy zapis wszystkich obejrzanych filmów. IMDb można również interpretować jako system crowdsourcingowy, który łączy wiedzę i talent fanów filmowych z całego świata w celu stworzenia dobra publicznego. Charakter współpracy w IMDb jest wyraźny, a uczestnicy służą zarówno jako dostawcy treści (np. Pisząc recenzję filmu lub biografię aktora), jak i oceniający (np. Oceniając filmy i recenzje). Według Thomasa W. Malone, Roberta Laubachera i Chrysanthos Dellarocas, udane projekty crowdsourcingowe stanowią zachętę do pozyskiwania i utrzymywania zainteresowania uczestników. Malone i współpracownicy opisują trzy kluczowe powody, dla których ludzie angażują się w takie projekty: (1) kochają projekt, (2) otrzymują wynagrodzenie finansowe lub inne ("pieniądze") i/lub (3) czują uznanie dla ich wiedzy i wysiłków ("chwała"). Ślady wszystkich trzech z nich można zaobserwować na IMDb; na przykład najwyżej oceniani współtwórcy prawdopodobnie odczuwają poczucie chwały, podczas gdy aspirujący pisarze mogą korzystać ze swoich profili na IMDb, aby promować własne strony internetowe lub blogi ("pieniądze"). Wreszcie, IMDb można opisać jako wytwarzające inteligencję zbiorową w tym sensie, że wkład tłumu można analizować, aby zrozumieć opinie publiczne i interpretacje artefaktów kulturowych (tj. filmów i programów telewizyjnych).

Wpływ IMDb na badania komputerowe i komunikacyjne

Jako jedna z najstarszych i najpopularniejszych przestrzeni społecznościowych w sieci, IMDb często był przedmiotem badań naukowych, a także stanowił źródło danych do badania ludzkich zachowań komunikacyjnych. W badaniach, w których IMDb był przedmiotem badań, uczeni z różnych dziedzin, takich jak systemy informacji zarządczej i komunikacja / media, przeanalizowali funkcję i znaczenie IMDb jako systemu informacji społecznej. Przede wszystkim badacze systemów informacji zarządczej scharakteryzowali systemy, takie jak IMDb, jako zdigitalizowane "pocztą pantoflową", umożliwiające konsumentom dostęp do bogactwa informacji dotyczących interesujących ich produktów i usług. W tym celu przedstawiają kluczowe wyzwania stojące przed współczesną organizacją w zakresie nie tylko ochrony jej marek i reputacji w sieci, ale także pozyskiwania informacji o konkurencji z generowanych danych. Z kolei badania IMDb w literaturze dotyczącej komunikacji uwzględniały motywacje uczestników i zakres, w jakim recenzenci filmowi faktycznie wnoszą wkład do bazy danych z pobudek altruistycznych (np. zyskać uwagę lub uznanie innych jako płodny recenzent). IMDb był często wykorzystywany jako źródło danych dla informatyków w obszarach systemów opinii i rekomendacji oraz lingwistyki komputerowej. Na przykład IMDb wykorzystano jako studium przypadku dotyczące kształtowania opinii w Internecie, aby zrozumieć, w jakim stopniu wkład innych osób wpływa na ludzi oraz jak opinie mogą ewoluować w czasie. Zostało również zbadane przez badaczy, którzy chcą opracować zautomatyzowane metody polecania treści użytkownikom na podstawie ich zainteresowań. Wreszcie, IMDb jest często używany przez badaczy języka ludzkiego do tworzenia zbiorów danych, z których można badać zjawiska językowe. Takie zestawy danych (lub korpusy) umożliwiły naukowcom badanie takich tematów, jak styl językowy wpływa na chwytliwość lub zapamiętywanie linii filmowej lub zidentyfikowanie systematycznych różnic we wzorcach językowych recenzentów płci żeńskiej i męskiej.



Powrót

Internet Rzeczy



Internet rzeczy (IoT) odnosi się do infrastruktury wszechobecnych, świadomych kontekstu urządzeń komunikujących się i wchodzących w interakcję ze sobą przez Internet w celu osiągnięcia celów. IoT Global Standards Initiatives definiuje IoT jako infrastrukturę połączonych rzeczy, zarówno fizycznych, jak i wirtualnych, w skali globalnej, aby umożliwić zaawansowane usługi dla społeczeństwa informacyjnego, oparte na interoperacyjnych technologiach informacyjnych i komunikacyjnych. Wiele istniejących technologii, takich jak platforma internetowa, czujniki i sieci czujników, identyfikacja radiowa (RFID), przetwarzanie mobilne i chmura, które ewoluowały w ciągu ostatnich kilku dziesięcioleci i nadal ewoluują, obecnie łączą się i integrują, tworząc infrastruktury IoT. Tradycyjnie urządzenia wyposażone w RFID i chipy do komunikacji bliskiego zasięgu (NFC) mogły być używane tylko lokalnie ze względu na ich ograniczone możliwości NFC, ale dzięki postępowi w technologiach telekomunikacyjnych i internetowych te same urządzenia mogą wchodzić w interakcje globalnie, zapoczątkowując erę Internetu Rzeczy . W tym wpisie omówiono technologie leżące u podstaw IoT, jego zastosowania w różnych dziedzinach, wyzwania technologiczne i społeczne oraz niektóre potencjalne modele biznesowe związane z IoT. Urządzenia współpracujące w infrastrukturze IoT nazywane są urządzeniami IoT lub inteligentnymi obiektami. Każde urządzenie jest identyfikowane za pomocą unikalnego adresu protokołu internetowego (IP). Przykładami urządzeń IoT są autonomiczne pojazdy, smartfony i smartwatche. Szacuje się, że liczba aktywnych urządzeń IoT na świecie osiągnie ponad 50 miliardów do 2020 r., w porównaniu z szacowanymi 25 miliardami w 2015 r. Urządzenia IoT mogą wykrywać kontekst (ich środowisko operacyjne) za pomocą odpowiednich czujników, przetwarzać dane sensoryczne i stają się świadomi kontekstu, a tym samym budują inteligencję otoczenia i komunikują się z innymi urządzeniami IoT lub ludźmi. Teoretycznie każde urządzenie, takie jak lodówka, mechanizm otwierania drzwi garażowych, termostat lub dron, jeśli jest wyposażone w czujniki, przetwarzanie i funkcje sieciowe, może działać jako urządzenie IoT. Urządzenia IoT można zaprogramować tak, aby podejmowały określone działania naprawcze za pomocą siłowników w oparciu o inteligencję otoczenia zebraną przez czujniki. Można je również zaprogramować tak, aby uczyły się ze środowiska, w którym działają i podejmowały określone działania. Dzięki IoT możliwa jest komunikacja między dowolnymi dwoma obiektami obsługującymi IoT w dowolnym miejscu i czasie.

Technologia IoT

Podstawowe technologie IoT można ogólnie podzielić na sprzęt, oprogramowanie i architekturę. Jeśli chodzi o sprzęt, krytyczne elementy obejmują RFID, NFC, czujniki i sieci czujników oraz internetową platformę komunikacyjną. Technologia RFID służy do jednoznacznej identyfikacji obiektów za pomocą znaczników RFID, które zawierają elektroniczny kod produktu. Ta technologia RFID jest używana od dziesięcioleci do śledzenia dużych przedmiotów, takich jak pojazdy i zwierzęta gospodarskie. Ponieważ koszt tagowania RFID spadł z biegiem lat, tagi RFID są używane do znakowania nawet przedmiotów o niskiej wartości, takich jak artykuły w sklepie spożywczym lub punkcie sprzedaży detalicznej, w celu śledzenia zapasów, skanowania przedmiotów do kasy lub do monitorowania stanów magazynowych. Korzyści z RFID, które były ograniczone do bliskiej odległości, można rozszerzyć na całym świecie, zastępując elektroniczny kod produktu unikalnym adresem IP i umożliwiając komunikację przez Internet. Technologie NFC, wywodzące się z technologii RFID, to zestaw technologii bezprzewodowych krótkiego zasięgu, zwykle skutecznych w zasięgu 10 centymetrów. Jedno urządzenie NFC jest uważane za urządzenie aktywne (działające jako inicjator), a drugie za urządzenie pasywne (działające jako cel). Urządzenie inicjujące generuje częstotliwość radiową, która zasila urządzenie docelowe. Tagi NFC zawierają dane, które zazwyczaj są nie tylko tylko do odczytu, ale również do zapisu. Kolejnym krytycznym komponentem sprzętowym urządzeń IoT są czujniki używane do wykrywania i monitorowania odpowiednich aspektów środowiska. Niektóre przykłady czujników obejmują kamery, termometry, barometry, czujniki ruchu, czujniki odległości, czujniki prędkości, czujniki tętna, czytniki ciśnienia krwi i przetworniki. Gdy używanych jest wiele czujników razem, tworzą one tzw. sieć czujników. Sieci czujników mogą również zawierać bramki, które zbierają dane z czujników i przekazują je do serwera. Najbardziej krytycznym komponentem sprzętowym dla IoT jest internetowa sieć komunikacyjna, bez której żadna komunikacja nie jest możliwa. Aby wszystkie elementy sprzętowe współpracowały ze sobą, należy napisać nowe oprogramowanie obsługujące urządzenia i interoperacyjność między wieloma heterogenicznymi urządzeniami w IoT. Oprogramowanie do zasilania IoT można ogólnie sklasyfikować jako oprogramowanie pośrednie i oprogramowanie do wyszukiwania/przeglądania. Oprogramowanie pośredniczące IoT znajduje się pomiędzy sprzętem i danymi IoT a aplikacjami tworzonymi przez programistów w celu wykorzystania IoT do osiągnięcia zamierzonego celu. IoT opiera się również na oprogramowaniu do wyszukiwania/przeglądania w celu uzyskania maksymalnej skuteczności. Przeglądarki IoT różnią się od tradycyjnych przeglądarek internetowych, ponieważ chociaż wyszukiwarki internetowe są zaprojektowane do wyświetlania i indeksowania stosunkowo stabilnych treści internetowych, dane w środowisku IoT są dynamiczne i masowe, ponieważ dane są najprawdopodobniej generowane przez urządzenie w ruchu . Wyszukiwarki IoT muszą być w stanie wyszukiwać z dużą prędkością, analizując szybko zmieniające się informacje generowane przez obiekty obsługujące IoT. Aby IoT funkcjonował skutecznie, potrzebne są dobrze zaprojektowane architektury do reprezentowania, organizowania i strukturyzowania IoT. Architekturę IoT można dalej sklasyfikować jako architekturę sprzętu/sieci, architekturę oprogramowania i architekturę procesów. Architektury sprzętowe/sieciowe mogą być typu peer-to-peer lub autonomiczne. Architektury oprogramowania są niezbędne do zapewnienia dostępu i umożliwienia udostępniania usług oferowanych przez urządzenia IoT. Architektury zorientowane na usługi i modele reprezentatywnego transferu stanu zostały zaproponowane dla IoT ze względu na ich koncentrację na usługach i elastyczności. Dane z urządzeń IoT mogą obejmować wiele różnych źródeł, takich jak dane z czujników maszyn generowanych przez tłum, dane audio i wideo oraz wspólne metadane z jednego lub większej liczby urządzeń IoT. Wreszcie, architektury procesów są niezbędne do ustrukturyzowania i optymalizacji procesów biznesowych za pomocą IoT.

Aplikacje

IoT to bogata technologia dla wielu praktycznych zastosowań zarówno na poziomie indywidualnym, jak i branżowym. Chociaż wiele zastosowań zostało już wdrożonych w praktyce, w przyszłości prawdopodobnie pojawi się o wiele więcej, ponieważ możliwości są nieograniczone. Niektóre obszary zastosowań obejmują inteligentną infrastrukturę, inteligentne domy, handel detaliczny, opiekę zdrowotną, egzekwowanie prawa, energetykę i górnictwo, łańcuchy dostaw i logistykę, produkcję, zastosowania wojskowe i społeczne. Na przykład inteligentna infrastruktura z obsługą IoT umożliwia urzeczywistnienie wizji samojezdnych pojazdów. Samojezdne pojazdy wykorzystują technologię IoTdriven Global Positioning System do nawigacji do celu. Dzięki czujnikom są w stanie zatrzymywać się na światłach, zmieniać pas ruchu i kierować ruchem drogowym za pomocą świadomości kontekstu i inteligencji otoczenia. Na szerszą skalę technologie oparte na IoT można wykorzystać do zwiększenia wydajności miast. Na przykład w inteligentnych miastach pojazdy ratownicze i autobusy transportu publicznego obsługujące IoT mogą wchodzić w interakcje z sygnalizacją świetlną obsługującą IoT, co pozwala im szybciej dotrzeć do celu i lepiej służyć mieszkańcom. Usługi transportu kołowego stały się również możliwe dzięki infrastrukturze IoT. Inteligentne domy wyposażone w czujniki mogą zoptymalizować zużycie energii elektrycznej i gazu oraz zmniejszyć ilość odpadów. Inteligentne domy mogą również umożliwiać zdalny dostęp do sterowania termostatami, urządzeniami i żaluzjami. Technologia inteligentnego domu oparta na IoT może być również wykorzystywana do monitorowania mieszkańców, zwłaszcza starszych mieszkańców, oraz wzywania zespołu reagowania lub innej pomocy w razie potrzeby. Sektor detaliczny może czerpać korzyści z aplikacji IoT, takich jak optymalizatory kasowe "szybkiej sprzedaży detalicznej" (zintegrowane z chipami RFID), analityka kupujących, widoczność łańcucha dostaw i optymalizacja procesów personelu dostawcy usług. Sektor telekomunikacyjny i informacyjny może korzystać z aplikacji obsługujących IoT (wideo, urządzenia mobilne, społecznościowe), które pomagają w optymalizacji operacji, wyposażaniu pracowników nowej generacji w aktualne statusy, zarządzaniu wieżą za pomocą zdalnych chipów i narzędzi, a nawet zoptymalizowanym zarządzaniu flotą serwisową. Opieka zdrowotna to kolejna domena, w której rozszerzona opieka, zdalne monitorowanie pacjentów, mobilność personelu i bezpieczeństwo to kluczowe obszary zastosowań urządzeń i aplikacji IoT. Dobra opieka zdrowotna zależy od szybkiego wykrycia aktualnego lub zbliżającego się problemu zdrowotnego i podjęcia na czas działań w celu rozwiązania problemu. Często pacjent mieszkający samotnie nie jest w stanie zadzwonić pod numer alarmowy ze względu na niepełnosprawność spowodowaną stanem zdrowia. Dzięki odpowiednim wykrywającym i uruchamiającym urządzeniom IoT wielu kryzysom zdrowotnym można zapobiec, wzywając pomoc w odpowiednim czasie. Na przykład urządzenia mogą monitorować częstość akcji serca, upadki, objawy udaru lub wszelkie inne stany medyczne wymagające pomocy w nagłych wypadkach. W tym sensie monitorowanie i podejmowanie decyzji można przenieść z ludzi na maszyny. Ponadto dane z czujników mogą być w sposób ciągły przesyłane od pacjenta do gabinetu lekarskiego lub członków rodziny i innych zainteresowanych stron, które mogą w porę podjąć odpowiednie działania. Dzięki postępowi w zakresie czujników do noszenia, takich jak smartwatche, a nawet czujniki wbudowane w tkaninę, możliwe jest znacznie dokładniejsze monitorowanie stanu zdrowia. Na przykład smartwatche mogą przesyłać dane do osobistych trenerów, którzy mogą zalecić modyfikacje stylu życia w celu poprawy zdrowia. W zarządzaniu łańcuchem dostaw RFID i sieci czujników od dawna odgrywają rolę w poprawie ich efektywności poprzez ciągłe monitorowanie przepływu zasobów w łańcuchu dostaw. Wszechobecność i wszechobecność IoT umożliwi wykorzystanie tych technologii w różnych organizacjach i poza granicami geograficznymi. Teoretycznie więc możliwe będzie zlokalizowanie dowolnego zasobu w dowolnym miejscu na świecie, o ile zostanie on oznaczony unikalnym identyfikatorem i będzie obsługiwał IoT. Tradycyjnie aktywa można było zlokalizować tylko wtedy, gdy znajdowały się w magazynie lub sklepie, a nie podczas transportu. Dzięki IoT zasoby można śledzić nawet podczas transportu. Teoretycznie każda przesyłka może być obsługiwana przez IoT i śledzona bez konieczności jawnego wprowadzania jej bieżącej lokalizacji. Poziomy zapasów na półkach detalicznych iw magazynach mogą być monitorowane, a producenci mogą zorientować się, jak szybko poszczególne pozycje przemieszczają się w łańcuchu dostaw. Producenci mogą dokładniej planować swoją działalność produkcyjną, a magazyny i punkty sprzedaży detalicznej mogą składać zamówienia szybciej iw odpowiednich ilościach, co skutkuje mniejszymi nadwyżkami lub niedoborami w całym łańcuchu dostaw. IoT może być również wykorzystany do prewencyjnej i terminowej konserwacji sprzętu. Technologia wykrywania jest na tyle zaawansowana, że zbliżające się awarie sprzętu można wykryć przed faktyczną awarią. Informacje te, gdy zostaną przekazane odpowiednim osobom, mogą umożliwić konserwację zapobiegawczą i zapobiec stratom wynikającym z awarii sprzętu. Internet rzeczy może być przydatny w egzekwowaniu prawa. Na przykład skradzione samochody można namierzyć z najwyższą dokładnością, ponieważ każdy samochód może mieć adres IP i może być śledzony zdalnie. Innym praktycznym zastosowaniem IoT w organach ścigania jest analizator alkoholu w wydychanym powietrzu. Analizator alkoholu w wydychanym powietrzu to urządzenie oparte na IoT służące do monitorowania poziomu alkoholu w wydychanym powietrzu kierowcy. Poprzez okresowe pobieranie próbek oddechów podczas prowadzenia pojazdu kierowca i organy ścigania mogą zostać ostrzeżone o niebezpieczeństwie związanym z jazdą pod wpływem alkoholu podczas jazdy samochodem. Dodatkowo płynność samej jazdy można ocenić za pomocą odpowiednich czujników, takich jak urządzenie telematyczne i kamera krawężnikowa pojazdu. W dziedzinie bezpieczeństwa fizycznego nadzór miejsc publicznych oparty na IoT może poprawić ogólne bezpieczeństwo fizyczne. Technologia może być również wykorzystywana do wykrywania podrabianych towarów i części zamiennych stosowanych w przemyśle lotniczym czy motoryzacyjnym. Istnieje wiele potencjalnych aplikacji społecznościowych. Ponieważ każdy telefon komórkowy działa jak urządzenie IoT, które może przesyłać informacje o swojej lokalizacji, osoby mogą być informowane, gdy znajdują się w pobliżu znajomych, wydarzeń towarzyskich lub innych interesujących ich działań. Inteligentne zegarki mogą zbierać dane na temat kondycji danej osoby, które można udostępniać społeczności przyjaciół w celu wzajemnej zachęty. Ponadto telefony obsługujące IoT mogą łączyć się bezpośrednio z innymi telefonami komórkowymi i udostępniać informacje kontaktowe, gdy zostaną dopasowane określone wstępnie zdefiniowane profile znajomych lub randek.

Wyzwania

IoT stoi przed wieloma wyzwaniami, zarówno technicznymi, jak i społecznymi. Wyzwania techniczne obejmują interoperacyjność, standaryzację i wyzwania związane z bezpieczeństwem. Wyzwania społeczne obejmują prywatność, odpowiedzialność prawną, i ogólne wyzwania. IoT łączy wiele heterogenicznych urządzeń i technologii, które współdziałają ze sobą na całym świecie. Interoperacyjność tych urządzeń leży u podstaw sukcesu IoT. Aby osiągnąć interoperacyjność, standardy muszą być uzgodnione i akceptowalne w różnych organizacjach i różnych regionach geograficznych. Firmy i rządy muszą wspólnie uzgodnić standardy umożliwiające interoperacyjność. Kolejnym ogromnym wyzwaniem jest utrzymanie bezpieczeństwa w IoT. Urządzenia IoT komunikują się za pośrednictwem sieci bezprzewodowych. Ta komunikacja musi być zabezpieczona za pomocą szyfrowania. Podstawowe urządzenia IoT mogą nie być wystarczająco zaawansowane, aby obsługiwać solidne szyfrowanie, więc technologia szyfrowania musi się rozwijać, aby była bardziej wydajna i mniej energochłonna. Oprócz wyzwań związanych z szyfrowaniem wyzwaniem jest również zarządzanie tożsamością. Zapewnienie, że inteligentne obiekty są tym, za co się podają, ma kluczowe znaczenie dla sukcesu IoT. Możliwość kradzieży tożsamości, która jest bezpośrednią konsekwencją słabego zarządzania tożsamością, może wynikać ze słabych zabezpieczeń i stanowi duże wyzwanie. Gdy krytyczne procesy zależą od interakcji między maszynami, naruszenie tożsamości urządzenia może potencjalnie prowadzić do niepożądanych skutków. Istnieje również szereg wyzwań społecznych. Ponieważ urządzenia stają się identyfikowalne za pośrednictwem Internetu Rzeczy, zwiększają one zagrożenie dla prywatności. Teoretycznie lokalizacja może być zawsze znana publicznie komuś innemu, chyba że prywatność jest odpowiednio zarządzana. Aby chronić prywatność, niezwykle ważne jest zarządzanie prawami własności do danych zbieranych z inteligentnych obiektów. Właściciel danych musi mieć pewność, że jego dane nie zostaną wykorzystane przez osoby trzecie bez zgody. Na przykład, jeśli firma ubezpieczeniowa może wykorzystać dane dotyczące zdrowia za pośrednictwem inteligentnego zegarka, może to zakończyć polisę osób o wyższym ryzyku zdrowotnym. Aby sprostać temu wyzwaniu, ważne jest posiadanie protokołów wymiany danych opartych na politykach prywatności. Za każdym razem, gdy dwa obiekty wchodzą ze sobą w interakcję, przed nawiązaniem komunikacji muszą sprawdzić swoje polityki prywatności dotyczące komunikacji. IoT jest również podatnym gruntem dla hakerów. Przy tak wielu urządzeniach wysyłających sygnały na całym świecie trudno jest uniemożliwić ludziom podsłuchiwanie tej komunikacji w złośliwych zamiarach. I wreszcie, IoT stworzy nowe wyzwania prawne. ustanawianie praw rządzących takim globalnym zasobem, jakim jest IoT, jest trudne do nakreślenia, a jeszcze trudniejsze do wyegzekwowania. Zarządzanie nie może być dyktowane przez pojedynczą grupę, ale przez grupę interesariuszy o szerokim zasięgu. Ponadto konieczna będzie globalna odpowiedzialność i egzekwowanie.

Modele biznesowe

Tak jak sieć umożliwiła nowe modele biznesowe, takie jak handel elektroniczny, i podobnie jak telefony komórkowe umożliwiły nowe usługi, takie jak usługi przewozowe i bankowość mobilna, IoT ma potencjał wprowadzenia nowych usług, które wykorzystają jego wszechobecność i inteligencję otoczenia. Na przykład pojawią się firmy, które zapewniają wszechobecne monitorowanie stanu zdrowia i reagowanie za opłatą za usługę. Podobnie usługi monitorowania domu będą wykraczać poza samo monitorowanie włamań i pożarów. Na przykład wszystkie urządzenia i oświetlenie mogą być monitorowane i zarządzane zdalnie za pomocą aplikacji. Podobnie, dostępne będą usługi typu business-to-business dla wszystkich rodzajów monitorowania, śledzenia i konserwacji aktywów.



Powrót

iPhone′y



Po zdefiniowaniu w kategoriach głównie komunikacyjnych, komunikacja mobilna stała się w dużej mierze synonimem mediów internetowych. Do 2007 r. w wielu krajach zaczął pojawiać się ruch w kierunku smartfonów. Dla wielu krajów zachodnich symbolem tej migracji był iPhone - urządzenie, które przywoływało i zapewniało zarówno konwergencję mediów, jak i personalizację. W tym wpisie omówiono, czym różnił się iPhone od innych urządzeń w momencie jego wprowadzenia, oraz przyjrzano się niektórym jego skutkom społeczno-kulturowym, ekonomicznym i percepcyjnym. Podczas pierwszej premiery iPhone′a w 2007 roku Joel Mace i Michael West zidentyfikowali trzy główne różnice, które odróżniały go od konkurencyjnych telefonów komórkowych: (1) duży pojemnościowy ekran dotykowy i klawiatura, (2) integracja z już istniejącym sklepem iTunes (jak "wysokiej klasy" model iPoda z funkcją telefonu) oraz (3) włączenie do urządzenia przeglądarki internetowej Apple, Safari. W 2008 roku firma Apple wypuściła również zestaw programistyczny, a wkrótce potem na dzień przed udostępnieniem iPhone′a 3G otwarto internetowy sklep z aplikacjami. Jak dokumentują West i Mace (2010): "W ciągu pierwszych sześciu miesięcy sklep przyciągnął ponad 15 000 aplikacji i 500 milionów pobrań. . . [do] listopada 2009 r. liczby osiągnęły 100 000 i 2 miliardy" (s. 280). Na początku najpopularniejszymi aplikacjami były dostosowane interfejsy dla istniejących stron internetowych (eBay, Myspace), lokalne usługi internetowe i samodzielne aplikacje (zwłaszcza gry). Ponieważ inni programiści szybko przywłaszczyli sobie strategię Apple i innowacje projektowe, globalny udział w rynku smartfonów i systemów operacyjnych został podzielony między wielu głównych graczy, zdominowanych przede wszystkim przez firmę Samsung (z serią Galaxy) i Google (system operacyjny Android i Google Play ). Połączenie ekranu dotykowego, App Store i przeglądarki internetowej zwiastowało nowy rodzaj korzystania z telefonu komórkowego: przystosowanie urządzenia mobilnego do Internetu, z rynkiem aplikacji, który przyniósł ze sobą zalety zarówno sieciowego przetwarzania, jak i świadomości lokalizacji. Jak zauważają West i Mace w swojej analizie rynkowego sukcesu iPhone′a, wzrost wykorzystania mobilnego Internetu był wynikiem ważnej zmiany myślenia: od dostarczania Internetu dostosowanego do ekranów mobilnych (czego dowodem są np. mikroprzeglądarki i portale dostawców ) do udostępniania "prawdziwego Internetu" na urządzeniu mobilnym, zapoczątkowanego przez iPhone′a. Przed pojawieniem się iPhone′a dostawcy i producenci telefonów starali się stworzyć Internet dostosowany specjalnie do urządzeń mobilnych. Strategia Apple koncentrowała się zamiast tego na opracowaniu urządzenia dostosowanego do istniejącej sieci przewodowej. Pod koniec 2007 roku iPhone stał się najpopularniejszym mobilnym urządzeniem do przeglądania w Google. Projekt i strategia marketingowa iPhone′a, umożliwiająca użytkownikom dostosowywanie i personalizowanie urządzenia, jego zawartości i aplikacji, wraz z responsywnym ekranem dotykowym i ekologią mediów opartą na aplikacjach, doprowadziły do eskalacji popularności mobilnych mediów społecznościowych, gier i lokalizacji. usługi oparte. W rezultacie iPhone znacznie przyczynił się do połączenia online i offline, fizycznego i cyfrowego doświadczenia. Do tej pory iPhone był przedmiotem analiz naukowych obejmujących między innymi badania nad mediami i komunikacją, badania nad Internetem i studia nad grami. Studiowanie iPhone′a daje analitykom i badaczom mediów narzędzie do zrozumienia roli nowych mediów w życiu codziennym i pozwala im zbadać napięcia między nowością a przestarzałością w codziennych mediach mobilnych. Do końca 2015 roku Apple wypuściło 10 wersji iPhone′a, od oryginalnego iPhone′a do iPhone′a 6S, z cyklami konsumpcji i produkcja nastawiona na normalizację przyspieszonej adaptacji. Uczeni skrytykowali również wyzyskujące praktyki pracownicze i produkcyjne Apple w Chinach, podkreślając współczesne przejawy nierównych gospodarek światowych rozgrywających się w konsumpcji nowych mediów i wokół niej. Od czasu premiery pierwszego iPhone′a wiele napisano o socjokulturowych, ekonomicznych i ekonomicznych aspektach efekty percepcyjne iPhone′a i jego wielu emulatorów i klonów. We wstępie do swojej zredagowanej kolekcji z 2012 roku, Moving Data: The iPhone and the Future of Media, Pelle Snickars i Patrick Vonderau starali się zidentyfikować społeczno-kulturowy wpływ iPhone′a, sugerując, że pokazał on, jak żaden inny telefon komórkowy, "zakres, w jakim mobilność technologia kształtuje i zmienia kulturę medialną" (s. 10). Naukowcy zbadali iPhone′a jako znaczącą platformę, prototyp i część współczesnego życia medialnego" i wyraźnie umieścili go w perspektywie historycznej i porównawczej. Na przykład Francesco Casetti i Sara Sampietro zbadali, w jaki sposób iPhone zmienił sposób oglądania filmów dzięki integracji z YouTube. Nanna Verhoeff prześledziła, w jaki sposób iPhone zmienił praktyki kartograficznego ekranu, załamując tworzenie map i nawigację w dynamiczny akt performatywny. Projekt iPhone′a i dbałość Apple o doświadczenia użytkowników zwróciły uwagę naukowców, takich jak Lev Manovich, który scharakteryzował iPhone′a jako przyjazny, zabawny, estetyczny i percepcyjny, satysfakcję emocjonalną i modny. Mark Deuze i The Janissary Collective (2012) umieścili iPhone′a na czele "coraz bardziej bezproblemowej integracji między istotami ludzkimi, naturą i technologią", argumentując, że obecnie żyjemy raczej w mediach niż w mediach, jako interfejsach mobilnych jednocześnie umożliwiają nam wycofanie się w spersonalizowane przestrzenie informacyjne i głębokie zanurzenie w "w pełni zapośredniczonym przestrzeń globalnej egzystencji" . iPhone nadaje się do określonych rodzajów gier i kultur gier, które różnią się od innych przenośnych lub haptycznych konsol do gier. Teoretyk gier Mia Consalvo (2012) stwierdziła, że iPhone "oddał platformę do gier milionom ludzi, którzy nigdy nie uważali się (i prawdopodobnie nigdy nie będą) za graczy" (s. 184), skutecznie włączając zabawę do naszego codziennego życia . Inni badacze dyskutowali o tym, jak iPhone zmienił praktyki czytania i jak dał użytkownikom dostęp do ogromnych ilości danych i rozproszonej dynamicznej inteligencji sieci internetowych. Badacze badali także wpływ iPhone′a na praktyki społeczno-kulturowe w poszczególnych częściach świata, jego wpływ na praktyki medialne oraz sposób, w jaki przyczynił się do rekonfiguracji podziałów między tym, co jest uważane za publiczne, a tym, co jest uważane za prywatne. Wraz z rozwojem i rozprzestrzenianiem się urządzeń mobilnych z ekranem dotykowym i ich systemów operacyjnych, badania skupiły się bardziej ogólnie na afordancjach i efektach smartfonów i mobilnych interfejsów multimedialnych (np. iPadów i innych tabletów). Rzeczywiście, większość analiz koncepcyjnych mediów mobilnych, projektów etnograficznych i interwencji opartych na badaniach w codziennym użytkowaniu jest obecnie wdrażana na różnych urządzeniach i platformach, niezależnie od telefonu lub systemu operacyjnego, aby uwzględnić coraz bardziej zróżnicowane wrażenia użytkowników i zmienne praktyki uczestników badań. Nie ulega jednak wątpliwości, że w znaczący sposób iPhone i sposoby jego dystrybucji stały się szablonem, na którym wzorowano kolejne smartfony i ich usługi. iPhone może być nie tylko kontekstualizowany w ramach szerszych debat na temat komunikacji mobilnej, ale może być również rozumiany jako moment w dłuższej i wysoce kontrowersyjnej historii kultury komputerowej. IPhone, jego system operacyjny i ekologia aplikacji były narzędziami do kształtowania określonego doświadczenia z Internetem. Co więcej, dzięki mobilnym aplikacjom multimedialnym powstały dwa wzajemnie powiązane i paradoksalne zjawiska - ilościowy ruch własny i duże zbiory danych. Wdrażanie smartfonów, a teraz technologii do noszenia na potrzeby nadzoru osobistego i korporacyjnego, wzrosło, tworząc nowe napięcia między upodmiotowieniem a wyzyskiem. W tych nakładających się kontekstach iPhone był wzorcowym interfejsem i symbolem współczesnej kultury cyfrowej.


Powrót
[ 86 ]