Software Engineering



Preludium: obliczenia od czasów starożytnych do epoki nowożytnej

Ludzka potrzeba obliczenia prawdopodobnie zrodziła się w prehistorii, kiedy ludzie zaczęli gromadzić dobra fizyczne. Wkrótce stało się pożądane śledzenie, ile konkretnych rzeczy (np. bydła) należało do rodziny lub plemienia. Gdy tylko proste dodawanie i odejmowanie stało się możliwe, potrzebna była rejestracja informacji, aby mogła być przechowywana przez długi okres czasu i mogła być udostępniana innym. Wczesne urządzenia rejestrujące były kamyczkami lub obiektami fizycznymi, ale ostatecznie okazało się, że można je zastąpić symbolami. Gdy ludzie ewoluowali i zaczęli osiedlać się w społecznościach, pojawiły się inne potrzeby obliczeniowe, takie jak pomiar wymiarów cegieł lub oznaczanie pól. Z czasem pojawiła się ciekawość i potrzeba bardziej złożonych obliczeń czasu, odległości i pozycji gwiazd. Dość szybko praca związana z obliczeniami została uznana za uciążliwą i dlatego opracowano urządzenia mechaniczne, które mogłyby przyspieszyć obliczenia (liczydło należy do pierwszych). Narzędzia do wspomagania decyzji logicznych były ostatnimi, które opracowano. Potrzeby dotyczące szybkich obliczeń, przechowywania danych na duże odległości i złożonego procesu decyzyjnego były kluczowymi czynnikami, które ostatecznie przyczyniły się do zainspirowania projektowania komputerów i oprogramowania.

Ludzka potrzeba obliczenia

Tekst na temat historii inżynierii oprogramowania i komputerów nie powinien rozpoczynać się nagle w konkretnej dacie, takiej jak 1930 r. Prawdą jest, że komputery cyfrowe i początki oprogramowania zostały po raz pierwszy wyartykułowane między 1930 a 1939 r., Ale wiele wcześniejszych wynalazków ponad tysiące lata temu utworzyły scenę. Od czasów starożytnych do dzisiaj istniała ludzka potrzeba różnego rodzaju obliczeń. Istniała także ludzka potrzeba zachowania wyników tych obliczeń w jakimś trwałym formacie. Inną ludzką potrzebą, którą trudniej wyartykułować, jest potrzeba logicznej analizy alternatywnych wyborów. Przykładem takiego wyboru jest podjęcie długiej, płaskiej drogi lub krótkiej, pagórkowatej drogi podczas przenoszenia produktów na rynek. Innym wyborem jest rodzaj uprawy, który jest najbardziej odpowiedni dla danego kawałka ziemi. Ważniejszą alternatywą jest to, czy społeczność powinna iść na wojnę z inną społecznością. W dzisiejszym świecie niektóre wybory mają znaczenie dla życia i śmierci, takie jak najlepsza terapia w leczeniu poważnego stanu zdrowia, takiego jak gruźlica odporna na antybiotyki. Inne wybory mają znaczenie ekonomiczne. Republikanie i demokraci są przykładami zupełnie przeciwnych poglądów na temat tego, jakie wybory są najlepsze dla gospodarki USA. W przypadku wyborów z diametralnie sprzecznymi alternatywami, obie strony nie mogą mieć racji, ale obie strony mogą łatwo się mylić. (Możliwe jest również, że jakiś inny wybór i żadna z alternatyw nie jest najlepsza.) Z analizy tego, co przemawia za argumentami między Demokratami i Republikanami, obie strony wydają się być złe, a końcowe wyniki prawdopodobnie zaszkodzą amerykańskiej gospodarce, nie ważne, która ścieżka zostanie podjęta. Z punktu widzenia kogoś, kto codziennie pracuje z komputerami i oprogramowaniem, tworzenie modeli matematycznych porównawczych wpływów na gospodarkę podniesienia podatków (cel Demokratów), zmniejszenie wydatków (cel Republikanów), lub połączenie obu. Ale zamiast racjonalnych dyskusji poszerzonych o realistyczne modele finansowe, obie strony jedynie wylały retorykę, nie mając prawie żadnych faktycznych informacji ani dowodów na argumenty obu stron. Zadziwiające jest słuchanie przemówień republikanów i demokratów. Obie poruszają się przeciwko sobie, ale żadna ze stron nie przedstawia niczego, co wygląda jak solidne dane. Te same problemy pojawiają się na szczeblu państwowym i miejskim. Na przykład przed wyborami w 2012 r. Zgromadzenie Ogólne Rhode Island przepchnęło nierozsądne ustawodawstwo, które podwoiło liczbę wyborców na stanowisko wyborcze, co skutecznie zmniejszyło liczbę miejsc dostępnych dla obywateli do głosowania o połowę. Nieuniknionymi skutkami tej głupiej decyzji były olbrzymie szeregi zirytowanych wyborców, czekanie do czterech godzin na głosowanie i konieczność utrzymywania niektórych stanowisk do głosowania otwartych prawie do północy, aby pomieścić wyborców oczekujących w kolejce. To nie był bardzo skomplikowany problem. Liczba wyborców przechodzących przez stanowiska do głosowania na godzinę jest znana od lat. Jednak Zgromadzenie Rhode Island nie zdołało wykonać nawet podstawowych obliczeń dotyczących tego, o ile zmniejszy się liczba stanowisk głosowania o połowę w stosunku do czasów oczekiwania wyborców. W rezultacie w wyborach w 2012 r. wielu mieszkańców Rhode Island, którzy nie mogli sobie pozwolić na cztery godziny lub więcej, po prostu nie zagłosowało. Zostali oszukani przez głupotę głupiego prawa, które przeszło przez nieudolne zgromadzenie ogólne. To prawo zgromadzone przez Rhode Island Assembly było niekompetentne i nie powinno być nigdy przekazywane bez matematycznego modelowania wyników redukcji miejsc wyborczych w czasie oczekiwania na głosowanie. Istotą dbania o rządy stanowiące nierozsądne prawa i wydawania głupich regulacji jest to, że w dzisiejszym świecie komputery i oprogramowanie mogą łatwo dostarczać oceny wpływu, a być może nawet eliminować myśli o przekazywaniu takich głupich praw i przepisów. Fakt, że ludzie używali matematyki, dokonując logicznych wyborów i zachowywali zapisy od czasów prehistorycznych do dzisiaj, porusza pytania związane z historią oprogramowania i komputerów:

•  Jakiego rodzaju obliczeń używamy?
•  Jakie informacje lub dane musimy zapisać?
•  Jakie są najlepsze metody przechowywania danych do przechowywania informacji na duże odległości?
•  Jakie metody analizy mogą pomóc w dokonywaniu skomplikowanych wyborów lub decyzji?
•  Jakie są najlepsze metody przekazywania danych i wiedzy?

Interesujące jest rozważenie tych pięciu pytań od czasów starożytnych po erę współczesną i zobaczenie, w jaki sposób komputery i oprogramowanie stopniowo pojawiły się, aby pomóc w radzeniu sobie z nimi.


Powrót

Wczesna sekwencja wiedzy numerycznej



Prawdopodobnie wkrótce po tym, jak ludzie mogli mówić, mogli również liczyć, przynajmniej do dziesięciu, używając swoich palców. Możliwe, że neandertalczycy lub kromaniończycy mogli liczyć już 35 000 lat temu, na podstawie równoległych nacięć zadrapań zarówno na kości wilczej znalezionej w Czechosłowacji sprzed około 33 000 lat temu, jak i kości pawianów w Afryce sprzed około 35 000 lat temu. Nie wiadomo, czy zadrapania odnotowały upływ dni, liczby przedmiotów, czy też zostały porysowane jako sposób na upłynięcie czasu. Najbardziej interesująca jest kość wilka, ponieważ ma 55 zadrapań pogrupowanych w zestawy pięciu. Zwiększa to prawdopodobieństwo, że zadrapania zostały użyte do policzenia obiektów lub czasu. Jeszcze starsze kły mastodontów sprzed około 50 000 lat miały wywiercone 16 otworów o nieznanym przeznaczeniu. Ponieważ neandertalczycy i kromaniończycy pokrywali się z około 43 000 p.n.e. do 30 000 p.n.e, te artefakty mogły pochodzić z dowolnej grupy lub z innych współczesnych grup, które obecnie wyginęły. Interesujące jest, że pojemność czaszki i rozmiary mózgu zarówno neandertalczyków, jak i kromaniończyków wydają się być nieco większe niż współczesnych homo sapiens, chociaż nowoczesne płaty czołowe są większe. Rozmiar mózgu nie przekłada się bezpośrednio na inteligencję, ale wskazuje, że pewna forma abstrakcyjnego rozumowania mogła wystąpić bardzo wcześnie. Malowidła jaskiniowe pochodzą sprzed ponad 40 000 lat, więc przynajmniej istniała jakaś forma abstrakcji. Oprócz liczenia przedmiotów i przedmiotów ważne było również, aby móc zachować przynajmniej przybliżony przebieg czasu. Prawdopodobnie długość roku była znana przynajmniej subiektywnie ponad 10 000 lat temu. Wraz z nadejściem rolnictwa, także około 10 000 lat temu, wiedza o tym, kiedy sadzić określone rośliny i kiedy je zbierać, pomogłaby w produkcji żywności. Jednym z pierwszych znanych osiedli był Catal Huyuk w Turcji, liczący około 7000 p.n.e. Ta wioska, zbudowana z cegieł błotnych, prawdopodobnie miała kilkaset osób. Odkrycia archeologiczne wskazują na rolnictwo pszenicy, jęczmienia i grochu. Mięso pochodziło od bydła i dzikich zwierząt. Ustalenia grotów strzał, głów maczug, ceramiki, miedzi i ołowiu wskazują, że prawdopodobnie niektóre formy handlu miały miejsce w Catul Huyuk. Handel nie jest łatwy do przeprowadzenia bez jakiejś metody śledzenia obiektów. Było też wiele obrazów namalowanych na ścianach, co może wskazywać na zainteresowania artystyczne. Prawdopodobna wczesna sekwencja ludzi nabywających wiedzę numeryczną mogła zacząć od kilku kluczowych tematów:

•  Prehistoryczna wiedza numeryczna i matematyczna:
- Liczenie obiektów w celu zarejestrowania własności
- Zrozumienie dwóch podstawowych operacji dodawania i odejmowania
- Pomiar kątów, np. na wschód lub zachód, aby się nie zgubić
- Liczenie upływu czasu w ciągu roku na pomoc dla rolnictwa
- Liczenie czasu codziennego na koordynowanie działań grupowych

•  Wiedza numeryczna i matematyczna z wczesnych cywilizacji:

- Zliczanie długości fizycznej, szerokości i wysokości w celu budowania struktur
- Pomiar masy i objętości w celach handlowych
- Pomiar długich dystansów, takich jak między miastami
- Pomiar wysokości gór i położenia słońca nad horyzontem
- Zrozumienie matematycznych operacji mnożenia i dzielenia

•  Wiedza liczbowa i matematyczna prawdopodobnie pochodząca od kapłanów lub szamanów:

- Liczenie czasu astronomicznego, takiego jak zaćmienia i pozycje gwiazd
- Pomiar prędkości lub prędkości poruszających się obiektów
- Pomiar krzywych, okręgów i nieregularnych kształtów
- Pomiar szybkości zmian, takich jak przyspieszenie
- Pomiar niewidzialnych zjawisk, takich jak prędkość dźwięku i światła

•  Wiedza numeryczna i matematyczna opracowana przez matematyków:

- Analiza prawdopodobieństwa gier i hazardu
- Zrozumienie abstrakcyjnych tematów, takich jak zero i liczby ujemne
- Zrozumienie złożonych tematów, takich jak odsetki złożone
- Zrozumienie bardzo złożonych tematów, takich jak infinity i niepewność
- Zrozumienie abstrakcyjnych tematów, takich jak liczby irracjonalne i niepewność kwantowa

Prehistoryczna wiedza liczbowa i matematyczna prawdopodobnie mogłaby być obsługiwana przy starannej obserwacji, wspomaganej tylko przez żetony, takie jak kamienie lub zadrapania, a także kije do pomiaru długości. Dodawanie i odejmowanie są wyraźnie pokazane przez dodanie lub usunięcie kamieni ze stosu. Wiedza liczbowa i matematyczna z wczesnych cywilizacji wymagałaby połączenia rozumowania abstrakcyjnego wspomaganego przez urządzenia fizyczne. Oczywiście do pomiaru wagi potrzebna jest pewna skala równowagi. Do pomiaru wysokości gór potrzebny jest pewien rodzaj kalkulatora kąta. Potrzebna jest pewna metoda zapisywania, aby śledzić zdarzenia, takie jak pozycje gwiazd w długich okresach czasu. Wiedza liczbowa i matematyczna pochodząca prawdopodobnie od kapłanów lub szamanów wymagałaby połączenia abstrakcyjnego rozumowania; dokładne utrzymywanie czasu; dokładne środki fizyczne; oraz świadomość, że matematyka może reprezentować niematerialne tematy, których nie można zobaczyć, dotknąć ani zmierzyć bezpośrednio. Prawdopodobnie wymagało to czasu poświęconego na studia intelektualne, a nie na rolnictwo czy polowanie. Opracowana przez matematyków wiedza numeryczna i matematyczna jest prawdopodobnie jedną z głównych zachęt prowadzących do obliczania urządzeń, a ostatecznie do komputerów i oprogramowania. Wymagało to zaawansowanej wiedzy na poprzednie tematy, połączonej z dość dokładnymi pomiarami i ciekawością intelektualną w umysłach, które mają skłonność do matematycznego rozumowania. Prawdopodobnie pochodziły one od ludzi, którzy zostali wykształceni w matematycznych pojęciach i byli wystarczająco pomysłowi, by rozszerzyć wcześniejsze koncepcje matematyczne w nowych kierunkach. Jedno z najwcześniejszych miast, Mohenjo-Daro, które zostało zbudowane w północnych Indiach około 3700 lat temu, wykazuje oznaki wyrafinowanej matematyki. W rzeczywistości odważniki i wagi zostały wydobyte z Mohendżo-Daro. To miasto mogło pomieścić 35 000 mieszkańców w szczycie. Ulice są ułożone w ostrożny wzór siatki; cegły i konstrukcja wykazywały znaki standardowych wymiarów i elementów wielokrotnego użytku. Te rzeczy wymagają pomiarów. Zarówno Mohenjo-Daro, jak i inne miasto w północnych Indiach, Harappa, wykazują oznaki pewnego rodzaju władzy centralnej, ponieważ są zbudowane w podobnych stylach. Oba miasta wyprodukowały dużą liczbę glinianych tabliczek naciętych zarówno obrazami zwierząt, jak i symbolami, które uważano za pismo, chociaż pozostają one nierozszyfrowane. Niektóre z tych glinianych tabliczek sięgają nawet 3300 lat. Inne starożytne cywilizacje również rozwijały liczenie, arytmetykę, miary długości i wagi i skale. Egipt i Babilonia miały arytmetykę sprzed 2000 lat. W miarę osiedlania się miast i coraz większego czasu wolnego pozwalano na rozpoczęcie zawodów, które nie dotyczyły pracy fizycznej ani polowania. Te zawody nie zależały od wysiłku fizycznego i niewątpliwie obejmowały księży i szamanów. Z czasem uwolnionym od przetrwania i gromadzenia żywności zaczęły pojawiać się dodatkowe formy matematycznego zrozumienia. Śledzenie pozycji gwiazd przez długi czas, mierzenie większych odległości, takich jak granice własności i odległości między wioskami, oraz mierzenie pozycji i odległości pokonywanych przez łodzie wymagało bardziej złożonych form matematyki, a także precyzyjnych pomiarów kątów i okresów. Pojawienie się budowy łodzi wymagało również zwiększenia wiedzy matematycznej. Kadłuby łodzi są z konieczności zakrzywione, więc proste pomiary wymiarowe nie były wystarczające. Wiosłowanie lub żeglowanie łodzią po słodkiej wodzie lub w zasięgu wzroku można wykonać przy niewielkiej wiedzy matematycznej lub bez niej. Ale kiedy łodzie zaczęły zapuszczać się na oceany, konieczne stało się zrozumienie pozycji gwiazd, aby nie zgubić się. Australia jest oddalona od wszystkich innych kontynentów i nie była połączona mostem lądowym z żadnym innym miejscem, ponieważ kontynenty się rozpadły. Jednak osiedlili się około 40 000 lat temu, najwyraźniej dzięki długiej podróży oceanicznej z jednego (lub więcej) kontynentów. Wyspy Polinezji i Wyspy Wielkanocnej są również daleko od jakiegokolwiek lądu stałego, a jednak zostały zasiedlone tysiące lat temu. Te rzeczy wskazują na wczesną wiedzę na temat pozycji gwiazd i pewnego rodzaju matematyki. Wiele wczesnych cywilizacji w Egipcie, Mezopotamii, Chinach, Indiach i Ameryce Południowej szybko zgromadziło zaskakująco zaawansowaną wiedzę matematyczną. Ta wiedza matematyczna była często kojarzona ze specjalistami, którzy przeszli znaczące szkolenie. Wiele starożytnych cywilizacji, takich jak starożytni Chińczycy, Sumerowie, Babilończycy, Egipcjanie i Grecy, zainwestowało znaczny czas i energię w zapewnienie szkolenia dzieciom. Nie tak dobrze znane na Zachodzie są podobne wysiłki na rzecz szkolenia w Indiach i wśród mieszkańców Ameryki Środkowej i Południowej, takich jak Olmekowie, Majowie, Inkowie, a później Aztekowie. Japonia odbyła również formalne szkolenie. W przypadku wyższych klas szkolenie japońskie obejmowało zarówno umiejętności fizyczne z bronią, jak i tematy intelektualne, takie jak czytanie, pisanie i matematyka. Wszystkie te starożytne cywilizacje rozwinęły formalne szkolenie dla dzieci, a także metody zapisu informacji. Uniwersytet Nalanda w północnych Indiach został założony około 472 r. p.n.e. i trwał do około XII w., A szczyt odnotowano około 500 r. p.n.e. Był to jeden z największych w starożytnym świecie, z ponad 10 000 studentów z całej Azji i ponad 2000 profesorami. Był jednym z pierwszych uniwersytetów, które zapewniły szkolenia z matematyki, fizyki, medycyny, astronomii i języków obcych. Uniwersytet Nalanda miał aktywną grupę tłumaczy, którzy przetłumaczyli sanskryt i prakryt na informacje o Uniwersytecie Nalanda pochodzące z chińskich tłumaczeń zachowanych w Chinach, ponieważ biblioteka Uniwersytetu Nalanda została zniszczona podczas muzułmańskiej inwazji na Indie w XII wieku. Zgłoszono, że jest tak duża, że paliła się przez prawie sześć tygodni. Indyjscy uczeni byli dość zaawansowani nawet w porównaniu z Grecją i Rzymem. Pojęcia takie jak zero i świadomość wielu systemów gwiezdnych były znane w Indiach przed ich poznaniem w Europie. (Olmekowie z Ameryki Środkowej używali również zera przed Grekami). W starożytności, z populacji prawdopodobnie 1000 osób w wiosce neolitycznej, prawdopodobnie ponad 950 było analfabetami lub mogło jedynie wykonywać podstawowe liczenie przedmiotów i radzić sobie z prostymi wymiarami środki. Ale przynajmniej kilka osób było w stanie nauczyć się bardziej złożonych obliczeń, w tym obliczeń związanych z astronomią, budową budynków i mostów, nawigacją i budowaniem łodzi.


Powrót

Wynalazki dla ulepszenia matematyki



Od najwcześniejszej wiedzy na temat liczenia i pojęć numerycznych ci, którzy korzystali z informacji numerycznych, byli zaniepokojeni potrzebami większej szybkości obliczania i większej niezawodności wyników niż ludzki umysł, który nie był w stanie tego dokonać. Aby wyjaśnić późniejsze znaczenie komputerów i oprogramowania, warto zacząć od pierwszych prób poprawy wydajności matematycznej. Warto także zastanowić się, co tak naprawdę robią komputery i oprogramowanie oraz dlaczego są wartościowe. Usługi świadczone ludzkiemu umysłowi przez różne urządzenia liczące obejmują między innymi:

•  Podstawowe operacje arytmetyczne dodawania, odejmowania, mnożenia i dzielenia
•  Matematyka naukowa, w tym potęgi sinusy, cosinusy i inne
•  Matematyka finansowa, w tym proste i złożone odsetki oraz stopy zwrotu
•  Obliczenia logiczne, takie jak routing i wybory między alternatywami
•  Obliczenia czasu, odległości, wysokości i prędkości
•  Uzyskanie użytecznej wiedzy indukcyjnej z dużych zbiorów różnych informacji
•  Logika dedukcyjna, taka jak wyciąganie wniosków z reguł

Podczas prowadzenia badań podczas wyszukiwania w Internecie znaleziono wiele interesujących i przydatnych źródeł. Na przykład IBM ma graficzną historię matematyki, którą można nawet pobrać na iPhony. Wikipedia i inne źródła internetowe mają dziesiątki historii sprzętu komputerowego i niektóre historie rozwoju oprogramowania. W kilku krajach odnotowano kilkanaście muzeów komputerowych, takich jak London Science Museum, które ma działającą wersję silnika analitycznego Babbage′a. Przydatne okazało się połączenie sześciu rodzajów wynalazków, które są synergiczne i ostatecznie powiązane ze sobą, a także z nowoczesnym oprogramowaniem. Matematyka jest pierwszą z tych sześciu form wynalazku. Urządzenia obliczeniowe, komputery i oprogramowanie zostały najpierw wymyślone, aby przyspieszyć obliczenia matematyczne. Matematyka prawdopodobnie zaczęła się od dodawania i odejmowania, a następnie następowała mnożenie i dzielenie. Potem pojawiło się wiele innych bardziej abstrakcyjnych form: geometria, trygonometria, algebra i rachunek różniczkowy na przykład. Drugą formą wynalazku jest rejestrowanie pomysłów i informacji, aby mogły być udostępniane i przesyłane, a także aby pomysły były dostępne przez długi czas. Wynalazki w tej kategorii obejmują systemy zapisu i fizyczne przechowywanie pisma. Fizyczne przechowywanie pisma obejmuje kamienne tabletki, gliniane tabletki, papirus, skóry zwierzęce, papier, a ostatecznie magnetyczne i optyczne przechowywanie. Pamięć masowa obejmuje również rękopisy, książki, biblioteki, a ostatecznie bazy danych i pamięć masową w chmurze. Trzecią formą wynalazku są fizyczne urządzenia obliczeniowe, które mogą pomóc ludzkim uczonym w szybszych i dokładniejszych obliczeniach, niż byłoby to możliwe tylko przy użyciu ludzkiego umysłu i ludzkiego ciała. Tabele przydatnych wartości były prawdopodobnie pierwszą metodą przyspieszenia obliczeń. Urządzenia fizyczne obejmują liczydło, kątomierze, astrolabia, urządzenia pomiarowe, mechaniczne urządzenia liczące, suwaki, komputery analogowe i ewentualnie elektroniczne komputery cyfrowe. Czwarta forma wynalazku obejmuje dostępne kanały dystrybucji informacji dla wielu osób. Pierwszy kanał był bez wątpienia przekazem ustnym i przekazywaniem informacji, które mają być zapamiętane przez uczniów lub uczniów. Wkrótce jednak przekazywanie informacji zaczęło obejmować oznaczenia na kamieniach i kościach; oznaczenia na glinie; i wreszcie piktogramy, ideogramy i wreszcie alfabety. Piątą formą wynalazku jest samo oprogramowanie. To najnowsza forma wynalazku; zasadniczo całe oprogramowanie używane w 2013 r. ma mniej niż 55 lat, prawdopodobnie ponad 50% oprogramowania ma mniej niż 20 lat. Szósta forma wynalazku jest pośrednia. Są to wynalazki, które nie są bezpośrednio związane z komputerami i oprogramowaniem, ale pomagają w ich rozwoju. Jednym z takich możliwych wynalazków jest system patentowy. Drugim i bardzo ważnym wynalazkiem, który umożliwił, był plastik.

Matematyka, urządzenia obliczeniowe i oprogramowanie : Przybliżona liczba lat przed 2013 r

Liczenie obiektów : 35 000
Dodawanie i odejmowanie : 30 000
Pomiar kątów : 25 000
Liczenie rocznego upływu czasu : 20 000
Kamyczki używane do obliczeń : 20 000
Liczenie dziennego upływu czasu : 19 000
Ilościowa długość fizyczna, szerokość i wysokość : 18 000
Pomiar masy i objętości : 15 000
Pomiar długich dystansów między miastami : 10.000
Pomiar czasu astronomicznego : 7000
Geometria : 5500
Zegary : 5,500
Pomiar wysokości słońca i gór : 5000
Mnożenie i podział : 4,500
Pomiar prędkości poruszających się obiektów : 4000
Analogowe urządzenia obliczeniowe : 4000
Algebra : 4,000
Trygonometria : 4000
Ułamki : 4000
Tabliczki mnożenia : 3 900
Zegary: woda : 3300
Liczby dziesiętne : 3100
Liczydło i obliczenia mechaniczne : 3000
Zegary: mechaniczne : 3000
Liczby binarne : 2 700
Zero : 2600
Pomiar krzywych, okręgów i nieregularnych obiektów : 2500
Temperatura pomiaru : 2500
Mechanizm Antikythera : 2200
Astrolabe : 2 100
Abstrakcyjne tematy, takie jak zero i liczby ujemne : 2000
Klepsydry : 1500
Skomplikowane tematy, takie jak odsetki złożone : 1400
Pomiar prawdopodobieństw dla gier losowych : 1000
Rachunkowość : 900
Wykresy : 800
Reguły slajdów : 575
Pomiar szybkości zmiany i przyspieszenia : 500
Kalkulatory mechaniczne do dodawania i odejmowania : 425
Moc pomiarowa : 400
Obliczanie trajektorii : 400
Kalkulatory mechaniczne do mnożenia i dzielenia : 375
Pomiar niewidzialnych zjawisk, takich jak dźwięk : 350
Abstrakcyjne tematy, takie jak liczby irracjonalne i niepewność : 350
Urządzenia liczące dziurkacze : 350
Rachunek : 350
Zliczanie krótkich przejść czasowych (<1 sekunda) : 300
Badania statystyczne na dużą skalę z milionami próbek : 250
Bardzo złożone tematy, takie jak informacje i niepewność : 250
Matematyczna prognoza pogody : 250
Pomiar zjawisk elektrycznych i magnetycznych : 200
Mechaniczne maszyny do tabelowania : 200
Algebra Boole'a : 175
Teoria zbiorów : 150
Zestawy rozmyte : 145
Względność : 105
Pomiar sił silnych i słabych oraz siły ciężkości : 100
Komputery cyfrowe : 70
Badania operacyjne : 65
Języki programowania : 65
Algorytmy sortowania : 55
Bazy danych : 55
Kalkulatory kieszonkowe : 50
Aplikacje matematyczne : 50
Aplikacje oprogramowania naukowego : 50
Aplikacje finansowe : 45
Aplikacje statystyczne : 40
Aplikacje księgowe : 40
Aplikacje architektoniczne i inżynieryjne : 40
Silniki do renderowania grafiki do gier : 35

Tabela ilustruje fakt, że wykorzystanie matematyki przez ludzi jest starożytne i można je prześledzić prawie tak daleko, jak mowa. Powodem tego jest fakt, że wiedza matematyczna stała się krytycznym czynnikiem, gdy ludzie zaczęli żyć w wioskach i handlować z innymi. Ci, którzy polują i zbierają dzikie rośliny, mają niewielkie zapotrzebowanie na matematykę i tylko podstawowe potrzeby dla wyrafinowanej komunikacji jakiegokolwiek rodzaju. pojawienie się rolnictwa, życie w społecznościach i handel z innymi społecznościami przyniosły zapotrzebowanie na wagi, miary, świadomość zmian sezonowych i przynajmniej podstawową arytmetykę, taką jak dodawanie i odejmowanie.

Metody zapisywania i nośniki : Przybliżona liczba lat przed 2013 r

Na kamieniu lub kościach : 50 000
Na glinie : 6000
Z piktogramami takimi jak hieroglify : 4 500
Na papirusie : 4000
Z ideogramami takimi jak chińskie znaki : 4000
Korzystanie z szyfrowania : 2500
Na welinie : 2000
Na papierze : 2000
W pełnym kolorze : 700
Graficznie : 400
Na kartach perforowanych : 350
Używanie symboli dotykowych, takich jak Braille : 250
Na taśmie papierowej : 250
Korzystanie z aparatów i film : 160
Nagrywanie dźwięków : 130
Magnetycznie na taśmie : 125
Na winylu : 125
Dynamicznie w pełnym ruchu : 100
Na mikrofilmie : 80
Nagrywanie w trzech wymiarach : 75
Magnetycznie na dyskach : 55
Optycznie na dyskach : 50
Na urządzeniach półprzewodnikowych : 35
Korzystanie z multimediów : 30
Korzystanie z aparatów cyfrowych : 25
O e-bookach : 25
Na smartfonach : 10
Używanie bitów kwantowych : 5
Heterogeniczne bazy danych (duże dane) : 5

Nagrywanie informacji

Po przeprowadzeniu obliczeń istnieje również potrzeba przechowywania informacji w formacie trwałym lub przynajmniej długotrwałym, aby informacje mogły być udostępniane innym lub wykorzystane później w razie potrzeby. Tabela 1.2 uwzględnia wszystkie różne metody używane od czasów starożytnych do czasów współczesnych do zapisywania informacji w formie stałej. Jak widać z Tabeli powyżej rejestracja informacji jest starożytną działalnością, która sięga aż do wynalezienia pisma i cyfr. Bez metody rejestrowania informacji, obliczenia lub własność artykułów nie mogą być udostępniane innym osobom ani wykorzystywane później do weryfikacji transakcji. Współczesnym problemem, który zostanie omówiony w kolejnych częściach, jest fakt, że metody przechowywania nie są trwałe i nie ma pewności, jak długo papierowe zapisy lub skomputeryzowane zapisy mogą trwać. Papier jest łatwopalny, a także narażony na działanie owadów, wilgoci i innych form zniszczenia. Pamięć magnetyczna jest długotrwała, ale nie trwała. Co gorsze, każde zabłąkane pole magnetyczne może uszkodzić lub zniszczyć zapisy magnetyczne. Zapisy optyczne przechowywane na plastikowych dyskach mogą trwać 100 lat lub dłużej, ale sam plastik ma nieznaną długość życia, a powierzchnie zapisu łatwo ulegają uszkodzeniu w wyniku ścierania, sadzy, pożaru lub naprężeń mechanicznych. Najważniejsze jest to, że najwcześniejsze znane formy zapisu, takie jak rzeźby na kamieniu lub glinie, prawdopodobnie mają najdłuższą oczekiwaną długość życia w jakiejkolwiek formie zapisu, która została wynaleziona.

Przekazywanie informacji

Tabela poniżej zawiera wykaz wynalazków umożliwiających przekazywanie lub udostępnianie informacji innym ludziom po przeprowadzeniu obliczeń i zapisaniu wyników w jakiś sposób. Jest oczywiste, że prawie wszystkie informacje będą potrzebne więcej niż jednej osobie, więc komunikacja i wymiana informacji są prawie tak stare, jak matematyka.

Kanały komunikacyjne : Przybliżona liczba lat wcześniej do 2013 r

Słowa z ust : 50 000
Kurierzy : 6000
Migające światła : 5000
Sygnał dymu : 5000
Zapis nutowy : 4500
Gołębie pocztowe : 3500
Kody i szyfry : 2500
Odręczne książki : 2500
Lustra lub polerowane powierzchnie : 2000
Języki migowe : 1750
Wiązane struny : 1500
Drukowane książki : 1000
Wykresy dla wartości matematycznych : 800
Gazety : 350
Czasopisma : 300
Długość sygnału (kod Morse'a) : 175
Touch for the blind (Braille) : 175
Telegraf : 175
Radio : 150
Telefon : 130
Telewizja : 70
Satelita : 60
Sygnały podprogowe : 50
Nauka snu : 40
Dźwięki o ultra-niskiej częstotliwości : 35
Internet : 30
Urządzenia dla głuchych (implanty ślimakowe): 30
Książki elektroniczne (e-booki) : 25
Lasery : 25
Automatyczne tłumaczenie języka : 25
Intranet : 20
Awatary w symulowanych światach : 15
Blogi : 12
Seminaria internetowe lub podcasty : 12
Witryny Wiki : 10
Sieci społecznościowe : 10
Animowane metody multisensoryczne : 5

Na przestrzeni wieków gatunek ludzki opracował wiele interesujących i przydatnych metod przekazywania informacji. Często istnieje potrzeba przesyłania informacji na bardzo duże odległości. Do niedawna gołębie pocztowe były używane do wiadomości między odległymi lokalizacjami. Jednak organizacje wojskowe od dawna uznają, że widoczne pagórki lub inne wysokie miejsca mogą być wykorzystywane do wysyłania informacji na duże odległości za pomocą polerowanych powierzchni w ciągu dnia lub w nocy. Przypomnijmy słynną linię z podróży Paula Revere'a, która opisuje latarnie oświetleniowe w północnej wieży kościoła, aby ostrzec przed zbliżaniem się wojsk brytyjskich: "… jedna jeśli lądem, dwie jeśli drogą morską. " Komunikacja z podwodnymi łodziami podwodnymi była trudna aż do pojawienia się komunikacji za pomocą dźwięków o bardzo niskiej częstotliwości. Kody i tajne komunikaty mają również długą historię kilku tysięcy lat. Późniejsze części zajmą się kilkoma formami kodów i tajnej komunikacji podczas II wojny światowej, w tym słynnymi Indianami "koderami", którzy przemawiali w kodzie opartym na Navajo, Choctaw i innych językach rdzennych Amerykanów. Świadomość potrzeby komunikowania się jest starożytną wiedzą. Jest ciekawe przejście w buddyjskiej sutrze datowanej na około trzeci wiek p.n.e. w której Budda omówił sposób przekazywania jego nauk. Wspomina mimochodem, że na ziemi nauki są przekazywane słowami, ale na innych światach nauki przekazywane są przez światła, zapachy lub inne środki niewerbalne.

Przechowywanie informacji

Tabela poniższa przedstawia sposób przechowywania i dostępu do informacji. Jak wiedzą wszyscy uczeni i badacze, kiedy ilość informacji przekracza kilka książek lub kilkadziesiąt dokumentów pisemnych, istnieje pilna potrzeba stworzenia pewnego rodzaju systemu taksonomicznego lub katalogu, aby zapewnić ponowne znalezienie informacji, gdy będzie to potrzebne. Przechowywanie i dostęp do informacji to kluczowe cechy nowoczesnych komputerów, a nowoczesne oprogramowanie odegrało ogromną rolę w poprawie wyszukiwania informacji.

Przechowywanie informacji i dostęp : Szacowana liczba lat przed 2013 r

Osobiste zbiory informacji pisemnych : 6000
Biblioteki lub publiczne zbiory pisemnej informacji : 4500
Aktualne zbiory praw i kodeksów prawnych : 2000
Kolekcje tematyczne, takie jak biblioteki medyczne i prawne : 1200
Uniwersyteckie programy informacyjne dla tematów : 1000
Taksonomia dla organizacji biologicznej i naukowej : 300
Dewey system dziesiętny dla organizacji książki : 135
Sekwencyjne bazy danych informacji : 65
Losowe bazy danych informacji : 55
Relacyjne bazy danych informacji : 50
Zalecenia dotyczące afiliacji oparte na preferencji z przeszłości : 35
Wyszukiwarki internetowe do wyboru słów kluczowych : 25
Inteligentni agenci do wyboru odpowiednich informacji : 15
Narzędzia analityczne Big Data : 10

Tabela pokazuje tematy, które były trudne dla dużych ilości informacji przez tysiące lat i które w rzeczywistości stają się coraz gorsze we współczesnym świecie. Przez większość historii ludzkości zbiory informacji rzadko przekraczały 10 000 woluminów, nawet dla dużych bibliotek. W dzisiejszym świecie niemal natychmiastowego rejestrowania wszystkich książek, czasopism, prac badawczych, obrazów i innych form treści intelektualnych są teraz miliardy dokumentów. Co tydzień mija coraz więcej informacji publikowanych, zapisywanych i dodawanych do bibliotek w chmurze i innych form przechowywania danych. Nie widać końca. Istnieje pilna potrzeba kontynuowania badań nad najlepszymi sposobami rejestrowania informacji w celu przetrwania w dłuższej perspektywie oraz rozwijania lepszych metod sortowania miliardów rekordów i znajdowania, a następnie agregowania tematów istotnych dla konkretnych potrzeb. Pojawiający się temat "dużych danych" zaczyna zajmować się tymi problemami, ale rozwiązanie nie jest obecnie widoczne i nadal jest nad horyzontem. Pierwszą i najtrwalszą metodą przechowywania i dostępu do danych były biblioteki. W całej cywilizowanej historii wiele znanych bibliotek służyło uczonym i badaczom. Biblioteka Aleksandrii, biblioteka Uniwersytetu Nalanda, biblioteka Perganum, pięć bibliotek Ugarit, rzymskie biblioteki Trajana na forum i biblioteka Konstantynopola były słynne w starożytności. Współczesne biblioteki, takie jak Biblioteka Kongresu, Biblioteka Harvarda i wiele dużych bibliotek uczelnianych nadal służą jako główne repozytoria informacji dla studentów i badaczy. Książki są używane od tysięcy lat w celu rejestrowania i przekazywania wiedzy od człowieka do człowieka, zwłaszcza od nauczycieli do studentów. Osobiste biblioteki podręczników są normalnym wyposażeniem wszystkich zawodów, w tym inżynierii, prawa, medycyny i oczywiście inżynierii oprogramowania. Ostatnio e-booki, wyszukiwarki internetowe i inteligentni agenci umożliwiają jednostkom i uczonym dostęp do większej ilości danych i informacji o większych rzędach wielkości, niż było to możliwe w historii ludzkości do około 45 lat temu.

Włączanie komputerów i oprogramowania

Tabela poniższa nieco odbiega od bezpośredniej linii zstępującej między wynalazkami a komputerami i oprogramowaniem. Ta tabela dotyczy niektórych wynalazków, które później stały się ważne, gdy komputery i oprogramowanie również stały się ważne.

Włączanie wynalazków : Przybliżona liczba lat przed 2013 r

Nowoczesne systemy patentowe : 800
Algebra Boole'a : 175
Tworzywa sztuczne na obudowy komputerowe, ekrany, połączenia itp. : 125
Lampy próżniowe : 120
Karty dziurkowane : 120
Lampy CRT : 80
Architektura von Neumanna : 75
Taśma papierowa : 75
Układy scalone : 70
Tranzystory : 70
Taśma magnetyczna : 70
Języki programowania wysokiego poziomu : 65
Dyski magnetyczne : 60
Systemy operacyjne : 55
Atrament magnetyczny do czeków bankowych : 55
Paski magnetyczne do kart kredytowych : 50
Karty graficzne : 40
Drukarki laserowe : 40
Dyskietki : 40
Drukarki igłowe : 35
Ethernet : 35
Wyświetlacze LED : 30
Drukarki atramentowe : 25
Pamięć półprzewodnikowa : 20
Dyski flash : 15

Jednym z pierwszych wynalazków jest sam system patentowy. Pierwszy znany patent w języku angielskim został przyznany w 1331 roku w Anglii człowiekowi o imieniu John Kemp. Później włoski patent został przyznany we Florencji w 1421 r. Patenty podobne do współczesnych patentów i egzekwowane przez ustawę pojawiły się w Wenecji w ustawie ustanawiającej patenty w 1474 r. Pierwszy patent wydany w Ameryce Północnej został wydany przez sąd stanu Massachusetts w 1641 r. Człowiekowi o nazwisku Samuel Winslow za metodę wytwarzania soli. Pierwsze federalne prawo patentowe w Stanach Zjednoczonych zostało wydane 10 kwietnia 1790 r. I miało tytuł "Akt promujący postęp pożytecznych sztuk".

Uwaga

Nazwa "patent" wywodzi się ze zwrotów "patentów literowych" i "liter zamkniętych". Pieczęć na literach przykryła fałdę i musiała zostać złamana w celu odczytania listu. Pieczęć na liście patentowym została dołączona do dolnej części dokumentu, aby można ją było odczytać z nienaruszoną pieczęcią. Patenty na oprogramowanie mają bardzo skomplikowaną ścieżkę i czasami są blokowane i akceptowane od niedawna. Ale nie ma gwarancji, że patenty na oprogramowanie będą zawsze akceptowane przez urząd patentowy USA. W latach 60. patenty na oprogramowanie zostały zablokowane i wszczęto kilka procesów sądowych, a sądy zasadniczo zgadzały się, że oprogramowanie nie posiada zdolności patentowej. W 1981 r. Sąd Najwyższy USA zaangażował się w sprawę Diamond vs. Diehr i zdecydował, że przynajmniej w szczególnych przypadkach oprogramowanie można opatentować. Wymusiło to zmianę procedury w Urzędzie Patentowym. Sytuacja pozostała jednak mętna i niejednoznaczna iw dużej mierze decydowała o tym indywidualnie, bez żadnych prawdziwych wskazówek i stałych zasad. W 1998 r. W słynnej sprawie State Street Bank vs. Signature Financial Group ostatecznie zdecydowano, jakie formy oprogramowania można opatentować. Ten przypadek dotyczył metody przetwarzania funduszy wspólnego inwestowania. Sąd Najwyższy uznał, że procesy biznesowe, w tym procesy zawarte w oprogramowaniu, mogą być opatentowane. Istniało również wiele innych wynalazków prekursorskich. Na przykład bez tranzystorów i układów scalonych nie byłoby żadnych komputerów przenośnych, komputerów wbudowanych ani żadnych małych urządzeń elektronicznych, które obecnie korzystają z oprogramowania. Wynalazki, które stały się integralnymi częściami komputerów, obejmują tworzywa sztuczne do skrzynek i ekranów, układy scalone, tranzystory, karty graficzne i wyświetlacze LED. Inne wynalazki miały silny wpływ na wykorzystanie komputerów, a tym samym na oprogramowanie, które zostało stworzone do obsługi tych zastosowań. Na przykład bez patentu IBM z 1960 r. Na pasek magnetyczny, który można by zastosować do plastiku, karty kredytowe nie zostałyby opracowane. Bez wynalezienia atramentu magnetycznego czeki bankowe byłyby sortowane alfabetycznie zamiast w porządku numerycznym i prawdopodobnie sortowane ręcznie.


Powrót

Kluczowe wynalazki związane z oprogramowaniem



Wszystkie wynalazki wymienione w poprzednich tabelach są w taki czy inny sposób ważne. Jednak myśląc o wynalazkach, które miały największy wpływ na oprogramowanie, wynalazki omówione w następnej sekcji są najbardziej krytyczne.

Języki alfabetyczne

Informacje zapisane za pomocą piktogramów, takich jak egipskie hieroglify, są eleganckie i piękne oraz stworzyły cudowną kaligrafię, ale takie systemy nie nadają się do szybkiego wprowadzania danych i komputeryzacji. To samo dotyczy informacji zapisanych za pomocą ideogramów, takich jak chińskie i japońskie kanji (które używają chińskich symboli). Istnieją tysiące symboli, co bardzo utrudnia pisanie. Podczas II wojny światowej tekst wprowadzony do japońskiej maszyny kodującej "Purple" faktycznie wykorzystywał dwie amerykańskie maszyny do pisania Underwood i zwykły tekst przy użyciu angielskich znaków. Języki alfabetyczne mają największą szybkość podczas wpisywania tekstu.

Liczby binarne i dziesiętne oraz zero

Komputery i oprogramowanie mogą przetwarzać liczby przy użyciu dowolnej podstawy, takiej jak dwójkowa, ósemkowa, dziesiętna lub szesnastkowa. Jednak obwody elektroniczne do wykonywania matematyki są nieco łatwiejsze do zaprojektowania przy użyciu arytmetyki binarnej. Systemy numeracji ósemkowej lub o podstawie 8 można łatwo przekształcić z binarnego. (Niektóre plemiona rdzennych Amerykanów stosowały liczby ósemkowe, ponieważ liczyły przy użyciu odstępów między palcami, a nie samych palców.) Kilka komputerów było opartych na liczbach ósemkowych, takich jak linia DEC PDP. Liczby szesnastkowe lub szesnastkowe są również używane w komputerach i są wygodne, ponieważ pasują do pojemności bajtów. Jednak większość codziennych obliczeń używanych przez ludzi opiera się na liczbach dziesiętnych lub dziesiętnych. Liczby dziesiętne są nieco analogiczne do klawiatury QWERTY: nie optymalne, ale tak szeroko stosowane, że przejście na coś innego byłoby zbyt kosztowne do rozważenia. Wydawało się, że przecinek dziesiętny pochodzi z Indii w IX wieku, ale to John Napier uczynił tę koncepcję ważną w matematyce zachodniej około 1620 roku. Napier wynalazł również logarytmy i interesujący ręczny kalkulator zwany "kościami Napiera". Logarytmy były używane w regułach pierwszego slajdu i dlatego są ważnym tematem tła dla obliczeń analogowych. Wydaje się, że pojęcie zera ma kilka niezależnych źródeł. Był używany w Babilonie z podstawową matematyką 60, ale najwyraźniej jako symbol zastępczy, a nie faktyczne obliczenia. To użycie miało miejsce około 2500 lat temu. Olmekowie i Majowie używali zera jako prawdziwej liczby i używano go do obliczeń kalendarzowych, które były dość złożone. Wydaje się, że to użycie zera datuje się na około 400 rne. Użycie zera w Indiach datuje się na około 458 rne, kiedy to znaleziono w tekście o matematyce. Nie jest pewne, czy był to autochtoniczny wynalazek, czy odziedziczony po Babilonie. Później, w latach sześćdziesiątych XX wieku, słynny indyjski matematyk Brahmagupta napisał artykuł o zastosowaniu zera, które samo przeszło od zera do liczb ujemnych. Liczby dziesiętne, przecinek dziesiętny i zero były ważnymi prekursorami prowadzącymi do obliczeń komputerowych i programowych.

Komputery cyfrowe

Później omówimy ewolucję komputerów cyfrowych i związanego z nimi oprogramowania od połowy lat 30. XX wieku do 2010 r., Z prognozami do 2019 r. Dość powiedzieć, że oprogramowanie zostało stworzone specjalnie do działania na komputerach cyfrowych. Bez komputerów cyfrowych nie byłoby oprogramowania. Bez oprogramowania komputery cyfrowe nie miałyby większego celu i prawdopodobnie nie zastąpiłyby komputerów analogowych.

Języki programowania wyższego poziomu

Programowanie przy użyciu zarówno języka maszynowego (głównie do poprawek i napraw błędów), jak i podstawowego języka asemblera było pierwszym sposobem programowania komputerów IBM 1401. Język maszynowy jest bardzo podatny na błędy, a także szybko męczy z powodu dużej koncentracji potrzebnej do radzenia sobie z nim. Asembler był krokiem we właściwym kierunku, ale niezbyt dużym krokiem. Konieczność korzystania z dziesiątek instrukcji montażu do wykonywania obliczeń lub formatowania wydruków była czasochłonna i nudna. Języki wyższego poziomu, począwszy od ALGOL, COBOL, FORTRAN, PL / I, APL i innych, skróciły czas kodowania, znacznie zredukowały błędy kodowania i przekształciły programowanie w opłacalne zajęcie.

Pamięć o dostępie swobodnym

Sekwencyjne przechowywanie danych na taśmie papierowej, kartach lub taśmie magnetycznej miało dość długi i użyteczny okres użytkowania. Było to jednak bardzo nieefektywne i wymagało zbyt dużego ruchu taśm, aby osiągnąć duże prędkości. Wynalezienie dysków twardych i pamięci masowej o dostępie swobodnym umożliwiło szybsze przetwarzanie, wyrafinowane algorytmy wyszukiwania i ścieżkę, która ostatecznie doprowadziłaby do dzisiejszego świata "dużych zbiorów danych" z miliardami rekordów i milionami plików wykorzystywanych w przypadku konkretnych problemów. Bez dostępu swobodnego nowoczesne komputery i oprogramowanie poradziłyby sobie tylko z niewielką częścią ważnych problemów związanych z analizą danych. Dostęp losowy doprowadziłby również do koncepcji relacyjnych baz danych, sortowania i różnych potężnych języków zapytań z rodziny Structured Query Language (SQL).


Powrót

Wpływ oprogramowania na ludzi i społeczeństwo



Wpływ oprogramowania na ludzi i społeczeństwo Ramy czasowe, w których rozwijały się komputery i oprogramowanie, to zaledwie 75 lat. Jednak ich wpływ na poszczególnych ludzi i społeczeństwa był tak samo ważny jak prasa drukarska, samoloty, telewizja i samochody.

Korzystne narzędzia i aplikacje

Poniżej znajduje się podsumowanie narzędzi i aplikacji, które zmieniły sposób działania firm; wojny są toczone; a ludzie zbierają informacje, komunikują się i wykorzystują swój wolny czas. Zaskakujące jest, że wszystkie one powstały w ciągu ostatnich 50 lat. Prawdopodobnie połowa z tych narzędzi i aplikacji ma mniej niż 25 lat.

•  Narzędzia biznesowe
•  Księgowość
•  Studia aktuarialne
•  Reklama w Internecie
•  Planowanie rolnictwa
•  Analytics
•  Skanery kodów kreskowych
•  Big data
•  Analiza budżetu
•  Chmura obliczeniowa
•  Analiza konkurencji
•  Śledzenie kosztów i zasobów
•  Szacowanie kosztów
•  Crowdsourcing
•  Zarządzanie relacjami z klientami (CRM)
•  Analiza satysfakcji klienta
•  Obsługa klienta
•  Analiza optymalizacji dystrybucji
•  Sterowanie siecią elektroenergetyczną
•  Pakiety planowania zasobów przedsiębiorstwa (ERP)
•  Finanse
•  Zarządzanie
•  Zarządzanie zasobami ludzkimi
•  Inwentarz
•  Inwestycje
•  Kontrole zapasów na czas
•  Wsparcie prawne
•  Marketing
•  Poszukiwanie ropy naftowej
•  Wprowadzanie zamówień
•  Śledzenie zamówienia
•  Planowanie i harmonogramowanie
•  Kontrole procesu
•  Systemy rezerwacji
•  Szacowanie i analiza ryzyka
•  Zrobotyzowana produkcja
•  Wsparcie sprzedaży
•  Zarządzanie łańcuchem dostaw
•  Ankiety i analiza opinii
•  Sterowanie siecią telefoniczną
•  Oczyszczanie wody
•  Sprzedaż detaliczna w Internecie
•  Bazy danych
•  Grafika i obrazy
•  Muzyka
•  Sygnały i analogowe
•  Tekst i numeryczne
•  Magazyn danych
•  Formularze o mieszanych danych
•  Narzędzia edukacyjne
•  Porównawcze statystyki dotyczące edukacji
•  Planowanie programu nauczania
•  Indywidualne e-learning dla każdego ucznia
•  Analiza spisu umiejętności
•  Specjalne narzędzia dla osób niepełnosprawnych
•  Badania studentów za pośrednictwem sieci
•  Wirtualne sale lekcyjne
•  Urządzenia wbudowane
•  Silniki i hamulce samochodowe
•  Samochodowe systemy bezpieczeństwa
•  Awionika
•  Nawigacja GPS
•  Aparaty słuchowe
•  Produkcja
•  Medyczny
•  Przetwarzanie sygnałów
•  Inteligentne urządzenia
•  Telekomunikacja
•  Narzędzia rządowe
•  Kontrola ruchu lotniczego
•  Weryfikacja w tle
•  Analiza budżetu
•  Spis ludności
•  Akta sądowe
•  Gotowość na wypadek katastrof
•  Analiza ekonomiczna
•  Statystyki zatrudnienia
•  Monitoring środowiska
•  Kontrole finansowe
•  Statystyki dotyczące zdrowia i długowieczności
•  Lokalizacja, projektowanie i budowa autostrad
•  Weryfikacja tożsamości
•  Zagospodarowanie terenu
•  Egzekwowanie prawa
•  Dokumenty prawne
•  Mandaty i przepisy
•  Obrona narodowa
•  Analiza patentowa
•  Dokumenty polityczne
•  Monitorowanie zanieczyszczeń
•  Więzienia
•  Oceny nieruchomości
•  Redystricting
•  Agencje regulacyjne
•  Ocena ryzyka
•  Opodatkowanie
•  Analiza i kontrole ruchu
•  Wsparcie dla bezrobotnych
•  Rekordy wyborców
•  Kontrola zaopatrzenia w wodę
•  Opieka społeczna
•  Zagospodarowanie przestrzenne
•  Wypoczynek
•  Blu-ray i cyfrowe wideo
•  Gry komputerowe
•  Cyfrowe formaty muzyczne
•  Geocaching
•  Listy odtwarzania muzyki
•  Czasopisma online
•  Przesyłanie strumieniowe wideo
•  Światy rzeczywistości wirtualnej
•  Medyczny
•  Koordynacja w czasie rzeczywistym między zespołami medycznymi
•  Urządzenia zewnętrzne
•  Wszczepione urządzenia
•  Prowadzenie dokumentacji ubezpieczeniowej
•  Testy laboratoryjne
•  Monitorowanie szpitala pacjenta
•  Dokumentacja pacjenta
•  Zrobotyzowane urządzenia chirurgiczne
•  Statystyki: krajowe, globalne
•  Obrona narodowa
•  Tarcze przeciwrakietowe
•  Symulacja walki
•  Dowodzenie i kontrola
•  Bezpieczeństwo cybernetyczne
•  Monitorowanie głębin oceanów
•  Wczesne ostrzeżenia o zagrożeniach
•  Szyfrowanie i deszyfrowanie
•  Gromadzenie informacji i koordynacja
•  Analiza logistyczna
•  Przechwytywanie sygnału Agencji Bezpieczeństwa Narodowego
•  Monitoring satelitarny
•  Bezpieczna komunikacja
•  Analiza zagrożeń
•  Narzędzia osobiste
•  Blogi
•  Komputery
•  Listy kontaktów
•  Codzienne kanały informacyjne
•  Urządzenia cyfrowe
•  Aparaty cyfrowe
•  Cyfrowe przetwarzanie obrazu
•  Zegarki cyfrowe
•  E-booki
•  E-mail
•  Grafika
•  podręczne, w pełni funkcjonalne kalkulatory cyfrowe
•  Wsparcie dla osób niesłyszących, niewidomych itp.
•  Finanse domowe
•  Natychmiastowy czat komputerowy
•  Muzyka
•  Tłumaczenie na język naturalny
•  Prezentacje
•  Planowanie
•  Wyszukiwarki
•  Smartfony
•  Portale społecznościowe
•  Arkusze kalkulacyjne
•  Statystyka
•  Komputery typu Tablet
•  Tekst na mowę
•  Przetwarzanie wideo
•  Przeglądarki internetowe
•  Przetwarzanie tekstu
•  Profesjonalne narzędzia
•  Księgowość
•  Analytics
•  Animacja i grafika
•  Architektura
•  Inżynieria lądowa
•  Animacja komputerowa
•  Eksploracja danych
•  Projektowanie
•  Analiza ekonomiczna
•  E-learning
•  Szyfrowanie i deszyfrowanie
•  Inżynieria
•  Inteligentni agenci do skanowania internetowego
•  Egzekwowanie prawa
•  Wsparcie prawne
•  Matematyka
•  Pomoc medyczna
•  Kompozycja muzyczna
•  Nagrywanie, odtwarzanie i miksowanie muzyki
•  Bezpieczeństwo narodowe
•  Analiza patentowa
•  farmaceutyczny
•  Zarządzanie projektami
•  Zarządzanie własnością
•  Publikowanie
•  aukcje nieruchomości
•  Urządzenia do sprawdzania pisowni i gramatyki
•  Statystyka
•  Narzędzia programistyczne
•  Rozmiar aplikacji
•  Automatyczne testowanie
•  Analiza złożoności
•  Kontrole konfiguracji
•  Ciągła integracja
•  Oszacowanie kosztów i harmonogramu
•  Eksploracja danych starszych aplikacji
•  Debugowanie
•  Wsparcie inspekcyjne
•  o Ocena utrzymania i wsparcia
•  Pomiary i wzorce
•  Kompilatory języków programowania
•  Ocena jakości
•  Wymagania i analiza projektu
•  Modelowanie wymagań
•  Analiza możliwości ponownego wykorzystania
•  Szacowanie ryzyka
•  Analiza statyczna
•  Narzędzia testowe (projekt i wykonanie)
•  Wirtualizacja
•  Projektowanie i budowa stron internetowych
•  Narzędzia ochronne
•  Anty spam
•  Antyspyware
•  o Antywirus
•  Inteligentne systemy alarmowe
•  Narzędzia naukowe
•  Analiza archeologiczna
•  Analiza astronomiczna
•  Analiza biologiczna
•  Analiza chemiczna
•  Kalibracja obrazu wspomagana komputerowo
•  Urządzenia optyczne stabilizowane komputerowo
•  Eksploracja głębokich oceanów
•  Analiza DNA
•  Analiza epidemiologiczna
•  Analiza kryminalistyczna
•  Eksploracja geologiczna (radar ze skanowaniem bocznym)
•  Analiza językowa
•  Metalurgia
•  Analiza meteorologiczna i prognozy pogody
•  Nanotechnologie
•  Sterowanie urządzeniami jądrowymi
•  Sprzęt do badań fizyki
•  Lunety celownicze dla osób niesłyszących, niewidomych itp.
•  Symulacje zjawisk fizycznych
•  Pojazdy kosmiczne, łaziki i satelity
•  Wizualizacja

Jak widać z tej listy, komputery i oprogramowanie dokonują głębokich zmian w każdym aspekcie ludzkiego życia: edukacji, pracy, wojnie, rozrywce, medycynie, prawie i we wszystkim innym.

Szkodliwe wynalazki


Komputery i oprogramowanie wprowadziły również szereg szkodliwych wynalazków, które są wymienione poniżej, z których część wcześniej nie istniała. Wśród szkodliwych wynalazków spowodowanych przez komputery i oprogramowanie są kradzież tożsamości, hakowanie i wirusy komputerowe. To nowe i alarmujące działania przestępcze.

•  Porywacze przeglądarki
•  botnety komputerowe
•  Śledzenie klawiatury komputera
•  Spam komputerowy
•  Oprogramowanie szpiegowskie komputerowe
•  Wirusy komputerowe
•  Robaki komputerowe
•  Skomputeryzowana obsługa klienta
•  Trudności w korygowaniu błędów w danych komputerowych
•  Elektroniczne maszyny do głosowania bez kopii zapasowej
•  Narzędzia hakerskie
•  Kradzież tożsamości
•  Wyłudzanie informacji
•  Piractwo
•  Zrobotyzowane rozmowy telefoniczne (robo-rozmowy)
•  Zrobotyzowane systemy broni
•  Broń inteligentna: bomby, drony i pociski
•  Spam
•  Specjalne wirusy atakujące sprzęt przemysłowy
•  Programy szpiegujące
•  Oprogramowanie giełdowe bez wyłączania anomalii
•  Niezrozumiałe menu głosowe telefonu
•  Pornografia internetowa

Zagrożenia te są stosunkowo nowe i wszystkie są coraz bardziej niebezpieczne we współczesnym świecie. Rzeczywiście, kradzież tożsamości stała się jednym z największych i najbardziej powszechnych przestępstw w historii ludzkości. Jest to również przykład nowego rodzaju przestępstwa, w którym przestępca i ofiara nigdy się nie widzą, a w momencie popełnienia przestępstwa mogą być oddaleni o ponad 12 000 mil. Te szkodliwe aspekty komputerów i oprogramowania zapoczątkowały nowe przepisy i nowe branże, które zapewniają ochronę przed wirusami, ubezpieczenie przed włamaniem i inne formy ochrony. Wynalazki te doprowadziły również do powstania nowych i specjalnych jednostek zajmujących się cyberprzestępczością we wszystkich głównych siłach policyjnych, FBI, CIA, Secret Service, Departamencie Obrony i służbach mundurowych, Homeland Security i innych organizacjach rządowych. Pojawienie się Kongresowego Klubu Bezpieczeństwa Cybernetycznego jest oznaką, że te nowe rodzaje cyberprzestępczości przyciągają uwagę na najwyższych szczeblach władzy.

Ważenie ryzyka

Komputery i oprogramowanie dokonują głębokich zmian w każdym aspekcie ludzkiej egzystencji. Wielu czytelników ma tysiące "przyjaciół" w sieciach społecznościowych. Jeszcze więcej czytelników śledzi codzienne życie i czynności niezliczonych celebrytów i osobistych przyjaciół, używając "tweetów" lub krótkich wiadomości. Wiadomości tekstowe zaczynają przewyższać liczbę rozmów telefonicznych na żywo (a także kosztują więcej ze względu na nowe skomputeryzowane algorytmy rozliczeniowe). Zakupy e-booków przewyższyły ostatnio zakupy zwykłych książek papierowych. Banki pobierają teraz dodatkowe opłaty za wystawianie wyciągów bankowych w formie papierowej w przeciwieństwie do wyciągów elektronicznych online. Cała nasza medycyna i edukacja są teraz skomputeryzowane i przechowywane w bazach danych. Nie byłoby możliwe zarezerwowanie lotu lub hotelu bez komputerów i oprogramowania. Rzeczywiście, po dużych burzach śnieżnych lub huraganach, gdy przestają działać linie energetyczne, wiele rodzajów przedsiębiorstw zaprzestaje działalności, ponieważ nie są już przygotowane do obsługi transakcji ręcznych. Gry komputerowe, w tym gry masowo interaktywne z tysiącami jednoczesnych graczy, są obecnie preferowaną formą rozrywki dla milionów młodych ludzi. Nowoczesne filmy wykorzystują efekty specjalne z realistycznym realizmem, które są generowane przez komputery. Możliwe jest nawet tworzenie nowych ról dla nieżyjących już aktorów i aktorów za pomocą komputerów i oprogramowania. Wpływ komputerów i oprogramowania był połączeniem dobra i zła. Z pewnością możliwość wysyłania e-maili i wiadomości tekstowych oraz znajdowania informacji w sieci to bardzo przydatne dodatki w naszym codziennym życiu. Używamy map GPS na naszych smartfonach prawie za każdym razem, gdy podróżujemy, zwłaszcza gdy podróżujemy do nowych i nieznanych miejsc. Zdolność lekarzy do natychmiastowej komunikacji z kolegami pomaga w praktyce lekarskiej. Skomputeryzowane medyczne maszyny diagnostyczne, takie jak skanery CAT i sprzęt do rezonansu magnetycznego, są również korzystne. Implanty ślimakowe przywróciły słuch tysiącom głęboko niesłyszących pacjentów. Produkcja zrobotyzowana jest tańsza, a czasem bardziej precyzyjna niż ręczna budowa wielu skomplikowanych urządzeń. Jednak stale rosnące prawdopodobieństwo kradzieży tożsamości i ciągła potrzeba ochrony naszych komputerów i urządzeń elektronicznych przed hakerami i kradzieżą danych są źródłem ciągłych zmartwień, a także źródłem znacznych wydatków. Oceniając zalety i wady komputerów i oprogramowania, waga dostępnych dowodów jest taka, że oprogramowanie i komputery przyniosły więcej korzyści dla ludzkiego zdrowia niż spowodowały szkody. Oczywiście ci, którzy zostali skrzywdzeni, prawdopodobnie się nie zgadzają. Jednak statystycznie biorąc pod uwagę wszystkie znane zastosowania komputera i oprogramowania we współczesnym świecie, zauważono znaczące korzyści w sposobie komunikacji, prowadzenia interesów oraz prowadzenia prac naukowych i inżynieryjnych. To jest wątpliwe, czy jakikolwiek naukowiec lub inżynier chciałby przestać używać komputerów i oprogramowania. To samo dotyczy wielu innych rodzajów pracy, takich jak opieka zdrowotna, egzekwowanie prawa, księgowość, a nawet nieruchomości.

Podsumowanie

To preludium pokazało ewolucję i konwergencję wielu dziedzin, które połączyłyby się w celu stworzenia nowoczesnych komputerów i oprogramowania. Matematyka, przechowywanie i wyszukiwanie danych, metody komunikacji i samo oprogramowanie połączyłyby się, aby stworzyć współczesną erę oprogramowania osobistego i komputerów osobistych. Późniejsze rozdziały tej książki omawiają ewolucję inżynierii oprogramowania od najwcześniejszych marzeń wizjonerów w latach trzydziestych XX wieku do rozwoju największych i najbogatsze firmy w historii ludzkości do końca XX wieku


Powrót

1930 do 1939: Podstawy informatyki cyfrowej



We wczesnych latach trzydziestych XX wieku oryginalne papiery doprowadziły do zaprojektowania komputerów cyfrowych. Pod koniec dekady kilka działających komputerów cyfrowych dowiodło, że komputery elektroniczne są możliwe. Również w tej dekadzie prawdopodobieństwo poważnej wojny doprowadziło do dużych inwestycji rządowych w wojskowe komputery analogowe do kierowania ogniem, wyrzutni torped i celowników.

Pierwsi innowatorzy nowoczesnej informatyki

Dekada od 1930 do 1939 roku była erą bez oprogramowania, jakie znamy dzisiaj. Była to jednak bardzo owocna era zarówno pod względem wynalezienia logicznych idei leżących u podstaw oprogramowania, jak i projektowania fizycznych urządzeń komputerowych. Pod koniec tej dekady było oczywiste, że wkrótce wybuchnie poważna wojna. Stworzyło to poczucie pilności, które doprowadziło do znacznego finansowania urządzeń do szybkiego obliczania, które można by wykorzystać do celów wojskowych, takich jak obliczenia balistyczne, logistyka i kryptoanaliza. Wszystkie kraje poczyniły znaczne inwestycje w komputery analogowe do celów wojskowych, takich jak sterowanie działami morskimi, celowanie torpedami podwodnymi i celowniki bombowe. Chociaż w tym dziesięcioleciu zbudowano i przetestowano wiele takich urządzeń analogowych, najlepiej omówić je w części omawiającej lata czterdzieste XX wieku, kiedy faktycznie były używane w walce. W 1930 roku Vannevar Bush opracował kalkulator różnicowy, który był dowodem na to, że urządzenia liczące mogą radzić sobie z szeregiem problemów matematycznych zamiast jednej wąskiej formy obliczeń. Było to raczej urządzenie analogowe niż komputer cyfrowy, więc nie jest to linia, z której bezpośrednio wywodzą się dzisiejsze komputery cyfrowe. W 1934 roku niemiecki naukowiec Konrad Zuse wysunął pomysł, że komputer lub silnik liczący będzie wymagał jednostki sterującej, pamięci i jednostki arytmetycznej. Zuse był pionierem zarówno architektury obliczeniowej, jak i języków programowania. Jednak jego twórczość nie była dobrze znana w Stanach Zjednoczonych aż do zakończenia II wojny światowej. Jest pretendentem na krótkiej liście zbudowania pierwszego komputera. Jego najbardziej udane komputery zostały zbudowane w ciągu następnej dekady. W 1935 roku IBM zatrudnił trzy pracownice, jako jedne z pierwszych w firmie technologicznej. Prezes IBM, Thomas J. Watson Sr., zapowiedział, że IBM zaoferuje równe wynagrodzenie i równe obowiązki, niezależnie od płci. Później IBM zrobił to samo z mniejszościami etnicznymi, które były często dyskryminowane. W przyszłych dziesięcioleciach przemysł komputerowy i oprogramowania będzie bardziej egalitarny niż niektóre starsze dziedziny techniczne, takie jak inżynieria mechaniczna i elektryczna. Jest kwestią interesu socjologicznego, że komputery i oprogramowanie zaczęły się od dużej firmy deklarującej równe prawa i równe wynagrodzenie. W 1936 roku Zuse rozpoczął budowę komputera opartego na przekaźnikach (podobnego do prac Amerykanina George′a Stibitza) o nazwie Z1. Ta maszyna została ukończona w 1938 roku, ale okazała się zawodna z powodów mechanicznych. Jednak posiadał programowalność. Po pośredniej maszynie Z2, później w 1941 roku, Zuse ukończył bardziej wyrafinowaną maszynę Z3, którą można było programować, a programy wprowadzano za pomocą perforowanej folii. Maszyny Zuse wykorzystywały liczby binarne i są postrzegane jako operacyjne prekursory dzisiejszych komputerów. Nadal toczy się dyskusja, czy Zuse, Atanasoff i Berry zasługują na uznanie za zbudowanie pierwszego działającego komputera. W rzeczywistości obaj pracowali niezależnie i obaj zasługują na uznanie. W 1936 roku słynny Alan Turing opublikował przełomową pracę zatytułowaną "On Computable Numbers", która jest ogólnie uważana za opis działającego komputera z programem wykonywalnym. Praca Turinga obejmowała zarówno praktyczne, jak i teoretyczne koncepcje, które doprowadzą do imponujących przyszłych wynalazków i działających komputerów używanych do łamania kodów. Maszyna Turinga to abstrakcyjne przedstawienie działającego komputera, który sekwencyjnie przetwarza instrukcje i wykonuje operacje matematyczne i logiczne. Nawet dzisiaj standardową definicją komputera odnoszącego sukcesy jest to, że jest on "ukończony według Turinga" lub zawiera wszystkie koncepcje przedstawione w nowatorskim artykule Turinga. Turing również opracował i zdefiniował koncepcję algorytmu, a także wniósł ważny wgląd w problemy, które mogą być rozwiązane przez komputer, oraz problemy, które są nierozwiązywalne. Wkład Turinga w wysiłek wojenny w Bletchley Park zostanie omówiony w dekadzie od 1940 do 1949 roku. W 1937 roku Claude Shannon, będąc absolwentem MIT, napisał pracę magisterską, która udowodniła, że przekaźniki elektryczne mogą realizować koncepcje logiki Boole′a. Praca Shannona doprowadziła do opracowania udanych obwodów cyfrowych, które są niezbędne do działania komputerów cyfrowych. Rosyjski badacz, Wiktor Szestakow z Moskiewskiego Uniwersytetu Państwowego, opracował teorię podobną do Shannona już w 1935 roku. Jednak koncepcje Szestakowa zostały opublikowane dopiero w 1941 roku, więc idee Shannona mają pierwszeństwo. Zarówno Shannon, jak i Szestow uznali, że logika symboliczna, przedstawiona przez matematyka George&primle; Boole′a w jego książce An Investigation on the Laws of Thought z 1854 r., może być obsługiwana za pomocą przekaźników i obwodów elektronicznych, które mogą obsługiwać logiczne decyzje, a także przeprowadzać matematyczne operacje. To właśnie połączenie przetwarzania logicznego z przetwarzaniem matematycznym daje współczesnym komputerom (i oprogramowaniu) olbrzymi zakres możliwości rozwiązywania problemów. Komputery i oprogramowanie mogą nie tylko zapewniać szybkie obliczenia matematyczne, ale także radzić sobie ze złożonymi problemami logicznymi, takimi jak routing telefoniczny. W listopadzie 1937 roku matematyk Bell Labs, George Stibitz, pracujący w domu na kuchennym stole, zbudował prototypowe urządzenie, które wykorzystywało dwa przekaźniki telefoniczne i żarówki latarki do reprezentowania liczb binarnych 0 i 1. Stibitz również zdał sobie sprawę, że to eksperymentalne urządzenie rozszerzone do obsługi szybkich obliczeń obejmujących zarówno dzielenie, jak i mnożenie. Po początkowej obojętności kierownictwo firmy Bell zdecydowało się sfinansować większą działającą wersję prototypowej maszyny przekaźnikowej Stibitz. Kosztując około 20 000 dolarów, ostatecznie w 1938 roku stała się maszyną o nazwie Model 1. Maszyna obliczeniowa Model 1 miała około 450 przekaźników, które początkowo mogły obsługiwać mnożenie, dzielenie, a później dodawanie i odejmowanie. Ta maszyna wykorzystywała liczby binarne do reprezentowania wartości dziesiętnych, co oczywiście stało się później głównym sposobem działania komputerów. Stibitz będzie nadal wprowadzał ulepszenia, które zostaną omówione później. Jednym z interesujących aspektów maszyny Stibitz było użycie klawiatury typu teletype dla wejść i wyjść. Oznaczało to, że nie było konieczne, aby urządzenie obliczeniowe znajdowało się w sąsiedztwie mechanizmu wejściowego. W ciągu kilku lat, w 1940 roku, Stibitz zademonstrował zdalne wejście i wyjście za pośrednictwem linii telefonicznych na odległość ponad 30 km. Ta wczesna demonstracja zdalnego przetwarzania ostatecznie rozszerzy się na internet, jaki znamy dzisiaj. W 1938 roku William Hewlett i David Packard założyli firmę Hewlett-Packard Company (powszechnie znaną pod inicjałami HP). Ta firma zaczynała od różnych urządzeń elektronicznych, takich jak oscyloskopy i oscylatory audio. W późniejszych latach HP stał się głównym dostawcą komputerów przenośnych, drukarek i niestandardowych aplikacji. W 1939 roku John Vincent Atanasoff i Clifford Berry opracowali prototyp komputera o nazwie ABC (nazwany na cześć inicjałów wynalazców). Ta maszyna jest często uważana za pierwszy komputer cyfrowy na świecie, chociaż istnieją rywalizujące roszczenia i znaczące debaty, a nawet spory sądowe dotyczące pochodzenia współczesnych komputerów. W 1939 roku w laboratorium IBM w Endicott w stanie Nowy Jork rozpoczęto prace nad kolejnym komputerem. Nazywało się to komputerem Harvard Mark 1. Oficjalna nazwa tego urządzenia brzmiała "automatyczny kalkulator sterowany sekwencją". Mark 1 został zaprojektowany przez matematyka z Harvardu Howarda Aikina i innych kolegów, takich jak Grace Hopper i kilku inżynierów IBM. Na projekt Mark 1 wpłynęło wcześniejsze mechaniczne urządzenie obliczeniowe zaprojektowane przez Charlesa Babbage′a w latach siedemdziesiątych XIX wieku, ale nie ukończone za jego życia.

Uwaga: działający silnik analityczny Babbage został zbudowany dopiero w 1991 r. Do udanej budowy w 1991 r. Toczyła się debata, czy silnik analityczny będzie działał, czy nie. Ale zadziałał i był w rzeczywistości kompletnym komputerem cyfrowym Turinga. Po Babbage′u w latach 70. XIX wieku następny kompletny komputer cyfrowy Turinga pojawił się dopiero w latach pięćdziesiątych XX wieku.

Mark 1 był urządzeniem elektromechanicznym, które wykorzystywało przekaźniki, kółka do przechowywania i przełączniki obrotowe. Można go było "zaprogramować" za pomocą sekwencyjnych instrukcji wprowadzanych do komputera za pomocą papierowej taśmy. Prace nad tym komputerem rozpoczęto w 1939 roku, ale zakończono dopiero w 1944 roku.

Małe aplikacje matematyczne

W tej dekadzie bardzo małe aplikacje matematyczne były normą. Nie było prawdziwych języków programowania, bardzo mało miejsca na instrukcje lub dane, a raczej prymitywne urządzenia wejściowe i wyjściowe. Są to głównie małe eksperymentalne "programy" utworzone za pomocą języka maszynowego lub jakiejś formy wprowadzania danych z klawiatury. Jak widać, w tej dekadzie dominowały zastosowania naukowe. Programowanie komputerowe, jakie znamy dzisiaj, tak naprawdę nie istniało w latach trzydziestych XX wieku. Zamiast tego zastosowano różne kontrolki, aby zmienić założenia elektromechanicznych urządzeń obliczeniowych. Maszyna Zuse Z1 miała być programowalna, ale nie działała niezawodnie. W dalszej części tej książki omówimy rozmiary aplikacji, wskaźniki produktywności, i jakości. Nie ma dostępnych danych z lat trzydziestych XX wieku, które umożliwiłyby tego rodzaju analizę. Późniejsze części używają 1000 punktów funkcyjnych jako standardowego rozmiaru, który jest mniej więcej równy około 50 000 instrukcji kodowych w języku takim jak Java. W latach trzydziestych XX wieku, przy ograniczonych możliwościach urządzeń obliczeniowych, prawdopodobnie największe aplikacje matematyczne (nie było innych rodzajów) miały mniej niż 10 punktów funkcyjnych lub być może 500 instrukcji kodowych. Większość "programów" mieściła się w zakresie 2 punktów funkcyjnych lub mniej niż 100 instrukcji kodu. Od 1930 do 1939 roku świat stał w obliczu wielkiej wojny. Wojna pociąga za sobą konieczność wykonywania wielu tysięcy obliczeń w celu obsługi logistyki, balistyki i kryptoanalizy. W 1939 roku brytyjska marynarka wojenna zainstalowała analogowy komputer sterujący działem na pancerniku HMS King George V. Koszt tego komputera wyniósł około 213 000 funtów, czyli około 20 000 000 dolarów dzisiejszych pieniędzy. Zajmie wiele lat zanim komputery cyfrowe otrzymały tego rodzaju fundusze, i minie wiele lat, zanim komputery cyfrowe staną się na tyle wyrafinowane, aby zastąpić komputery analogowe na pokładach okrętów wojennych i samolotów. Nieustanne groźby wojskowe w tej dekadzie uwydatniły pilną potrzebę szybkości i niezawodności, szybkie obliczenia matematyczne, a także do rozszerzania urządzeń obliczeniowych z czystej matematyki na dziedzinę rozwiązywania problemów logicznych. Pionierskie teorie i artykuły stworzone przez Turinga, Shannona, Zuse, Atanasoffa, Aikina, Stibitza i innych wkrótce doprowadzą do powstania prawdziwych komputerów cyfrowych, które potrafią radzić sobie z problemami logicznymi i matematycznymi tysiące razy szybciej niż kiedykolwiek w historii ludzkości. Niektóre z tych koncepcji zaczęłyby mieć praktyczny wpływ na wynik II wojny światowej w ciągu zaledwie kilku lat.

Podsumowanie

Na początku lat trzydziestych XX wieku uznano potrzebę szybkich obliczeń, ale praktyczna wiedza na temat budowy takich urządzeń była niewielka. Pod koniec dekady imponujące badania dostarczyły logicznej podstawy dla przetwarzania cyfrowego, a działające komputery były w trakcie opracowywania. W tej dekadzie nastąpiło również włączenie logiki symbolicznej do projektów komputerowych, co wkrótce otworzy szeroki wachlarz nowych rodzajów aplikacji zajmujących się kwestiami logicznymi, takimi jak routing telefoniczny i inne formy podejmowania decyzji. Komputery nie były już postrzegane jako szybkie kalkulatory matematyczne, ale jako narzędzia, które mogą pomóc w rozwiązywaniu złożonych problemów logicznych. Zbudowano kilka nowych komputerów analogowych do celów wojskowych, takich jak sterowanie działami morskimi, celowniki bombowe i wystrzeliwanie torped z łodzi podwodnych.


Powrót

1940 do 1949: Informatyka w czasie II wojny światowej i w okresie powojennym



Dekada od 1940 do 1949 roku była świadkiem pierwszego użycia komputerów w działaniach wojennych w całej historii ludzkości. Potrzeba szybkich obliczeń do obsługi szyfrowania, deszyfrowania, logistyki, balistyki i innych celów wojskowych doprowadziła do szybkiego rozwoju zaawansowania komputerów i oprogramowania. Tysiące komputerów analogowych zostało wykorzystanych do uzbrojenia morskiego, celowników bombowych i celowania torpedami w okrętach podwodnych. Pod koniec dekady komputery stały się użytecznymi i potężnymi narzędziami wojskowymi i były gotowe do ekspansji w sektorze komercyjnym w następnej dekadzie. Na początku dekady słowo "komputer" było nazwą zawodu, którą stosowano wobec ludzi wykonujących skomplikowane obliczenia, czasami przy pomocy mechanicznych kalkulatorów. Pod koniec dekady termin "komputer" został wycofany jako opis pracy człowieka i przeniósł się do nowoczesnego kontekstu urządzenia elektronicznego

Globalny konflikt i obliczenia

II wojna światowa była globalną katastrofą, w wyniku której miliony ludzi zginęły, stały się bezdomne i zubożałe. Jednak wojskowe zapotrzebowanie na szybkie obliczenia i kryptoanalizę doprowadziło do szybkiego postępu w technologii komputerowej i pierwszych aplikacji, które są podobne do używanych obecnie. Wszystkie główne wojujące strony miały programy badawcze w dziedzinie informatyki: Australia, Chiny, Francja, Niemcy, Wielka Brytania, Indie, Włochy, Japonia, Holandia, Norwegia, Polska, Rosja i Stany Zjednoczone. Komputery analogowe otrzymały większe fundusze niż komputery cyfrowe, ponieważ były wykorzystywane do obliczeń balistycznych. Stany Zjednoczone i Wielka Brytania były najbardziej ambitne i odnoszące największe sukcesy. Komputery zaprojektowane i opracowane przez Wielką Brytanię są najbardziej znane ze względu na ich sukcesy w łamaniu niemieckich kodów i rozszyfrowywaniu wiadomości tworzonych na niemieckiej maszynie Enigma. W 1940 r. Słowo "komputer" było używane jako opis zawodu pracowników ludzkich wykonujących złożone obliczenia dla organizacji wojskowych i cywilnych. Zarówno firmy techniczne, jak i organizacje wojskowe zatrudniały setki ludzkich komputerów, które pracowały za pomocą własnych umysłów lub mechanicznych maszyn dodających i kalkulatorów. Niektóre obliczenia były złożonymi równaniami różniczkowymi, podczas gdy inne były bardziej przyziemnymi obliczeniami płac i kosztów. Większość tych ludzkich komputerów stanowiły kobiety. Powodem tego jest fakt, że wiele kobiet uczyło się matematyki, ale nierówność w wynagrodzeniach kobiet oznaczała, że zatrudnianie komputerów kobiet było znacznie tańsze niż męskich. Ta nierówność w wynagrodzeniach nie zostanie naprawiona przez kilka następnych dziesięcioleci, a nawet dzisiaj nie jest w pełni naprawiona. Kiedy w 1945 roku w Moore School of Engineering w Filadelfii dobiegał ukończenia Electrical Numerical Integrator and Computer (ENIAC), wybrano sześć kobiet, które miały nauczyć się go programować. Tak więc ewolucja terminu "komputer" od opisu pracy człowieka do nazwy urządzenia elektronicznego była częściowo spowodowana faktem, że komputery ludzkie stały się pierwszymi programistami komputerów elektronicznych. Kiedy ENIAC został przeniesiony z uniwersytetu do bazy wojskowej, sześć programistek straciło pracę, najwyraźniej z powodu obowiązujących wówczas ograniczeń płci. Większość kontynuowała programowanie, ale tylko dla cywilnych firm zamiast wojska. Ten problem dyskryminacji ze względu na płeć również utrzymywał się przez kilka następnych dziesięcioleci. Historia nie opisuje roli kobiet we wczesnych etapach rozwoju komputerów.

Uwaga: skale wynagrodzeń za pracę w zakresie inżynierii oprogramowania były nieco bardziej wyrównane ze względu na płeć niż w przypadku niektórych starszych dyscyplin technicznych, takich jak inżynieria mechaniczna i elektryczna. Jednym z powodów może być to, że w 1935 roku Thomas J. Watson Sr., prezes IBM, ogłosił korporacyjną politykę równego wynagrodzenia za taką samą pracę. Później, gdy IBM wszedł do branży komputerowej, kontynuował tę egalitarną politykę. W dziedzinie inżynierii oprogramowania równe szanse zapewniają przewagę konkurencyjną, ponieważ programowanie jest trudnym zadaniem. Równe szanse zatrudnienia i wynagrodzenia zwiększają liczbę pracowników posiadających dobre umiejętności w zakresie oprogramowania.


Powrót

Wojenne Innowacje



W całej historii działania wojenne doprowadziły do niezliczonych wynalazków, które później okazały się przydatne w życiu cywilów. Kilka przykładów to żywność w puszkach (opracowana za czasów Napoleona, który zaoferował nagrodę za sposób przechowywania żywności), chronometry, karetki pogotowia, sonar, radar, śruby napędowe do okrętów wojennych, bieżniki traktorów, wykorzystanie kolei do logistycznego przemieszczania zapasów, silniki odrzutowe, rakiety na dużych wysokościach, satelity i chaty Quonset (opracowane w bazie marynarki wojennej w Quonset Point, Rhode Island, jako przenośny budynek, który można łatwo transportować i szybko montować). Opracowano również badania operacyjne jako metodę usprawnienia logistyki wojskowej i optymalizacji ruchów sprzętu i wojsk na dużą skalę. Odwrotna sytuacja dotyczy również innowacji cywilnych, które często stają się ważne dla operacji wojskowych. Na przykład niemiecki sztab generalny wysłał obserwatorów do Stanów Zjednoczonych, aby zbadali sposób, w jaki Barnum i Bailey Circus ładowali i rozładowywali pociągi podczas przemieszczania się z jednego miasta do drugiego. Studenci logistyki odwiedzali Muzeum Cyrku w Sarasocie na Florydzie i badali modele użyte do zademonstrowania, jak cyrk mógł tak szybko rozstawiać i rozbijać namioty. Kiedy wybucha poważna wojna, taka jak II wojna światowa, istnieje ogromna potrzeba gromadzenia danych wywiadowczych, szyfrowania i deszyfrowania. Istnieje również ogromne zapotrzebowanie na wsparcie logistyczne w celu optymalizacji konstrukcji materiałów wojskowych oraz transportu i dostarczania tych materiałów potrzebującym ich wojskom. Ponadto istnieje ogromne zapotrzebowanie na inne rodzaje obliczeń, takie jak przewidywania balistyczne lub przewidywanie biegu torpedy w zmiennych warunkach. Przed rozpoczęciem wojny, a nawet przez całą wojnę, wiele obliczeń potrzebnych do wsparcia operacji wojskowych i produkcyjnych było wykonywanych przez ludzkie komputery, które były przeszkolone w matematyce lub rachunkowości i potrafiły wykonywać obliczenia potrzebne do wspierania współczesnych działań wojennych. Były tysiące takich ludzkich komputerów używanych przez wszystkie walczące strony, ponieważ wszystkie one potrzebowały wsparcia matematycznego. W Stanach Zjednoczonych i Wielkiej Brytanii wiele z tych ludzkich komputerów to kobiety, ponieważ w tamtych czasach nie było równej płacy za taką samą pracę. Jednak ludzki umysł, nawet wspomagany przez mechaniczną maszynę sumującą, może przetwarzać tylko kilka obliczeń na minutę. Ludzkie komputery nie mogą pracować przez całą dobę, potrzebują też odpoczynku i przerw na posiłek. W przypadku przepracowania zmęczenie zwiększyłoby prawdopodobieństwo błędów w ręcznych obliczeniach. Dla planistów wojskowych i przemysłowych było oczywiste, że potrzebne są znacznie szybsze i bardziej niezawodne sposoby radzenia sobie z milionami obliczeń niezbędnych do obsługi nowoczesnych armii, marynarki wojennej i sił powietrznych. Ponieważ Niemcy były głównym agresorem podczas II wojny światowej, wiele programów komputerowych w innych krajach miało na celu zakłócenie niemieckiego sukcesu militarnego i złamanie niemieckich szyfrów.


Powrót

Komputery analogowe podczas II wojny światowej



Kombatanci używali komputerów analogowych przez całą II wojnę światową, a komputerów cyfrowych dopiero pod koniec II wojny światowej, po około 1943 r. Komputery analogowe nie są "programowane" przez oddzielne zapisane programy; raczej programowanie zostało wbudowane przez projektantów ich obwodów, kół zębatych, wrzecion, lamp próżniowych i innych urządzeń elektronicznych.

Uwaga: Komputery analogowe otrzymały większe fundusze niż komputery cyfrowe, ponieważ były wykorzystywane do obliczeń balistycznych. Większość walczących stworzyła komputery analogowe, które miały być używane na okrętach podwodnych do celowania torpedami.

Komputery analogowe były na tyle małe i wystarczająco wyrafinowane, aby radzić sobie ze złożonymi problemami wojskowymi, takimi jak sterowanie działem morskim, celowniki bombowe i wystrzeliwanie torped z łodzi podwodnych. Musiało minąć kolejne 30 lat, zanim komputery cyfrowe z wbudowanym oprogramowaniem byłyby na tyle małe i niezawodne, że mogłyby zastąpić analogowe urządzenia na statkach morskich i samolotach bojowych. Przyszłe wynalazki tranzystorów, układów scalonych i dynamicznej pamięci o dostępie swobodnym (DRAM) byłyby potrzebne, aby zmniejszyć komputery cyfrowe do wystarczająco małych rozmiarów fizycznych i wystarczająco niskiego zużycia energii elektrycznej, aby były użyteczne w samolotach wojskowych i małych statkach, takich jak okręty podwodne . Ponadto wymyślenie lepszych języków programowania niż podstawowy asembler byłby potrzebny do obsługi bardzo złożonych obliczeń związanych z pozyskiwaniem celu i kierowaniem ogniem, przebiegiem bomb i działem morskim. Potrzebna byłaby również lepsza kontrola jakości oprogramowania, ponieważ wbudowane aplikacje używane do kontroli uzbrojenia były złożone i duże. Błędy lub wady oprogramowania wbudowanego obsługującego systemy uzbrojenia mogą być śmiertelne dla załóg i używających ich statków. Komputery analogowe nadal byłyby wołamiroboczymi statków na morzu i samolotów podczas wojny w Korei i konfliktu w Wietnamie. Komputery cyfrowe i oprogramowanie wbudowane nie zastąpiłyby w pełni komputerów analogowych jako systemów uzbrojenia aż do lat 80. Ci z nas, którzy zajmują się oprogramowaniem, są winni wdzięczności inżynierom i projektantom komputerów analogowych, którzy zbudowali takie urządzenia, jak celownik Norden, bombe bombe do kryptoanalizy oraz komputer Mark III Torpedo Data Computer (TDC) używany na amerykańskich łodziach podwodnych. Te komputery analogowe odegrały główną rolę w zwycięstwie aliantów w II wojnie światowej. Historia wojskowych komputerów analogowych jest równie ważna, jak historia komputerów cyfrowych.


Powrót

Komputery w Niemczech podczas II wojny światowej



To szczęście dla Stanów Zjednoczonych i aliantów, że niemieckie wojsko nie przywiązywało dużej wagi do komputerów cyfrowych, mimo że jeden z głównych pionierów w historii informatyki, Konrad Zuse, mieszkał w Berlinie i opracował kilka działających komputerów w latach 1940 i 1945. Zaprojektował nawet prawdopodobnie pierwszy język programowania, zwany Plan Calculus (lub Plankalkuel po niemiecku) w 1945 roku. Jednak ten język nie był obsługiwany przez działający kompilator. Zuse rozpoczął pracę jako inżynier lotniczy w Henschel Aircraft Company w 1935 r. Zuse wkrótce porzucił pracę na pełny etat i założył laboratorium komputerowe w mieszkaniu swoich rodziców w Berlinie. Kontynuował pracę w niepełnym wymiarze godzin w Henschel. W 1938 roku Zuse zbudował swój pierwszy prototypowy komputer, Z1, aby udowodnić koncepcję obliczeń maszynowych. Ta pierwsza maszyna nie działała dobrze z powodu problemów mechanicznych. W 1940 roku Zuse zbudował komputer Z2, który działał i był prawdopodobnie pierwszym sprawnym komputerem elektromechanicznym zbudowanym na świecie. W 1941 roku Zuse zbudował Z3, który był działającym komputerem elektromechanicznym opartym na cyfrach binarnych. Niemieckie wojsko użyło Z3 do obliczenia trzepotania skrzydeł w samolotach bojowych. Zuse poprosił o fundusze na zbudowanie w pełni elektronicznej wersji, ale jego prośba została odrzucona jako "nieważna dla wysiłku wojennego". W 1945 roku Zuse ukończył Z4, który miał szereg postępów technicznych. Używał arytmetyki binarnej i można go było zaprogramować przy użyciu taśmy papierowej jako metody wprowadzania. Z4 może również generować wydruki. Był używany do rozwiązywania obliczeń matematycznych, a także mógł obsługiwać warunkową logikę rozgałęzień. Z4 był głównym pretendentem do miana pierwszego odnoszącego sukcesy komputera cyfrowego. Z powodu natarcia wojsk rosyjskich na Berlin Z4 był kilkakrotnie wysyłany w bezpieczniejsze miejsca, co spowolniło ostateczny rozwój. Po drugiej wojnie światowej Z4 został przejęty przez Szwajcarski Federalny Instytut Technologii i do 1950 roku nadal rozwiązywał problemy matematyczne. Chociaż Zuse zwrócił się do rządu niemieckiego z prośbą o wykorzystanie komputerów do celów wojskowych, najwyraźniej nie było zainteresowania ani uznania ich możliwości. . W rzeczywistości Zuse zaproponował zbudowanie komputera szyfrującego, ale pomysł został odrzucony. W wyniku obojętności rządu Zuse musiał używać złomu i zatrudniać pracowników, takich jak inwalidzi, którzy nie byli przydzielani do zadań wojskowych. Podobnie jak w innych krajach, niektórzy pracownicy Zuse byli kobietami. Patrząc z perspektywy czasu, brak zrozumienia przez Niemców potrzeby szybkich komputerów zaszkodził niemieckim wysiłkom wojennym i przyniósł korzyści aliantom. Podczas II wojny światowej rząd niemiecki wydawał więcej pieniędzy na studia okultystyczne niż na obliczenia. Jednak Niemcy zbudowały maszyny do kryptoanalizy, które z powodzeniem złamały radzieckie kody wojskowe. Podobnie jak w przypadku innych krajów, Niemcy opracowały rodzaj komputera analogowego, aby pomóc w celowaniu torpedami, gdy zostały wystrzelone z okrętów podwodnych. Były też niemieckie komputery analogowe używane do kontroli ostrzału morskiego. Niemiecki pocisk manewrujący V-1 i rakieta V-2 miały również analogowe komputerowe systemy naprowadzania, a także żyroskopy i czujniki inercyjne. Jednak ani V-1, ani V-2 nie okazały się dokładne. Miasta były raczej celem niż konkretnymi lokalizacjami w tych miastach. Jednak przypadkowe trafienia spowodowały śmierć i zniszczenia. Pociski te zostały skonstruowane przy użyciu niewolniczej siły roboczej z obozów koncentracyjnych. W jednym z raportów stwierdzono, że z powodu surowego traktowania pracowników podczas budowy rakiet V-2 zginęło więcej ludzi niż rakiety używane w walce. V-2 wywołał potrzebę skutecznej obrony przeciwrakietowej, która później miała zaowocować satelitami i pociskiem Patriot. V-1 mógł zostać zestrzelony przez szybkie samoloty myśliwskie, ale V-2 opadał prawie pionowo z prędkością większą niż Mach 3, więc nie było skutecznej obrony. Jeszcze bardziej wyrafinowanym komputerem analogowym opracowanym w Niemczech podczas wojny był celownik Lotfernrohr 7, który został zainstalowany w 1945 roku w pierwszym operacyjnym bombowcu odrzutowym, bombowcu Arado AR 234.

Szpiegostwo analogowe

Część technologii niemieckiego celownika bazowała na amerykańskim celowniku Norden, który najwyraźniej został przekazany do Niemiec przez niesławną siatkę szpiegowską Duquesne, założoną przez Fredricka Duquesne′a. Trzydzieści cztery osoby zostały osądzone i skazane za szpiegostwo w 1941 r., największej sprawie szpiegowskiej w historii Stanów Zjednoczonych. (Film z 1945 roku, The House on 92nd Street, był oparty na tym kręgu szpiegowskim i zdobył Oscara za oryginalną historię filmową). Jednak inne źródło na Wikipedii podaje, że dane Norden zostały przekazane do Niemiec w 1938 roku.

Niemiecki rząd w dużej mierze zignorował przetwarzanie cyfrowe, technologię, która faktycznie zmieniła wynik II wojny światowej. Oczywiście Niemcy były pionierem w innych technologiach wojskowych, takich jak silniki odrzutowe i artyleria polowa. Niemcy zbudowały również słynną maszynę szyfrującą Enigma, która okazała się mniej bezpieczna, niż sądził niemiecki rząd. Maszyna Enigma przypominała maszynę do pisania, a jej kody tworzone były za pomocą mechanicznych kółek. Niemcy miały także inny wojskowy system kodowania o nazwie FISH, który był elektromechaniczny. Zwykle było to zarezerwowane dla komunikacji na wysokim szczeblu między kwaterą główną w Berlinie a różnymi kwaterami wojskowymi, podczas gdy Enigma była używana do częstszej komunikacji operacyjnej. Maszyny FISH były mniej popularne i mniej znane niż maszyny Enigma. Maszyny FISH zostały zaprojektowane przez firmę C. Lorenza w Berlinie. Maszyna wykorzystywała szyfr strumieniowy i została zbudowana jako załącznik do standardowego teleprintera. Było kilka modeli wyprodukowanych między 1941 a 1944 rokiem. System kodowania używany przez maszyny FISH był oparty na metodzie opracowanej przez Gilberta Vermama z AT&T Bell Labs w 1917 roku. System szyfrowania wykorzystywał metody logiki symbolicznej z pracy George'a Boole'a z naciskiem na Funkcja "wyłączna". Kilku innych badaczy opracowało podobne kody. W sierpniu 1941 roku Brytyjczycy przechwycili wiadomość FISH zawierającą 4000 znaków. Wykorzystując ręczną analizę przedkomputerową, brygadier John Tillman i matematyk Bill Tutte byli w stanie złamać kod i przeprowadzić inżynierię wsteczną maszyny FISH, co jest niezwykłym osiągnięciem. Ta praca została później wykorzystana przy projektowaniu komputerów w celu przyspieszenia deszyfrowania. Niemieckim kryptoanalitykom udało się złamać sowieckie kody wojskowe, podobnie jak Brytyjczycy złamali niemieckie. Po wojnie Niemcy przekazali swoje maszyny do kryptoanalityków Brytyjczykom i Amerykanom. Te niemieckie maszyny (o wartości ponad siedmiu ton) zostały przetransportowane do Bletchley Park, gdzie były używane przez brytyjskich kryptoanalityków podczas zimnej wojny do dalszego odszyfrowywania sowieckich zaszyfrowanych wiadomości. Niemcy miały również program nuklearny podczas II wojny światowej. Alianci odnieśli wielkie korzyści z szaleństwa niemieckiego antysemityzmu, który doprowadził do migracji naukowców, takich jak Albert Einstein, Edward Teller i Leo Szilard, do Stanów Zjednoczonych. Enrico Fermi przeniósł się również do Stanów Zjednoczonych, aby uciec przed faszyzmem we Włoszech. John von Neumann również przeniósł się z Węgier, ale w 1930 r. przed rozpoczęciem wojennych represji.


Powrót

Komputery w Japonii podczas II wojny światowej



Japonia miała silną tradycję matematyczną i była pionierem w budowaniu urządzeń obliczeniowych już w 1902 roku. W tym samym roku Yazu Ryoichi zbudował mechaniczną maszynę liczącą zwaną automatycznym liczydłem. Z wyglądu wygląda trochę jak kalkulator mechaniczny Curta, tylko większy. W 1906 roku Kawaguchi Ichitaro z Ministerstwa Komunikacji i Transportu zbudował działający kalkulator mechaniczny zasilany energią elektryczną. Podczas II wojny światowej w 1944 roku laboratorium lotnicze na Uniwersytecie Cesarskim w Tokio zbudowało elektromechaniczne urządzenie do rozwiązywania równoczesnych równań. To nie był prawdziwy komputer, ale był to krok w tym kierunku. Podczas II wojny światowej japońska marynarka wojenna, podobnie jak większość innych flot, opracowała analogowe urządzenie obliczeniowe do użytku na okrętach podwodnych do obliczania punktów celowania. Nawiasem mówiąc, japońska torpeda z długimi lancami należała do najskuteczniejszych na początku II wojny światowej, miała większy zasięg i była bardziej niezawodna niż torpedy alianckie. Główne wysiłki Japonii w zakresie rozwoju komputerów zostaną omówione w przyszłych dziesięcioleciach, kiedy wysoki poziom jakości japońskich firm umożliwił im rozwinięcie produktów, takich jak ekrany LCD, napędy dysków i inne komputerowe urządzenia peryferyjne. Oprogramowanie w Japonii skorzystało również z wkładu Amerykanów W. Edwardsa Deminga i J. W. Jurana w latach powojennych. Japonia opracowała kilka maszyn kryptograficznych do kodowania wiadomości morskich i wojskowych. Były to urządzenia mechaniczne, a nie komputery. Jedno japońskie urządzenie przypominało niemiecką maszynę Enigma (Japonia nabyła maszyny Enigma w 1937 r.). Ale inna japońska maszyna kodująca była rodzima i wykorzystywała elektryczne przełączniki krokowe zamiast wirników używanych przez urządzenia Enigma. Ta maszyna kodu została nazwana "Purple" przez personel wywiadu alianckiego i została odszyfrowana przez Signal Intelligence Service Armii Stanów Zjednoczonych (SIS) do 1939 roku. Niektóre z bardziej użytecznych wiadomości w kolorze fioletowym, które zostały zdekodowane, były wiadomościami japońskiego biura zagranicznego. Ambasador w Berlinie. Jedną słynną odszyfrowaną wiadomością, która została pokazana w kilku filmach fabularnych, była wiadomość dla ambasadora Japonii w Waszyngtonie, że Japonia zrywa negocjacje w dniu ataku na Pearl Harbor, 7 grudnia 1941 r. W rzeczywistości Stany Zjednoczone. urzędnicy otrzymali tekst tego przesłania, zanim otrzymał go ambasador Japonii. W późniejszym okresie wojny przetłumaczono wiadomości od ambasadora generalnego Hiroshi Oshimy w Berlinie. Te tajne wiadomości często zawierały ważne informacje wojskowe, w tym niektóre przekazane Oshimie przez samego Hitlera.

Japońska technologia i pierwszy chip Intela

W Japonii w 1945 roku miało miejsce ważne wydarzenie biznesowe, które w późniejszych dziesięcioleciach spowodowało, że Intel stał się największym na świecie producentem chipów komputerowych. Chociaż nie miało to wpływu na II wojnę światową, było niezwykle ważne dla późniejszego przemysłu komputerowego i nie jest szeroko znane. W 1945 roku powstała firma Nippon Calculating Machine Corporation, która zajmowała się produkcją kalkulatorów. Później zmienił nazwę na Busicom. W latach sześćdziesiątych Busicom opatentował pierwszy mikroprocesor i zawarł umowę z Intelem na jego produkcję. (Firma Intel została założona w 1968 r.) Inżynier Intela, Ted Hoff, udoskonalił oryginalny projekt Busicom, a pierwszym mikrokomputerem Intela, wyprodukowanym w 1971 r., był mikroprocesor Intel 4004, oparty na patentach Busicom, które były wspólne dla firmy Intel. W Stanach Zjednoczonych nie jest powszechnie wiadomo, że wejście firmy Intel na rynek mikroprocesorów było spowodowane uzyskaniem dostępu do japońskich patentów.


Powrót

Komputery w Polsce podczas II wojny światowej



II wojna światowa rozpoczęła się 1 września 1939 roku, kiedy Niemcy napadły na Polskę. Jednak 25 lipca 1939 r., Około pięć tygodni przed inwazją, doszło do tajnego spotkania między Polską, Francją i Wielką Brytanią w Pyrach, w lesie około 30 mil na południe od Warszawy. Na tym spotkaniu polscy matematycy przekazali Francji i Wielkiej Brytanii kilka metod kryptoanalizy oraz rzeczywistą maszynę Enigmy. Na szczęście Alan Turing był jednym z brytyjskich matematyków, którzy otrzymali polskie informacje. Fakt ten stał się znaczący w miarę kontynuowania wojny, a Brytyjczycy zaczęli opracowywać komputery deszyfrujące. Jak większość czytelników może wiedzieć, Alan Turing jest znanym matematykiem, który wniósł wkład do fundamentalnej teorii komputerów cyfrowych, a także wniósł praktyczną wiedzę inżynierską do rozwoju brytyjskich komputerów deszyfrujących. Od 1932 roku polscy matematycy pracowali nad złamaniem kodów używanych przez niemiecką maszynę Enigma. Jedną z metod deszyfrowania było mechaniczne urządzenie liczące zwane bombą kryptologiczną lub "bomba" w języku polskim. Była to jedna z metod, które Polska przekazała aliantom, a później przekształciła się w słynną bombę zbudowaną w Bletchley Park. Polscy matematycy prawdopodobnie przyspieszyli brytyjskie wysiłki deszyfrowania o ponad rok i tym samym pomogli aliantom w rozszyfrowaniu kodów Enigmy. Chociaż Polska jako kraj była okupowana przez Niemcy, a później Rosję, polskie oddziały na uchodźstwie nadal służyły aliantom zarówno w operacjach powietrznych, jak i lądowych. Polski wywiad w czasie II wojny światowej był jednym z najbardziej udanych spośród wszystkich walczących. W latach 1939-1945 około 40% do 45% wszystkich przydatnych raportów wywiadowczych z krajów okupowanych przez Niemcy pochodziło od polskich agentów.


Powrót

Komputery we Francji podczas II wojny światowej



Gwałtowny upadek Francji podczas II wojny światowej wpłynął na wiele rodzajów badań naukowych, w tym obliczenia. Jednak francuska firma Groupe Bull stała się w późniejszych latach głównym producentem komputerów i rywalem IBM. Firma ta została założona w 1931 roku pod nazwą H.W. Egli-Bull (Egli była firmą szwajcarską). Firma Bull nabyła patenty nieżyjącego już norweskiego wynalazcy Fredrika Rosing Bulla, słynnego pioniera w maszynach do tworzenia kart. Bull zmarł na raka w wieku 42 lat w 1925 roku, pozostawiając bogate dziedzictwo patentów i własności intelektualnej. Urządzenia i maszyny do tworzenia tabel wykorzystujące karty perforowane oparte na patentach Bull zostały wyprodukowane zarówno w Norwegii, jak i we Francji. W 1933 roku firma Bull zreorganizowała się pod nowymi właścicielami i przyjęła nazwę Compagnie des Machines Bull. Firma Bull działała podczas II wojny światowej i pozostała głównym producentem sprzętu do tabulacji kart perforowanych. Oryginalna karta dziurkowana Bull miała 45 kolumn i okrągłe otwory. Kiedy IBM rozpoczął szybki rozwój dzięki maszynom do tworzenia tabel, karta dziurkowana IBM miała 80 kolumn i prostokątne otwory. Sprawy cywilne, takie jak pozwy patentowe, trwały podczas II wojny światowej, nawet w krajach okupowanych, takich jak Francja. We wczesnych latach wojny Bull przeszedł z okrągłych na prostokątne otwory, co spowodowało pozew patentowy między Bull i IBM. W grudniu 1941 roku IBM France wygrał spór patentowy przeciwko Bullowi. Bull przegrał również apel, który został rozstrzygnięty w czerwcu 1942 roku. W latach powojennych Bull stał się głównym konkurentem IBM i działał w ponad 100 krajach.


Powrót

Komputery w Australii



Rząd Australii sponsorował organizację zwaną Council for Scientific and Industrial Research Automatic Computer (CSIRAC). Chociaż projektowanie rdzennego australijskiego komputera rozpoczęto pod koniec II wojny światowej, pierwszy komputer wyprodukowany w Australii został przetestowany w listopadzie 1949 roku. Na czele zespołu stanęli Trevor Pearcey i Malcom Beard. Dane wejściowe do komputera CSIRAC Mark I to taśma papierowa, a wyjścia na standardowej drukarce dalekosiężnej. Wersje tej maszyny działały od 1949 do 1960 i ostatecznie zawierały język programowania zwany INTERPROGRAM, który przypominał BASIC. Niedziałającą wersję CSIRAC Mark I można znaleźć w Muzeum w Melbourne. Mark I jest prawdopodobnie dziewiątym działającym komputerem cyfrowym, po ABC, BINAC, COLOSSUS, EDSAC, ENIAC, Harvard Mark 1, MESM i Z3


Powrót

Komputery w Rosji podczas II wojny światowej



Z różnych powodów współpraca między blokiem sowieckim a zachodnimi aliantami podczas II wojny światowej nie obejmowała kryptoanalizy ani łamania kodów komputerowych. Nigdy nie było takiego samego poziomu współpracy, jaki istniał między Stanami Zjednoczonymi a Wielką Brytanią. Po II wojnie światowej zimna wojna zaostrzyła wrogość między byłymi sojusznikami, co oznaczało, że radziecka praca przy komputerach nie była znana na Zachodzie, z wyjątkiem być może tych wojskowych i oficerów bezpieczeństwa o bardzo wysokich uprawnieniach. Rosja i inne kraje radzieckie, takie jak Ukraina, były dość aktywne zarówno podczas II wojny światowej, jak i późniejszej zimnej wojny. Niektórzy rosyjscy pionierzy komputerowi byli współcześni Turingowi, Aikenowi, Mauchly′emu, Atanasoffowi i von Neumannowi w latach czterdziestych XX wieku, ale ich nazwiska są mało znane na Zachodzie. Niektórzy z tych radzieckich pionierów komputerowych to S. A. Lebedev, I. S. Brook, B. I. Rameev, V. M. Glushkov i inni równie nieznani w zachodniej literaturze komputerowej. Niewiele jest informacji o sowieckich komputerach podczas samej II wojny światowej, ale do 1948 roku Lebedev na Ukrainie zbudował pierwszy radziecki komputer, MESM (mała elektroniczna maszyna licząca). MESM był później używany do obliczeń obejmujących urządzenia jądrowe, eksplorację kosmosu i transmisję elektryczną. Jest to jeden z pierwszych rodzimych komputerów ogólnego przeznaczenia zbudowanych na kontynencie europejskim, z wyjątkiem prac Konrada Zuse w Niemczech. Później Lebedev przeniósł swoją działalność z Ukrainy do Moskwy i kontynuował budowę zaawansowanych urządzeń komputerowych, z których niektóre były pionierami nowych technologii i zgromadziły przydatne patenty. W późniejszych dziesięcioleciach komputery rosyjskie i radzieckie zbliżyłyby się do zachodnich komputerów pod względem mocy obliczeniowej i możliwości.


Powrót

Komputery w Wielkiej Brytanii podczas II wojny światowej



Dzięki sukcesowi brytyjskich łamaczy kodów w rozwiązywaniu kodów generowanych przez niemieckie maszyny Enigma i FISH, praca w Bletchley Park stała się sławna i opisana w książkach i filmach fabularnych. Nie tylko Bletchley Park i komputery odegrały znaczącą rolę w II wojnie światowej, ale także jeden z największych pionierów informatyki, Alan Turing, pracował tam podczas wojny. Latem 1939 r., Kiedy stało się oczywiste, że wybuchnie wojna, rząd brytyjski ewakuował Rządową Szkołę Kodowania i Szyfrów do Bletchley Park, duży dwór znajdujący się około 50 mil od Londynu, w Buckinghamshire. Chociaż początkowy personel w Bletchley był niewielki, do czasu zakończenia wojny pracowało tam około 10 000 osób i korzystało z różnych tymczasowych budynków zwanych "chatami". Alan Turing znajdował się w chacie nr 8, która stała się sławna. Wielu matematyków należało do Women′s Royal Navy Service (WRNS). Tutaj również kobiety były pionierami w dziedzinie komputerów i oprogramowania. W 1936 roku, przed dołączeniem do Bletchley, Alan Turing opublikował swój słynny artykuł "On Computable Numbers", który stał się logiczną i filozoficzną podstawą architektury komputerów. Nawet dzisiaj koncepcja komputerów jako "kompletna według Turinga" jest używana do ustalenia, czy sprzęt komputerowy może obsłużyć wszystkie koncepcje zawarte w nowatorskim artykule Turinga. W lipcu 1939 roku Turing był jednym z brytyjskich matematyków, którzy otrzymali od polskich matematyków tajne informacje o dekodowaniu niemieckich kodów opartych na Enigmie. W rzeczywistości otrzymali działającą maszynę Enigma, którą można było poddać inżynierii wstecznej. Jak wspomniano wcześniej, Turing opracował nową i ulepszoną formę maszyny o nazwie Bombe w Bletchley Park. Wersja opracowana przez Turinga była elektromechaniczna. Była to masywna maszyna, wysoka na około osiem stóp i ważyła co najmniej tonę. Używał kół podobnych do maszyny Enigma. Lokalna nazwa w Bletchley dla tej pierwszej Bombe brzmiała "bogini z brązu". Turing nie był jedynym genialnym matematykiem i wynalazcą w Bletchley Park. T. H. Flowers był głównym architektem szybkiego komputera elektronicznego stał się znany jako Colossus i miał na celu odszyfrowanie kodów w oparciu o schemat kodowania FISH Lorenz. Duży zespół inżynierów i matematyków pracował przez dwa lata przy budowie Kolosa. Ukończony w 1943 roku był pierwszym działającym komputerem w Wielkiej Brytanii i pretendował do miana pierwszego działającego komputera na świecie.

Uwaga: W 2006 roku powstała działająca replika Colossusa, która została zgłoszona do konkursu na łamanie kodów przeciwko nowoczesnym notebookom. Chociaż Colossus nie wygrał, miał bardzo przyzwoite wyniki jak na urządzenie zaprojektowane w technologii z lat czterdziestych XX wieku

Brytyjski program łamiący kod został nazwany programem Ultra. Pochodzenie słowa "ultra" sugerowało, że tajemnica była nawet wyższa niż ściśle tajna, więc była to "ultra tajna". Część informacji o programie Ultra została odtajniona dopiero w 1972 roku, co oznacza, że wczesne prace nad komputerami cyfrowymi w ramach Ultra nie były szeroko znane. Wyżsi oficerowie zarówno ze Stanów Zjednoczonych, jak i Wielkiej Brytanii przypisują programowi Ultra skrócenie wojny o może dwa lata. Niektórzy nawet twierdzą, że wojna mogłaby zostać przegrana, gdyby nie Ultra. W 1946 roku Alan Turing przedstawił artykuł napisany w 1945 roku komitetowi wykonawczemu British National Physical Laboratory. Tytuł brzmiał "Automatic Computing Engine" (ACE). Opisał bardzo wyrafinowany komputer cyfrowy z zapisanym programem. Ponieważ praca Turinga była objęta ustawą o tajemnicy urzędowej, nie mógł opublikować artykułu ani ujawnić jego treści. Proponowany komputer Turinga zawiera wywołania podprogramów, których nie było w Electronic Discrete Variable Automatic Computer (EDVAC), opisanym przez von Neumanna w artykule z 1945 roku. Oznacza to, że komputer Turing był nieco przed EDVAC. Turing zdefiniował również język programowania w sekcji swojego raportu zatytułowanej "Skrócone instrukcje komputerowe". Ze względu na tajemnicę działający komputer oparty na koncepcjach ACE Turinga został zbudowany dopiero w 1950 r., Kiedy był to najszybszy komputer do tego czasu. Został on nazwany Pilot Model ACE i zaczął działać 10 maja 1950 r. Ten komputer wykorzystywał lampy próżniowe do obliczeń i linie opóźniające rtęci jako pamięć. Większa wersja o nazwie MOSAIC, oznaczająca Ministerstwo Zaopatrzenia Automatyczny Integrator i Komputer, została ukończona w 1952 roku, a niektóre szczegóły tego urządzenia pozostają utajnione do dziś. Służył do wspomagania obserwacji radarowych samolotów i obliczania ich przyszłych torów lotu. Gdyby rząd brytyjski działał szybciej i wykorzystał papier Turinga jako architekturę komputerową w 1946 r., Szybkie komputery cyfrowe prawdopodobnie pojawiłyby się około pięć lat szybciej niż miały miejsce. Ciekawym faktem historycznym jest to, że John von Neumann znał dzieło Turinga. Niektóre koncepcje w artykule von Neumanna na temat EDVAC wydają się być podobne do artykułu Turinga, chociaż może to być przypadek niezależnych wynalazków zarówno Turinga, jak i von Neumanna. Chociaż Colossus jest najbardziej znanym brytyjskim systemem komputerowym z czasów wojny, wyprodukowano również różne komputery analogowe. Ci, którzy nie służyli w wojsku, mogą nie zdawać sobie sprawy ze skomplikowanych obliczeń potrzebnych podczas walki na morzu i w powietrzu. Komputery analogowe były najbardziej efektywnymi rozwiązaniami do tych obliczeń od II wojny światowej do wojny w Wietnamie. Kiedy dwa statki walczą na morzu, oba statki zwykle poruszają się w różnych kierunkach i z różnymi prędkościami. Wycelowanie pocisku w przeciwnika z dużą szansą na trafienie wymaga zintegrowania danych dotyczących kierunku i prędkości obu statków, prędkości i trajektorii pocisku oraz innych czynników, takich jak przechylenie statku w wyniku działania fal, a także prędkość i kierunek wiatru. Pierwsze brytyjskie komputery mechanicznej marynarki wojennej zostały zainstalowane na HMS Rodney i HMS Nelson w 1924 r. Podczas II wojny światowej ulepszenia te sprawiły, że urządzenia te były dość dokładne. Pod koniec wojny dostępny byłby również radar, co znacznie poprawiłoby dokładność uzbrojenia morskiego. Te mechaniczne komputery analogowe były skomplikowane w budowie i dość drogie. Na przykład analogowy komputer kierowania ogniem na pancerniku HMS King George V w 1939 roku kosztował około 213 000 funtów. To mniej więcej równowartość 20 000 000 dolarów dzisiaj. Ceny utrzymywały się na wysokim poziomie przez całą II wojnę światową, chociaż zbudowano ich tak wiele, że uzyskano korzyści skali.

Uwaga: komputer Harvard Mark I kosztował tylko około 1 000 000 USD. Koszt analogowego komputera kierowania ogniem na HMS King George l / był w przybliżeniu równy kosztom wszystkich komputerów cyfrowych zestawionych w latach 1939-1945. Nie trzeba dodawać, że te analogowe komputery kierowania ogniem były bardzo złożonymi urządzeniami.

Powierzchniowe bitwy morskie z udziałem okrętów głównych mogą rozpocząć się w odległości prawie 20 mil, a statki rzadko zbliżają się do siebie w odległości mniejszej niż mila. Okręty w walce zwykle poruszają się po zygzakach, aby utrudnić wrogowi celowanie. Dlatego uzbrojenie morskie zajmuje się celowaniem potężnymi pociskami na bardzo duże odległości i obejmuje zarówno ruchomą platformę armaty, jak i ruchomy cel. Nie są to trywialne obliczenia i nie można ich wykonać ręcznie z jakąkolwiek wymaganą szybkością i dokładnością. Przed opracowaniem analogowych komputerów kierowania ogniem potrzebnych było prawie 400 strzałów, aby zapewnić jedno trafienie z odległości większej niż trzy mile. Analogowe komputery kierowania ogniem zmniejszyły liczbę strzałów do około 40 strzałów na trafienie. Artyleria powierzchniowa jest nie tylko zadaniem wymagającym wielu obliczeń, ale także wystrzelenie torped z okrętów podwodnych wymaga wielu skomplikowanych obliczeń, które wymagają obliczeń o dużej szybkości. Większość walczących stron używało dość skutecznych komputerów analogowych do wyrzutni torped podczas II wojny światowej. Te analogowe, komputerowe urządzenia do celowania torpedowego były dość duże jak na okręty podwodne: niektóre miały pięć lub sześć stóp wysokości i może dwie stopy szerokości i głębokości. Pilność wyzwania związanego z celowaniem torpedą wyjaśnia, dlaczego tak duże maszyny zostały wciśnięte w bardzo małe pomieszczenia kontrolne okrętów podwodnych z czasów II wojny światowej. Wymagali również dwóch dodatkowych członków załogi, aby utrzymać je w ruchu. Zadanie strzelania z dział przeciwlotniczych przeciwko samolotom wroga jest jeszcze trudniejsze niż artyleria morska. Samoloty nie tylko poruszają się znacznie szybciej niż statki na morzu, ale mogą również poruszać się w trzech wymiarach i mogą szybko zmieniać kierunki. W związku z tym obliczenia przeciwlotnicze obejmują wysokość, kierunek, prędkość, prędkość wiatru, kierunek wiatru i tempo zmian dowolnego lub wszystkich z tych czynników. Podstawowym problemem jest trafienie w bardzo mały cel, który może poruszać się po nierównym kursie z prędkością ponad 350 mil na godzinę na wysokości ponad 25 000 stóp. To nie jest trywialny zestaw obliczeń. Każdy, kto próbował strzelać do rzutków wie, że pocisk musi być wycelowany w to, gdzie się znajdzie, a nie tam, gdzie aktualnie się znajduje. W przypadku samolotów, promień zniszczenia przez wybuchowe pociski przeciwlotnicze z II wojny światowej wynosił tylko około 30 stóp, co oznaczało, że pociski musiały znajdować się bardzo blisko celu, aby odnieść sukces. Równie trudne i wymagające skomplikowanych obliczeń jest celowanie bomb z poruszających się samolotów. Wszystkie walczące strony opracowały komputery analogowe do celowników bombowych, z których prawdopodobnie najbardziej znanym był celownik amerykański Norden, który zostanie omówiony w dalszej części tego rozdziału. Zaskakujące jest to, że dokładność tych elektromechanicznych komputerów analogowych do walki na morzu i w powietrzu była na tyle duża, że działały przez całą II wojnę światową, zimną wojnę, wojnę koreańską, a także w latach 60., a nawet 70. XX wieku. Niektórzy nawet widzieli służbę podczas wojny w Wietnamie. Minęło wiele lat po drugiej wojnie światowej, zanim komputery cyfrowe i oprogramowanie były wystarczająco dobre, aby zastąpić komputery analogowe na statkach i samolotach. W kontekście celowania armatami lub torpedami w poruszające się cele elektromechaniczne komputery analogowe miały jedną z najdłuższych żywotności ze wszystkich rodzajów obliczeń. Były wystarczająco dokładne, aby zapewnić skuteczne namierzanie podczas trzech wojen i licznych akcji policyjnych. Nie były to komputery programowalne w nowoczesnym sensie. Obejmowały one tylko określony zestaw obliczeń, a "programowanie" zostało wbudowane w urządzenia przez konstruktorów w zakresie mechanicznych kół, trybików i przekaźników elektrycznych. Bletchley Park nie był jedynym brytyjskim ośrodkiem badawczym mającym wpływ na komputery i oprogramowanie. Innym miejscem, które miałoby wpływ w szczególności na oprogramowanie, była Stacja Badawcza Bawdsey, gdzie matematycy i statystycy byli pionierami w dziedzinie znanej jako badania operacyjne w Wielkiej Brytanii i badania operacyjne w Stanach Zjednoczonych.

Ta nowa dyscyplina rozszerzyłaby się i wkrótce objęłaby personel armii, marynarki wojennej i sił powietrznych. Badania operacyjne dotyczą optymalizacji efektywności działań grupowych i obejmują analizę logiki i sieci, a także zwykłą matematykę i statystykę. Kilka przykładów problemów badanych przez badania operacyjne pokaże połączenie logiki i matematyki potrzebne do radzenia sobie ze złożonymi sytuacjami. Jedna kwestia o wielkim znaczeniu dotyczyła tego, czy kilka dużych konwojów statków lub wiele małych konwojów będzie najbardziej skutecznych w ucieczce przed atakami niemieckich U-Bootów. Badania operacyjne wykazały, że unikanie ataków było najsilniej skorelowane z liczbą dostępnych niszczycieli i uzbrojonych eskort, które mogłyby obronić konwój. Najlepszym rozwiązaniem okazały się duże konwoje z wieloma uzbrojonymi niszczycielami i okrętami eskortowymi. Kolejne pytanie dotyczyło tego, jaki kolor farby na dnie przeciw okrętom podwodnym byłby najmniej widoczny dla niemieckich okrętów podwodnych. Okazało się, że samoloty z białym dnem zostały zauważone dopiero wtedy, gdy były 20% bliżej celu niż samoloty z czarnym dnem. Powiązaną kwestią była optymalna głębokość detonacji ładunków głębinowych zrzucanych z samolotu. Początkowa standardowa głębokość wynosiła 100 stóp. Okazało się jednak, że większość nurkujących okrętów podwodnych nie osiągnęła tej głębokości, zanim ładunek głębinowy eksplodował, więc uniknęli poważnych uszkodzeń. Mała głębokość 25 stóp była optymalna dla ustawień ładunku głębinowego samolotu. Kiedy rozpoczęła się II wojna światowa, do zestrzelenia jednego samolotu potrzeba było 20 000 pocisków przeciwlotniczych. W połowie wojny, w oparciu o analogowe komputery kierowania ogniem i badania operacyjne zastosowane do operacji ładowania i celowania przeciwlotniczego, liczba pocisków potrzebnych na zniszczony samolot spadła do 4000.

Ogromny stosunek strzałów do trafień wyjaśnia, dlaczego rakiety ziemia-powietrze (SAM) z komputerowymi systemami naprowadzania zastąpiłyby działa przeciwlotnicze jako najlepszą metodę obrony powietrznej w późniejszych dziesięcioleciach. Aby były skuteczne, SAM potrzebował kompaktowego radaru pokładowego, małych komputerów analogowych do prowadzenia i innych zaawansowanych układów elektronicznych, takich jak czujniki ciepła. Nie powstały one podczas wojny, ale przybyły w 1947 roku i stały się bardzo wyrafinowane w późniejszych dziesięcioleciach. Te rzeczywiste problemy militarne łączą potrzebę danych empirycznych i analizy statystycznej ze złożonymi obliczeniami wykonywanymi przy dużych prędkościach. To są właśnie problemy, z którymi komputery cyfrowe i oprogramowanie ostatecznie z wielkim sukcesem zmierzą się w przyszłych dziesięcioleciach. Po wojnie badania operacyjne i komputery cyfrowe zastosowałyby te koncepcje do ogromnej różnorodności złożonych problemów cywilnych, w tym teorii kolejek, optymalizacji sieci telefonicznej, zarządzania łańcuchem dostaw, produkcji "just-in-time", optymalizacji tras dostaw towarów, kolei oraz analiza ruchu lotniczego i między innymi teoria gier. Na poziomie poszczególnych projektów analiza ścieżki krytycznej i diagramy PERT były pochodnymi badań operacyjnych. Na wyższym poziomie korporacyjnym dynamika organizacji, reengineering procesów biznesowych i analiza rynku również pochodziłyby z badań operacyjnych II wojny światowej. Cyfrowe komputery i oprogramowanie byłyby ostatecznie najlepszymi narzędziami w historii do rozwiązywania złożonych problemów logicznych z dużą prędkością, ale potrzeba by było jeszcze wiele lat i wiele innych wynalazków, zanim komputery cyfrowe i oprogramowanie staną się naprawdę skutecznymi narzędziami do rozwiązywania złożonych problemów w świecie rzeczywistym.


Powrót

Komputery w USA podczas II wojny światowej



Zanim zajmiemy się rozwojem komputerów cyfrowych w Stanach Zjednoczonych w czasie II wojny światowej, ważne jest, aby wziąć pod uwagę komputery analogowe używane do celowników bombowych, artylerii morskiej, strzelań artyleryjskich i wyrzutni torped. Było tylko kilka komputerów cyfrowych zbudowanych podczas II wojny światowej, ale było wiele tysięcy tych zaawansowanych komputerów analogowych rozmieszczonych na wszystkich statkach nawodnych, łodziach podwodnych i bombowcach. Jednym z najciekawszych komputerów analogowych opracowanych przez Stany Zjednoczone podczas II wojny światowej jest słynny celownik bombowy Norden używany zarówno w bombowcach Sił Powietrznych, jak i Marynarki Wojennej. Ten celownik miał bardzo długą żywotność - znacznie dłuższą niż przeciętny komputer cyfrowy. Nadal był używany podczas wojny koreańskiej i wojny w Wietnamie. Slangowa nazwa tego celownika bombowego przez załogi lotnicze brzmiała "niebieski wół". Wcześniejsze celowniki bombowe mogły kompensować prędkość i kierunek samolotu, ale nadal nie były wyjątkowo dokładne. Wymagały też dużej komunikacji werbalnej między pilotem a bombardierem podczas ostatnich etapów nalotu. Celownik Norden obejmował połączenie z autopilotem samolotu i faktycznie obliczył tor lotu bombowca w ostatnim biegu, zanim bombardier zrzucił bombę. Celownik Norden został opracowany przez holenderskiego inżyniera o nazwisku Carl Norden, który przeniósł się do Stanów Zjednoczonych i pracował dla firmy Sperry Gyroscope. Był jednak także konsultantem Marynarki Wojennej, która w 1929 roku przyznała Nordenowi kontrakt na budowę działającego automatycznego celownika bombowego. Norden ukończył działający prototyp w 1930 r. Marynarka wojenna zaakceptowała projekt, a produkcja celownika Norden rozpoczęła się w 1931 r. Norden założył własną firmę do budowy tych celowników i otrzymał kontrakt z marynarką. Później, gdy armia i lotnictwo chciały kupić celowniki Norden, musiały je nabyć od marynarki wojennej, co wywołało rywalizację między służbami. Przed celownikiem Norden bombardierzy musieli również korzystać z różnych tabel i ręcznie wprowadzać dane do celownika podczas przekazywania pilotowi wskazówek dotyczących kursu. Jak można było sobie wyobrazić, proces był powolny i podatny na różnorodne błędy. W celowniku Norden wszystkie obliczenia były wykonywane przez komputery analogowe wbudowane w sam celownik. Bombardier musiał dokonywać tylko regulacji za pomocą dwóch kół sterujących. Czas potrzebny na wykonanie obliczeń przez komputery analogowe wynosił około sześciu sekund. Celowniki Norden były złożonymi urządzeniami, które wykorzystywały stabilizację żyroskopową, aby zapewnić poziomą platformę. Dokładność zrzucania bomb przy użyciu celownika Norden wynosiła 35 stóp dla najlepszych wyników i około 75 stóp dla średnich wyników. Nie jest to sprytna dokładność bomby, ale nie jest zła w przypadku bomb żelaznych o marginalnych właściwościach aerodynamicznych. W próbie, której celem był przestarzały pancernik, około 50% bomb zrzuconych z wysokości 4000 stóp za pomocą celownika Norden trafiło w cel. Starsze celowniki miały mniej niż 20% trafień w tych samych warunkach. Podczas rzeczywistych działań bojowych wyniki celownika Norden byłyby mniej skuteczne. Dzieje się tak, ponieważ bombardowanie bojowe podczas wojny zostało przeniesione na znacznie wyższe wysokości, aby uniknąć ognia naziemnego. Niektóre bomby B17 były wykonywane z ponad 25 000 stóp, podczas gdy niektóre bomby B29 były wykonywane z ponad 30000 stóp. Norden zdał sobie sprawę, że potrzebne jest sprzężenie zwrotne między celownikiem a autopilotem samolotu, dlatego opracował ulepszoną formę autopilota z bezpośrednim połączeniem z celownikiem. Nazywało się to Stabilized Bombing Approach Equipment (SBAE) i była to również forma komputera analogowego. Królewskie Siły Powietrzne zwróciły się do Stanów Zjednoczonych w 1938 roku o zakup celownika Norden, ale zostały odrzucone. W rzeczywistości zostali oni kilkakrotnie odrzuceni, a sytuacja osiągnęła punkt, w którym w 1938 roku Neville Chamberlain napisał osobisty list do prezydenta Roosevelta, ale to nadal nie doprowadziło do przekazania celowników Norden. Współpraca techniczna między Stanami Zjednoczonymi a Wielką Brytanią prawie została zatrzymana z powodu niechęci USA do dostarczenia celownika Norden Królewskim Siłom Powietrznym. Stany Zjednoczone obawiały się, że jeśli celowniki Norden zostaną użyte w brytyjskich samolotach nad okupowaną Europą, ich projekt może stać się znany Niemcom, jeśli jakiekolwiek samoloty zostaną zestrzelone.

Uwaga: Chociaż fakt ten nie był znany podczas samej wojny, jak wspomniano wcześniej w rozdziale, niemieccy szpiedzy przekazali Niemcom informacje o celowniku Norden już w 1938 roku. Przekazanie celownika Norden Wielkiej Brytanii nie obniżyłoby jej bezpieczeństwa. ponieważ Niemcy już budowali podobny celownik w oparciu o skradzioną technologię przekazaną przez niemieckich szpiegów.

Impas między Wielką Brytanią a Stanami Zjednoczonymi w sprawie broni wojskowej doprowadził do słynnej misji Tizard z 1940 r., aby spróbować poprawić transfer informacji technicznych. Misja ta została nazwana na cześć Henry'ego Tizarda, przewodniczącego Brytyjskiego Komitetu Badań Aeronautycznych. Chociaż misja Tizard nie zdobyła celownika Norden, złagodziła wrogość między brytyjskimi i amerykańskimi dowódcami wojskowymi. Stany Zjednoczone odniosły ogromne korzyści, otrzymując informacje o rozwoju brytyjskich silników odrzutowych, magnetronie wnękowym, który umożliwiał stosowanie małych zestawów radarowych, samouszczelniających się zbiorników paliwa, plastikowych materiałów wybuchowych i innych technologii, w których Wielka Brytania była światowym liderem. Magnetron był krytycznym produktem, który umożliwiał zestawy radarów na tyle małe, że można je było umieścić w myśliwcach i bombowcach, co znacznie poprawiło skuteczność bojową. Co więcej, te powietrzne zestawy radarowe umożliwiały samolotom lokalizowanie okrętów podwodnych z dużych odległości, a nawet w nocy. Małe zestawy radarowe działające w samolotach były jednym z najważniejszych wynalazków II wojny światowej, co przyniosło także znaczne korzyści cywilne. Ciekawostką historyczną jest to, że zarówno komputery analogowe, jak i cyfrowe zmieniły przebieg II wojny światowej. W rzeczywistości silne brytyjskie zapotrzebowanie na komputer analogowy Norden przyniosło niezwykle cenne technologie, które przyniosły korzyści amerykańskim wysiłkom wojennym, a magnetron był kluczowym wynalazkiem, który zrewolucjonizował walkę powietrzną, wprowadzając radar do samolotów bojowych. Komputery analogowe były koniami roboczymi podczas II wojny światowej. Każdy statek wojenny, bombowiec i bateria artyleryjska stosowały obliczenia analogowe jako standardową metodę działania. Urządzenia te zwiększyły zarówno celność, jak i szybkostrzelność dział lądowych i okrętowych. Zwiększyli także celność bombardowania i sprawili, że precyzyjne bombardowanie stało się jedną z najskuteczniejszych broni prowadzących do zwycięstwa aliantów, chociaż nie wszystkie wyniki były udane. Innym skutecznym komputerem analogowym opracowanym przez Stany Zjednoczone był Torpedo Data Computer (TDC), używany na pokładzie wszystkich amerykańskich okrętów podwodnych. Było wiele modeli tego urządzenia, ale Mark III i Mark IV były najlepszymi z tych podczas wojny. Mark III działał w 1940 roku, a Mark IV w 1943 roku. Te masywne urządzenia były tak ważne dla dokładnego celowania, że były przenoszone w pomieszczeniach kontrolnych okrętów podwodnych, a dwóch dodatkowych, specjalnie przeszkolonych członków załogi utrzymywało je w ruchu. Urządzenia celownicze Mark III i Mark IV są uważane za najlepsze ze wszystkich krajów podczas II wojny światowej. Niestety, amerykańska torpeda Mark 14 nie była tak niezawodna jak japońska torpeda z długą lancą w momencie wybuchu wojny, ale z czasem ulegała poprawie. Późniejsza amerykańska torpeda Mark 18 była jedną z najlepszych podczas wojny. Torpeda Mark 14 wykorzystywała formę komputera analogowego jako detonatora, zwaną detonatorem Mark VI, która zawierała zarówno czujniki magnetyczne, jak i detonację kontaktową. Ze względu na koszty, detonatory Mark VI nie przeszły testów na żywo przed uruchomieniem. Uderzyło w nie wiele amerykańskich torped , ale nie wybuchły w ciągu pierwszych dwóch lat II wojny światowej z powodu wadliwej detonacji magnetycznej. Innym problemem było to, że we wstępnych testach torpedy Mark 14 wykorzystano atrapy głowic, które były lżejsze od rzeczywistych głowic bojowych. W rezultacie Mark 14 w walce wleciał około 10 stóp głębiej niż zaprogramowano, co spowodowało wiele chybień. Dopiero we wrześniu 1943 roku rozwiązano różne problemy amerykańskich torped. Problemy z torpedami często znajdowano w rzeczywistych warunkach bojowych, a Biuro Marynarki Wojennej zignorowało dziesiątki raportów sfrustrowanych dowódców amerykańskich okrętów podwodnych. Ostateczne poprawki wymagały, aby admirał Ernest King, szef operacji morskich, "zapalił lampę lutowniczą pod Biurem Ordynacji Morskiej". Baza morska do wykrywania niemieckich okrętów podwodnych powstała w 1942 roku na terenie przyległym do obszaru testowania torped w Newport w stanie Rhode Island. Budynki zostały zaprojektowane tak, aby wyglądały jak domy na plaży, aby ukryć swój cel przed niemieckimi okrętami podwodnymi, które mogą zbliżać się do Zatoki Narragansett, aby zaatakować statki amerykańskie w bazie morskiej Newport.

Uwaga: jeden z terenów testowych torped i jeden z budynków wykrywania okrętów podwodnych są widoczne z okna biura, w którym napisano tę książkę. Nawet dzisiaj niewybuchy z II wojny światowej są usuwane z Zatoki Narragansett, która jest obecnie wykorzystywana jako baza szkoleniowa Gwardii Narodowej Rhode Island i nosi nazwę Camp Varnum od nazwiska generała wojny o niepodległość, który mieszkał w pobliżu.

Ciekawym faktem historycznym jest to, że ostatni U-boot zatopiony podczas II wojny światowej został zauważony w pobliżu wejścia do Zatoki Narragansett i został zatopiony w pobliżu Block Island, około siedmiu mil od wybrzeża Rhode Island. Tą łodzią był U-853 i był na swoim trzecim patrolu bojowym. U-boot został zniszczony przez US Navy po bitwie pod Point Judith 6 maja 1945 roku. U-boot został zatopiony przez ładunki głębinowe i cała załoga zginęła. Później kilku niemieckich członków załogi zostało pochowanych z pełnymi honorami wojskowymi w Newport w stanie Rhode Island. Wśród amerykańskich statków biorących udział w polowaniu i zatopieniu U-853 znajdowały się niszczyciel eskortujący Ericsson, Amick, Atherton i Moberly. Udział wzięły również sterowce i samoloty. Atherton i Moberly zostali przypisani do wystrzelenia ładunków głębinowych, które zatopiły U-853, używając komputerów analogowych do ustalenia głębokości eksplozji. Na krótko przed zatopieniem U-853 zatopił statek węglowy o nazwie Black Point, ostatni amerykański frachtowiec zniszczony podczas II wojny światowej. Został zatopiony 6 maja 1945 roku ze stratą 12 członków załogi. Uratowano kolejnych 34 członków załogi. Bitwa pod Point Judith była ostatnią bitwą morską na Atlantyku podczas II wojny światowej. Black Point Park w Narragansett w stanie Rhode Island nosi nazwę ostatniego amerykańskiego statku zatopionego podczas II wojny światowej. 5 maja Wielki Admirał Donitz, głównodowodzący niemieckiej marynarki wojennej, wydał rozkaz dla wszystkich okrętów podwodnych zaprzestania działań ofensywnych i powrotu do portu, ponieważ kapitulacja Niemiec została zaplanowana na 8 maja (Donitz został szefem państwa i prezydentem Niemiec po samobójstwie Hitlera. Pełnił to stanowisko od 30 kwietnia 1945 r. do 23 maja 1945 r., kiedy rząd niemiecki został rozwiązany przez aliantów). Najwyraźniej U-853 nie otrzymał rozkazu zaprzestania działań bojowych, lub kapitan postanowił to zignorować. To niefortunne dla obu stron, że bitwa rozegrała się tak blisko końca wojny i dzień po tym, jak wszystkim niemieckim okrętom podwodnym nakazano zaprzestanie walki. Odkąd U-853 zatonął w wodzie o głębokości 121 stóp, kadłub nadal jest widoczny dla płetwonurków posiadających certyfikaty do nurkowań głębokich, chociaż nurkowanie to jest niebezpieczne i amatorzy nie powinni go próbować. Na pokładzie mogą również znajdować się torpedy i pociski armat morskich, które z czasem stają się niestabilne. Istnieje tylko kilka działających przykładów komputerów cyfrowych, które Stany Zjednoczone ukończyły w czasie wojny. Pierwszy z amerykańskich komputerów cyfrowych nie był przeznaczony specjalnie do zastosowań wojskowych, ale raczej do rozwiązywania równań liniowych. Ten komputer został zaprojektowany w 1937 roku przez Johna Atanasoffa z Iowa State University. Absolwent, Clifford Berry, asystował przy budowie komputera. Nazwano go komputerem ABC od inicjałów wynalazców. Komputer ABC został ukończony w 1942 roku, ale nie był programowalny i dlatego Turing nie był kompletny. Jednak używał arytmetyki binarnej i zawierał przetwarzanie równoległe. Miał oddzielne pamięci dla danych pośrednich i instrukcji. Wszystkie obliczenia były elektroniczne, przy użyciu lamp próżniowych i nie obejmowały kół ani ruchomych części mechanicznych. ABC mogło dodawać lub odejmować z szybkością około 30 obliczeń na sekundę. Jak zostanie omówione w rozdziałach dotyczących lat sześćdziesiątych i siedemdziesiątych, ten komputer odegrał istotną rolę w procesie patentowym pomiędzy Sperry-Rand i Honeywell. Decyzja sędziego zawierała stwierdzenie, że ABC był pierwszym komputerem cyfrowym, co wywołało kontrowersje, które nie zostały jeszcze całkowicie rozstrzygnięte w 2013 roku. Sędzia stwierdził, że Atanasoff był oryginalnym twórcą komputerów elektronicznych, co podważa wkład Zuse, Mauchly i Eckert. W 1942 roku zarówno Marynarka Wojenna Stanów Zjednoczonych, jak i Siły Powietrzne Stanów Zjednoczonych utworzyły formalne grupy badawcze zajmujące się operacjami, które miały zastosować metody matematyczne do analizy działań bojowych. Grupa Marynarki Wojennej przeanalizowała działania wojenne łodzi podwodnych, a grupa Sił Powietrznych przeanalizowała bombardowania i operacje myśliwskie. Badania te doprowadziły do innowacji w logistyce patroli bojowych, a także do stworzenia najbardziej efektywnych formacji samolotów bojowych. Dopiero w późniejszych dziesięcioleciach komputery i oprogramowanie cyfrowe byłyby wystarczająco wydajne, aby przyczynić się do rozwiązania problemów badań operacyjnych. Kolejnym komputerem cyfrowym w Stanach Zjednoczonych był ENIAC. Został uruchomiony w 1943 roku w celu obliczenia balistyki artyleryjskiej. Został ufundowany przez United States Army Ballistic Research Agency. ENIAC został ukończony dopiero w 1946 r., Więc opuścił służbę podczas II wojny światowej. Jednak po uruchomieniu na poligonie w Aberdeen, ENIAC działał dobrze do 1955 roku. ENIAC był masywną maszyną, która ważyła ponad 30 ton. Wykorzystał ponad 17 000 lamp próżniowych, 70 000 rezystorów i 10 000 kondensatorów. W tamtych czasach nie było obwodów scalonych ani drukowanych, więc konstrukcja obejmowała ponad 5 000 000 połączeń lutowanych ręcznie, jak podaje Wikipedia. Podobnie jak w przypadku urządzeń lampowych, często dochodziło do awarii lamp. W rzeczywistości kilka rur wypalało się każdego dnia. Częściowym rozwiązaniem tego problemu było pozostawienie komputera działającego przez 24 godziny na dobę (przy dużym koszcie zużycia energii elektrycznej). Dzieje się tak, ponieważ większość awarii lamp próżniowych występuje, gdy są one włączane po raz pierwszy i się nagrzewają. W 1948 roku opracowano specjalne lampy próżniowe o wysokiej niezawodności, które zmniejszyły częstotliwość awarii lamp. Głównymi projektantami ENIAC są znani pionierzy komputerów John Mauchly i J. Presper Eckert z University of Pennsylvania, chociaż wielu innych uczestniczyło w projektowaniu i budowie. Wiele osiągnięć technicznych w ENIAC zostało opatentowanych przez Mauchly'ego i Eckerta. Po nabyciu tych patentów przez Sperry-Rand, firma zaczęła pobierać tantiemy za komputery zbudowane przy użyciu tych samych funkcji. Doprowadziło to do doniosłego pozwu o naruszenie patentu pomiędzy Sperry-Rand i Honeywell, omówionego w dalszych rozdziałach. Mauchly odwiedził Atanasoff i był świadkiem działania komputera ABC. Korespondencja między Mauchlym i Atanasoffem dotyczyła również różnic między ABC a proponowanym ENIAC-em. Ta interakcja odegrałaby główną rolę w przyszłych dziesięcioleciach, kiedy toczyły się wzajemne spory patentowe między Sperry-Rand i Honeywell. W 1944 roku Mauchly i Eckert rozpoczęli projektowanie bardziej zaawansowanego komputera o nazwie EDVAC. EDVAC został ukończony dopiero w 1949 roku, a John von Neumann był częścią ostatniego zespołu. Podobnie jak w przypadku ENIAC, EDVAC miał na celu obliczenia balistyczne i był finansowany przez Laboratorium Badań Balistycznych Armii. Zarówno ENIAC, jak i EDVAC zwróciły uwagę naukowców zajmujących się energią jądrową z Los Alamos, którzy zdali sobie sprawę, że komputery odegrają rolę w rozwiązywaniu złożonych równań jądrowych. Jednym z tych naukowców z Los Alamos był John von Neumann. Notatki przygotowane przez von Neumanna na temat projektu EDVAC stały się znane na całym świecie jako esencja architektury przyszłych komputerów cyfrowych. Na dekadę od 1940 do 1949 roku duży wpływ wywarła praca von Neumanna, który był polimatem, który wniósł wkład nie tylko w architekturę komputerów, ale także w czystą matematykę, energię jądrową, teorię mnogości, programowanie liniowe i wiele innych dziedzin. Opublikował 150 prac naukowych i matematycznych na wiele ważnych tematów. To przełomowa praca von Neumanna z 1945 r. Zatytułowana "First Draft of a Report on the EDVAC" ustanowiła architekturę von Neumanna jako podstawę projektowania sprzętu komputerowego. Jednak inny artykuł z 1945 roku Alana Turinga zatytułowany "Automatic Computing Engine (ACE)" jest niezwykle podobny do raportu von Neumanna i prawdopodobnie von Neumann widział tekst Turinga lub wiedział o tym. Architektura von Neumanna przewidywała komputer cyfrowy zawierający jednostkę przetwarzającą do obliczeń matematycznych i logicznych, jednostkę sterującą, pamięć wewnętrzną do przechowywania zarówno danych, jak i instrukcji oraz magistralę lub kanał do pobierania danych i instrukcji w razie potrzeby. Nie byłoby też zewnętrznej pamięci masowej i mechanizmy wejścia / wyjścia. Chociaż architektura von Neumanna odniosła widoczny sukces w setkach maszyn komputerowych, miała jedną cechę, która została zakwestionowana. Architektura von Neumanna wykorzystuje jedną magistralę zarówno do pobierania danych, jak i instrukcji, co ogranicza wydajność. Nazywa się to wąskim gardłem von Neumanna. Inne architektury maszynowe, takie jak architektura Harvardu, przewidywały oddzielne magistrale dla danych i instrukcji. Przyszłe pokolenia badaczy odkryją również, że architektura von Neumanna może mieć luki w zabezpieczeniach, z których mogą skorzystać hakerzy. Inny komputer uruchomiony podczas II wojny światowej był znany jako Harvard Mark I. Oficjalna nazwa brzmiała IBM Automatic Sequence Controlled Calculator (ASCC). Był to komputer elektromechaniczny, który został oddany do użytku w 1943 roku i zbudowany w 1944 roku. Zamówienie zostało wydane przez Biuro Okrętowe Marynarki Wojennej Stanów Zjednoczonych. Harvard Mark I został zaprojektowany przez innego słynnego pioniera komputerowego, Howarda H. Aikena z Harvardu. Sam komputer został zbudowany w IBM w Endicott w stanie Nowy Jork i przeniesiony na Harvard po ukończeniu w 1944 roku. Innym słynnym pionierem oprogramowania, który również był częścią zespołu projektantów Mark I, była Grace Hopper. Później zasłynęła z rozwoju COBOL i zostania admirałem marynarki USA u szczytu swojej znakomitej kariery. Grace Hopper wzięła urlop w Vassar w 1943 roku i dołączyła do WAVES, organizacji US Navy dla kobiet. W czasie realizacji projektu Mark I jej stopień marynarki wojennej to porucznik JG.

Uwaga: kariera wojskowa Grace Hopper była raczej w rezerwie marynarki wojennej niż w zwykłej marynarce. W 1985 roku awansowała do stopnia kontradmirała, a po przejściu na emeryturę w 1986 roku była najstarszym oficerem marynarki w wieku 79 lat. Była znawcą oprogramowania i inżynierii komputerowej. Miałem zaszczyt uczestniczyć w jednym z jej przemówień tuż przed przejściem na emeryturę. Była doskonałym mówcą publicznym, a także genialnym wynalazcą i administratorem.

Jako przykłady, dlaczego wczesne komputery były drogie, Harvard Mark I miał 500 mil drutu i ponad 3 000 000 połączeń lutowanych. Po Mark I pojawiły się inne projekty Aiken zwane Mark II, Mark III i Mark IV. Żadnego z nich nie należy mylić z brytyjskim Mark I zaprojektowanym w Manchesterze, który zaczął działać w 1948 roku. Aiken wywołał u IBM urazy, ogłaszając Mark I jako jedyny wynalazek i nie wymieniając żadnego z innych projektantów i konstruktorów IBM niż James Bryce. To zirytowało prezesa IBM, Thomasa J. Watsona, i skłoniło IBM do pójścia w innym kierunku. Kierunek, który wybrał IBM, to zbudowanie elektronicznego kalkulatora IBM Selective Sequence Electronic Calculator (SSEC). Projekt SSEC rozpoczął się w 1944 r., Ale maszyna została ukończona dopiero w 1947 r. SSEC był ostatnim ukończonym komputerem elektromechanicznym. Potem wszystkie komputery były czysto elektroniczne. Wallace John Eckert z Columbia University (bez związku z Presper Eckert) zaprojektował SSEC, ale został on skonstruowany w IBM Endicott pod nadzorem Johna McPhersona przy użyciu technologii przez inżyniera IBM, Jamesa Bryce. Francis Hamilton i Robert Seeber również przyczynili się do powstania projektu. SSEC nie był kompletny Turinga i był bardziej szybkim kalkulatorem niż prawdziwym komputerem. Jednak SSEC zrobiło wiele, aby komputery stały się znane opinii publicznej. SSEC został zainstalowany w Nowym Jorku w pobliżu IBM i znajdował się w dawnym sklepie obuwniczym z szybą z szyby, która pozwalała przechodniom zobaczyć maszynę. SSEC był wielką i imponującą maszyną; ponieważ był wystawiany publicznie, miał wyglądać imponująco. SSEC zapoczątkowało modę na sale komputerowe ze szklanymi ścianami i podniesioną podłogą, naśladowane przez setki firm, aby pokazać swoje wejście w erę komputerów. Oczywiście terroryzm odwrócił ten trend, a komputery są teraz umieszczone poza zasięgiem wzroku w bezpiecznych budynkach. SSEC był pierwszym działającym komputerem, który został zaprezentowany publicznie i zdobył wiele przychylnego rozgłosu IBM. Częściowo, aby zaprezentować czysty wygląd przechodzącym przechodniom, komputer SSEC był pierwszym, który zainspirował zastosowanie podniesionych podłóg z ukrytymi kablami. Kilku znanych pionierów oprogramowania było programistami w SSEC, w tym John Backus, Herb Grosch i Ted Codd, którzy później zasłynęli jako wynalazca koncepcji relacyjnej bazy danych. IBM złożył patent na możliwości programu SSEC w pamięci masowej; patent ten został później utrzymany w mocy i pozostaje podstawą do przechowywania programów i danych.


Powrót

Komputery w okresie powojennym



Niemcy poddały się aliantom 8 maja 1945 r., który obecnie nazywa się V-E Day i oznacza Zwycięstwo w Europie. Japonia skapitulowała 15 sierpnia 1945, w dzień V-J (Zwycięstwo nad Japonią). Te kapitulacje zakończyły bezpośrednie działania wojenne między aliantami a państwami Osi, ale nie zmniejszyły zapotrzebowania na komputery analogowe lub cyfrowe do użytku wojskowego. Wkrótce po zakończeniu działań wojennych zaczęły pojawiać się napięcia między Związkiem Radzieckim a jego byłymi sojusznikami. W 1947 roku to napięcie zaczęto nazywać "zimną wojną" i ten stan wzajemnej wrogości utrzymywał się do 1991 roku. Grupa inżynierów komputerowych zebranych 15 września 1947 roku w Nowym Jorku na Uniwersytecie Columbia postanowiła założyć Association of Computing Machinery (ACM), które jest ważnym stowarzyszeniem biznesowym producentów komputerów. Organizacja ta stała się jednym z największych stowarzyszeń technicznych na świecie. Jej pierwotna misja jest nadal aktualna: "Celem tej organizacji byłby postęp w nauce, rozwoju i konstrukcji oraz zastosowaniu nowych maszyn do obliczania, rozumowania i innego przetwarzania informacji". Obecnie jest około 100 000 członków ACM i 170 oddziałów regionalnych i lokalnych. Ze względu na różnorodność technologii komputerowych i oprogramowania, w ramach ACM istnieje wiele specjalnych grup interesów (SIG). Obecnie istnieje około trzydziestu pięciu takich SIG. Wiele SIG jest znanych na swój sposób, a ich konferencje są często miejscami, w których pojawiają się interesujące nowe wynalazki. Wśród grup zainteresowań znajdują się SIGCOM do komunikacji, SIGGRAPH do zagadnień graficznych i SIGPLAN do języków programowania. W 1946 r. W American Institute of Electronic Engineers (AIEE) istniał podkomitet ds. Obliczeń wielkoskalowych. Innym stowarzyszeniem był Instytut Inżynierów Radiowych (IRE), który w 1951 r. Miał komitet ds. Komputerów elektronicznych. AIEE i IRE miały ostatecznie połączą się w 1963 r., aby stać się Instytutem Inżynierów Elektryków i Elektroników (IEEE), w skład którego wchodziłoby IEEE Computer Society, którego siedziba główna znajduje się w Waszyngtonie. IEEE Computer Society organizuje liczne konferencje i publikuje trzynaście recenzowanych czasopism. Istnieją również stowarzyszenia komputerów i oprogramowania w wielu innych krajach. Należą do nich British Computer Society, Computer Society of India, Australian Computer Society i wiele innych. Komputery i oprogramowanie mają rozległe sieci grup społecznych, które dzielą się informacjami za pośrednictwem konferencji, czasopism i, w dzisiejszym świecie, sieci. W 1947 r. Dwóch wynalazców, Thomas Goldsmith i Estie Ray Mann, złożyło patent na użycie lampy elektronopromieniowej jako urządzenia do gier. To później eksplodowałoby w branży gier wartych miliardy dolarów w ciągu przyszłych dziesięcioleci.


Powrót

Rozpoczyna się zimna wojna



W 1949 roku Związek Radziecki zdetonował swoją pierwszą bombę atomową, co doprowadziło do koncepcji wzajemnie gwarantowanego zniszczenia, co oznaczało, że wojna atomowa po obu stronach prawdopodobnie wyrzuci wszystkich z powrotem do epoki kamienia łupanego. Radzieckie bomby atomowe pomogły utrzymać zimną wojnę w chłodzie, ponieważ żadna ze stron nie chciała konfliktu atomowego na pełną skalę. Radziecka bomba atomowa miała również duży wpływ na komputery i oprogramowanie. Bezpośrednią odpowiedzią na radziecką bombę był nowy i masywny system obrony przeciwlotniczej o nazwie SAGE, który oznaczał półautomatyczne środowisko naziemne. W 1949 roku chińskie siły nacjonalistyczne ewakuowały się z kontynentu na Tajwan i władzę przejął chiński rząd komunistyczny, co również doprowadziło do napiętych stosunków z krajami zachodnimi. Te napięte relacje doprowadziły do wojskowych wyścigów zbrojeń po obu stronach, a część takiej eskalacji obejmowała projektowanie i budowanie nowszych i potężniejszych komputerów zarówno w formie cyfrowej, jak i analogowej.

Powojenny rozwój komputerów

Dwa z ważniejszych technicznie komputerów powojennych opracowano na Uniwersytecie Wiktorii w Manchesterze w Anglii. Pierwszym z nich był Manchester Mark I, zwany także Małą Eksperymentalną Maszyną (SSEM), który działał w 1948 r. Drugim i większym komputerem był Manchester Automatic Digital Machine (MADM), który działał w 1949 r. Prasa brytyjska nazwała tę maszynę "mózgiem elektronicznym", co zapoczątkowało spór między inżynierską stronę uniwersytetu i szkołą medyczną. Spór dotyczył tego, czy komputery mogą kiedykolwiek być kreatywne. MADM doprowadził do powstania 34 patentów, z których część została później wykorzystana w komputerach IBM 701 i IBM 702. Projektantami MADM byli Frederic Williams i Tom Kilburn. Kilburn i Williams złożyli patent na specjalny rodzaj lampy katodowej zwanej lampą Williamsa-Kilburna. Zapewnił jedno z pierwszych i najszybszych urządzeń pamięciowych do przechowywania danych cyfrowych. Niektóre z wczesnych komputerów używających Williamsa. Lampy Kilburna obejmowały IBM 701 i IBM 702, Univac Whirlwind oraz Ferranti Mark I. Kiedy kropka jest rysowana na lampie katodowej, daje to ładunek dodatni, a obszar otaczający kropkę staje się ujemny. Ładunki rozpraszają się samoistnie, ale można je odczytywać i manipulować nimi w celu przechowywania danych. Rury te umożliwiały swobodny dostęp, co było dużym krokiem naprzód, otwierającym nowe możliwości rodzaje obliczeń. Rury Williamsa-Kilburna były nieco kłopotliwe i nie do końca niezawodne. Były używane pod koniec lat czterdziestych, ale wkrótce zostały zastąpione urządzeniami pamięci z rdzeniem magnetycznym we wczesnych latach pięćdziesiątych. Pamięć z rdzeniem magnetycznym była szybsza i bardziej niezawodna. Jednak po pierwszym wprowadzeniu rdzenie magnetyczne musiały być montowane ręcznie, przy użyciu przeszkolonych pracowników odzieżowych, którzy potrafili radzić sobie z bardzo małymi przedmiotami. We wczesnych latach pamięci rdzeniowej setki pracowników odzieżowych w Europie i Stanach Zjednoczonych zostało przeszkolonych w zakresie tworzenia pamięci rdzeniowych komputerów. Tak się składa, że zautomatyzowany sprzęt do produkcji odzieży pojawił się mniej więcej w tym samym czasie, więc w przeciwnym razie pracownicy mogliby zostać zwolnieni lub bezrobotni. Później w 1964 r. Dr Robert Dennard z IBM Thomas J. Watson Research Center otrzymał patent USA o numerze 3 387 286 na wynalazek DRAM, który zastąpiłby starsze formy pamięci komputerowej. Kilku badaczy zajmujących się pamięcią rdzeniową złożyło patenty, w tym Forrester i An Wang (którzy później założyli Wang Laboratories). Było kilka lat sporów patentowych, które ostatecznie zostały rozwiązane, gdy IBM zakupił wszystkie patenty związane z rdzeniami pamięci magnetycznej. Innym technicznie interesującym komputerem powojennym był elektroniczny automatyczny kalkulator przechowywania opóźnień (EDSAC). Komputer ten został zbudowany w Laboratorium Matematycznym Uniwersytetu Cambridge w Wielkiej Brytanii. Projektantem był Maurice Wilkes i jego koledzy. EDSAC działał w maju 1949 roku i był używany między innymi do obliczania liczb pierwszych. Jak sama nazwa wskazuje, EDSAC używał linii opóźniających rtęci jako pamięci zamiast lamp katodowych. Pamięć z opóźnieniem rtęciowym nie zapewniała dostępu swobodnego, ale była dość niezawodna w przypadku dostępu sekwencyjnego. Programista EDSAC o nazwisku David Wheeler uzyskał pierwszy stopień doktora. Doktorat z informatyki w Wielkiej Brytanii. Przypisuje mu się również wymyślenie koncepcji podprogramów. Podprogramy będą później ważne w wielu językach programowania, a także doprowadziły do pierwszego stworzenia kodu wielokrotnego użytku. Niektóre z biblioteki EDSAC składającej się z 87 podprogramów obejmowały arytmetykę zmiennoprzecinkową, funkcje trygonometryczne i potęgowanie. Podprogramy dopuszczały również pętle, a zatem pętla do while była cechą podprogramów używanych w EDSAC. Jednym z najważniejszych komputerów powojennych jest komputer Whirlwind zbudowany przez Massachusetts Institute of Technology (MIT). Marynarka Wojenna Stanów Zjednoczonych zwróciła się do MIT w 1944 r. O zbudowanie symulatora lotu do szkolenia załóg bombowców. Pomysł polegał na tym, aby uzyskać bardziej realistyczne wrażenia z lotu niż zapewniał mechaniczny trener LINK. W 1947 roku Perry Crawford i Robert Everett ukończyli projekt Whirlwind (po tym, jak prototypowe urządzenia analogowe okazały się niewystarczające). Komputer cyfrowy Whirlwind zaczął działać 20 kwietnia 1951 roku. Zespół inżynierów, który zbudował Whirlwind, pracował przez trzy lata i liczył około 175 pracowników, w tym siedemdziesięciu inżynierów i techników. Jak widać, komputery zbudowane z obwodów, które wymagają ręcznego lutowania i połączenia nie są łatwe do zbudowania. Dlatego przemysł komputerowy byłby małą niszą bez późniejszego rozwoju układów scalonych w następnej dekadzie. Wśród nowatorskich cech Whirlwinda było użycie 16 jednostek matematycznych działających równolegle, co czyniło Whirlwind szesnastokrotnie szybszym niż komputery wykorzystujące matematykę szeregową. Whirlwind początkowo używał linii opóźniających rtęci jako pamięci. W linii opóźniającej rtęci, rurka z ciekłej rtęci miała mikrofon na jednym końcu i przetwornik na drugim końcu. Impulsy były wysyłane do rtęci i przechodziły przez nią z prędkością dźwięku, aż zostały odebrane na drugim końcu. Sygnały były następnie wzmacniane i wysyłane z powrotem, więc pamięć wróciła do obiegu. Prędkość dźwięku zmieniała się wraz z temperaturą, więc linie opóźniające rtęci nie działały ze stałą prędkością, co powodowało problemy. Oprócz nieregularnego działania rtęć jest trująca, więc pęknięte rurki stanowiły zagrożenie zawodowe o pewnym znaczeniu. Zarówno linie opóźniające rtęci, jak i lampy elektronopromieniowe były zbyt wolne i zawodne, aby mogły być skuteczne jako urządzenia pamięci komputerowej. Kierownikiem projektu dla Whirlwind był Jay Forrester. Czytał o nowej formie materiału magnetycznego i zamówione próbki. W wolnym czasie eksperymentował na stole warsztatowym w rogu laboratorium. Po kilku miesiącach Forrester rozwinął pamięć magnetyczną. Jego pierwszy prototyp składał się z trzydziestu dwóch rdzeni, każdy o średnicy 3/8 cala. Forrester przekazał projekt rdzenia pamięci absolwentowi i w ciągu dwóch lat pamięć z rdzeniem magnetycznym była gotowa do wprowadzenia na rynek, zastępując rtęciowe linie opóźniające i lampy elektronopromieniowe jako preferowaną pamięć dla komputerów cyfrowych. Później IBM opracował koncepcję rdzenia magnetycznego, a także maszyny przyspieszające konstrukcję rdzenia pamięci. Komputer Whirlwind byłby podstawą systemu obrony powietrznej SAGE w następnej dekadzie, a niektóre z jego technologii również trafiłyby do SABRE, chociaż zostały ulepszone przez IBM. (SABRE to skrót od Semi-Automated Business Research Environment, co jest nieco zawiłą nazwą, wybraną być może tylko po to, by używać akronimu "szabla"). badacz o nazwisku Charley Adams. To był prekursor późniejszych gier, takich jak Pong, które generowały miliardy przychodów. Co ciekawe, gry komputerowe zaczęły pojawiać się niemal tak szybko, jak same komputery. Eckert i Mauchly założyli firmę Eckert-Mauchly Computer Company (EMCC) w 1949 roku, a później przekształciła się w Univac. Była to pierwsza na świecie firma komputerowa działająca wyłącznie cyfrowo. Northrup Grumman zlecił firmie EMCC zbudowanie komputera do użytku korporacyjnego, w wyniku czego powstał Binary Automatic Computer (BINAC). Ten komputer miał dwie oddzielne jednostki przetwarzające, z których każda mogła pomieścić 512 słów. Do przechowywania w pamięci użyto linii opóźniających rtęci. Ponieważ komputer został zamówiony dla klienta, można go uznać za pierwszy na świecie komputer komercyjny, ale to naprawdę poszerza definicję pojęcia "komercyjny", co zwykle oznacza wielu klientów i wielokrotną sprzedaż tego samego produktu. BINAC był zdecydowanie pierwszym komputerem kontraktowym, ale zbudowano tylko jeden i był tylko jeden klient. Jako przykłady tego, jak trudne i małe były programy komputerowe w tej erze, niektóre programy testowe BINAC miały po pięć do siedmiu wierszy kodu, a "duży" program podczas testowania składał się z 23 wierszy kodu. Największy program testowy przed dostawą składał się z 50 linii kodu. BINAC został dostarczony do Northrup we wrześniu 1949 roku, ale po dostawie nie działał prawidłowo. Northrup twierdził, że komputer nie został odpowiednio zapakowany lub został uszkodzony podczas transportu. Firma EMCC stwierdziła, że komputer prawdopodobnie nie został prawidłowo zmontowany przez firmę Northrup, ponieważ personel EMCC nie był dopuszczony na miejscu, a montaż był wykonywany przez doktoranta bez pomocy firmy EMCC.


Powrót

Historyczny wkład dekady



Literatura i dane dotyczące wczesnych komputerów są zaskakująco niejednoznaczne jak na tak ważną technologię. Wynika to częściowo z niezależnej pracy w wielu krajach, w których pionierzy komputerowi nie byli świadomi podobnej pracy w innych krajach. Wynika to również częściowo z faktu, że zbudowano wiele modeli i ulepszeń, często stosując nomenklaturę Marka I, Marka II, Marka III i tak dalej. Jednakże, ponieważ nomenklatura ta była używana dla różnych komputerów w różnych krajach, czasami trudno jest określić, który konkretny "znak" jest przytaczany. Tabela przedstawia przybliżoną sekwencję budowy komputera cyfrowego od 1940 do 1950 roku.

Rok: Nazwa komputera: Kraj: Główni projektanci

1940 : Bomba kryptograficzna Wielka Brytania : Alan Turing
1941 : Z3 Niemcy : Konrad Zuse
1942 : ABC U.S. : John Atanasoff, Clifford Berry
1943 : Colossus : U.K T. H. Flowers , Harvard Mark I Howard H. Aiken, James Bryce, Grace Hopper
1944 : Stany Zjednoczone
1944 : Bell Labs : Model 3 U.S. George Stibitz
1945 : Z4 Niemcy : Konrad Zuse
1946 : ENIAC : U.S. : J. Presper Eckert, John Mauchly
1947 : SSEC : US : Wallace John Eckert, Robert Seeber
1948 : SSEM : Wielka Brytania : Frederic Williams, Tom Kilburn
1949 : BINAC : U.S. : J. Presper Eckert, John Mauchly
1949 : EDSAC : Wielka Brytania : Maurice Wilkes
1949 : CSIR Mark I : Australia : Trevor Pearcey, Malcom Beard, John Mauchly, J. Presper Eckert, John von Neumann
1949 : EDVAC : U.S.
1949 : MADM : Wielka Brytania : Frederic Williams, Tom Kilburn
1950 : MESM : Ukraina : Alexey Lebedev
Model pilota ACE z 1950 r., Wielka Brytania Alan Turing

Istnieją różne źródła, które często podają różne ramy czasowe, kiedy te maszyny zostały ukończone, więc ta tabela zawiera tylko przybliżone przybliżenie tego, kiedy te komputery zostały po raz pierwszy aktywowane w tej dekadzie. Wcześniejsze komputery były elektromechaniczne, podczas gdy późniejsze komputery były elektroniczne. Żaden z nich nie używał tranzystorów ani układów scalonych, ponieważ żaden z tych wynalazków nie zostałby opatentowany aż do późniejszych lat pięćdziesiątych. Lampy i przekaźniki zapewniały moc obliczeniową. Za magazynowanie służyły linie opóźniające rtęci i lampy katodowe. Rdzeń magnetyczny przybył do Whirlwind w 1951 roku, więc nie jest pokazany w tabeli 3.1. Te wczesne komputery nie były produktami komercyjnymi, ale zostały ręcznie wykonane na zamówienie i wymagały tysięcy lamp próżniowych i przekaźników oraz milionów ręcznie lutowanych połączeń. Wczesna konstrukcja komputera była bardzo pracochłonna w erze sprzed obwodów drukowanych i zautomatyzowanych linii montażowych. Jak widać w tabeli, badania komputerowe w latach wojny i powojennej były przedsięwzięciem prawdziwie międzynarodowym, a Stany Zjednoczone i Wielka Brytania wydały najwięcej pieniędzy na komputery cyfrowe ze względu na konieczność militarną. Niemcy miały bardzo wczesne i dość wyrafinowane komputery stworzone przez Konrada Zuse, ale nie sądzili, że skorzystają na wysiłkach wojennych, tak małe lub żadne fundusze pochodziły od niemieckiego rządu, który jest szczęśliwy dla aliantów. Oprogramowanie wojskowe i obronne dominowało w tej dekadzie z powodu II wojny światowej i zimnej wojny. W tej dekadzie język asemblera i język makrosemblera były normą. Języki wysokiego poziomu pojawią się dopiero w następnej dekadzie.


Powrót

Tworzenie oprogramowania w 1945 roku



Punkty funkcyjne nie zostały wynalezione, więc wszystkie dane zostały zmierzone za pomocą linii kodu. Chociaż ten przykład pokazuje oprogramowanie zawierające 1000 punktów funkcyjnych, w latach czterdziestych większość aplikacji miała mniej niż 100 punktów funkcyjnych. To tylko hipotetyczna prognoza. Fałszowanie lub konwersja matematyczna z linii kodu (LOC) na punkty funkcyjne pokazują następujące wyniki dla projektu 1000 punktów funkcyjnych w tej dekadzie:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 320 000 instrukcji kodu logicznego
•  Język programowania: Podstawowy język asemblera
•  Procent ponownego wykorzystania: od 0% do 1%
•  Metodologia: Matematycy lub inżynierowie, programowanie ad hoc
•  Wydajność: 2,5 punktu funkcyjnego na pracownika miesięcznie
•  Potencjały defektu: 7,50 na punkty funkcyjne
•  Skuteczność usuwania wad (DRE): 75%
•  Dostarczone wady: 1.875 usterek na punkt funkcyjny
•  Stosunek personelu programistycznego do utrzymania:
- Rozwój: 97%
- Konserwacja: 3%

Poniżej przedstawiono podstawowe dane dotyczące roku 1945:

•  Średni poziom języka: 1
•  Liczba języków programowania: 2
•  Instrukcje logiczne na punkt funkcyjny: 320
•  Średnia wielkość aplikacji: 1 punkt funkcyjny
•  Średnia wielkość aplikacji: 320 instrukcji kodu logicznego

Ta dekada charakteryzowała się niestandardowym sprzętem i ograniczoną wielkością pamięci. Duże programy były niemożliwe, ponieważ pamięć komputera nie mogła ich przechowywać. Pod koniec dekady komputery cyfrowe zaczęły wykazywać wartość, ale były o wiele za duże i drogie do ogólnego użytku. Tylko organizacje wojskowe i niektóre uniwersytety mogły sobie pozwolić na komputery cyfrowe. W następnej dekadzie nastąpią poważne zmiany w sprzęcie i poważna ekspansja oprogramowania. Programowanie również miało się rozwinąć, wraz z rozwojem podprogramów i kodu wielokrotnego użytku, kładąc podwaliny pod przyszłe języki programowania wysokiego poziomu.

Podsumowanie

Na początku lat czterdziestych II wojna światowa szybko pochłonęła świat jednym z najbardziej niszczycielskich konfliktów w historii. Wojna doprowadziła do ogromnego wzrostu zapotrzebowania na szybkie obliczenia balistyki wojskowej, kryptoanalizy i innych potrzeb wojskowych. W wyniku tych potrzeb wojskowych zarówno alianci, jak i państwa Osi zwiększyły swoje wydatki na komputery analogowe i cyfrowe. Komputery cyfrowe były używane przez aliantów do łamania kluczowych kodów wojskowych zarówno dla Niemiec, jak i Japonii, co prawdopodobnie skróciło wojnę i zwiększyło szanse na sukces aliantów. Komputery analogowe były budowane przez tysiące ludzi do kierowania ogniem morskim, wystrzeliwania torped z okrętów podwodnych, kierowania ogniem przeciwlotniczym, a także celowników połączonych z autopilotami. Na początku dekady słowo "komputer" oznaczało zawód matematyka człowieka. Pod koniec dekady słowo "komputer" zaczęło być używane tak, jak jest dzisiaj, jako nazwa szybkiego elektronicznego urządzenia liczącego. Szybki postęp w tej dekadzie spowodowany potrzebami wojskowymi doprowadziłby do wejścia komputerów do świata biznesu.


Powrót

1950 do 1959: Rozpoczęcie rozwoju cyfrowych komputerów i oprogramowania



W latach pięćdziesiątych XX wieku nastąpiła migracja komputerów z celów wojskowych i akademickich do domeny biznesowej. Był również świadkiem ewolucji od niestandardowych komputerów specjalnego przeznaczenia do komputerów komercyjnych, takich jak Ferranti Mark I, LEO I, UNIVAC I, IBM 701 i IBM 650. Co ważniejsze, tranzystory i układy scalone zostały opatentowane w ciągu tej dekady. i zaczął być używany na komputerach produkcyjnych. Pod koniec tej dekady komputery powstawały na całym świecie w Chinach, Rosji, Polsce, Japonii i wielu innych krajach. Programowanie stało się znaczącym zajęciem i powstały wczesne języki "wysokiego poziomu" FORTRAN, COBOL i LISP. Termin "oprogramowanie", jaki znamy, został wymyślony. Zimna wojna i wojna w Korei nadal wymagały zwiększonego finansowania zarówno dla komputerów cyfrowych, jak i analogowych, a także zwiększyły znaczenie oprogramowania w sektorach wojskowym i cywilnym.



Napięta zimna wojna między Związkiem Radzieckim a Stanami Zjednoczonymi i ich sojusznikami trwała w latach pięćdziesiątych. Pierwsza radziecka bomba atomowa została zdetonowana 29 sierpnia 1949 r. Nie trzeba dodawać, że przystąpienie Związku Radzieckiego do klubu nuklearnego spowodowało ogromny wzrost finansowania obrony, zarówno dla systemów uzbrojenia, jak i technologii komputerowej. Obrona powietrzna USA wymagała poważnej modernizacji. Było również oczywiste, że ręczna obrona powietrzna nie może być skuteczna, więc komputeryzacja była obowiązkowa.

SAGE

W poprzedniej dekadzie środki na obronę komputerów były znacznie większe w przypadku komputerów analogowych do kierowania ogniem i balistyki niż w przypadku komputerów cyfrowych. Bardzo wcześnie w latach pięćdziesiątych równowaga zaczęła przechodzić w kierunku komputerów cyfrowych z systemem SAGE lub półautomatycznym środowiskiem naziemnym, które ostatecznie stało się najdroższym komputerem, jaki kiedykolwiek zbudowano, a oprogramowanie SAGE stało się jak dotąd najdroższym programem. Te pozostałyby najdroższe do końca dekady. Po SAGE duże systemy i duże wydatki przeszłyby przez społeczność obronną i biznesową. System obrony powietrznej SAGE miał wkrótce stworzyć największy na świecie komputer cyfrowy i największą na świecie aplikację wojskową. Konwergencja komputerów, oprogramowania i obrony miała wkrótce nadejść. Projekt SAGE był przełomowy pod kilkoma względami. Być może najważniejsze jest to, że oznaczało to przejście komputerów cyfrowych od zajmowania się wąskim pasmem wyspecjalizowanych problemów do rozwiązywania ogromnych i różnorodnych problemów o ogromnej złożoności. Nie jest nawet możliwe zapewnienie skutecznego systemu obrony powietrznej dla całego kraju bez użycia szybkich komputerów cyfrowych do agregowania wszystkich potoków danych napływających z tysięcy źródeł. SAGE oznaczało również przejście od obliczeń wsadowych, które mogłyby odbyć się w czasie dogodnym dla inżynierów, do obliczeń w czasie rzeczywistym, które natychmiast przetwarzały nowe dane. W przyszłych dziesięcioleciach obliczenia w czasie rzeczywistym doprowadzą do powstania nowych form wbudowanych komputerów, które będą znajdować się wewnątrz fizycznych urządzeń, takich jak samochody, i będą stale monitorować i kontrolować takie elementy, jak układy hamulcowe i wtrysk paliwa. Kolejną ważną zmianą wprowadzoną przez SAGE była ciągła praca z wysoką niezawodnością 24 godziny na dobę, 365 dni w roku. Przed SAGE komputery działały przez kilka godzin, a następnie były wyłączane do ponownego użycia. Dzięki SAGE komputery były zawsze potrzebne. Potrzeba ciągłej całodobowej pracy spowodowała również potrzebę znacznie lepszej kontroli jakości wszystkich aplikacji. Doprowadziło to do nowych funkcji, które pozwoliły komputerom monitorować własne statusy lub stan podłączonych komputerów i ostrzegać operatorów konsoli o potencjalnych problemach, zanim się pojawią. Wprowadził również koncepcję redundancji lub tworzenia kopii zapasowych komputerów, które mogłyby przejąć kontrolę, gdyby komputer wymagał naprawy lub modyfikacji. W wyniku SAGE w ciągu kilku dziesięcioleci Departament Obrony miałby posiadać więcej komputerów niż jakakolwiek inna organizacja na świecie. Każdy departament obrony w każdym większym kraju zacząłby używać komputerów jako krytycznych elementów systemów uzbrojenia; obrona powietrzna; oraz wszystkie operacje wojskowe na lądzie, morzu i w powietrzu. SAGE to nie tylko komputer i oprogramowanie. Był to bardzo duży i złożony system hybrydowy, który wykorzystywał setki odbiorników radarowych dostarczających dane w czasie rzeczywistym do 24 centrów kierunkowych, z których każdy był dużym budynkiem mieszczącym co najmniej jeden komputer IBM AN / FSQ-7 Combat Direction Central. System SAGE połączył wszystkie Ośrodki Kierowania, a także połączył się ze stanowiskami dowodzenia wojskowymi siłami powietrznymi. W architekturze SAGE uwzględniono również wiele miejsc wyrzutni rakiet, które mogłyby kierować odpalaniem pocisków przeciwlotniczych Nike, a także pocisków strategicznych dalekiego zasięgu, mających na celu odwet w przypadku ataku. Przed SAGE istniało wiele instalacji radarowych, ale były one obsługiwane niezależnie. Istniał również naziemny korpus obserwacyjny z 8000 stanowiskami obserwacyjnymi, które były połączone telefonicznie z centrami dowodzenia. Huragan lub Północny Wschód mogą wyłączyć obronę przeciwlotniczą, ponieważ zakłócałyby tory radarowe, blokowałyby wizualne widzenie czegokolwiek ponad chmurami i zrywały wiele linii telefonicznych, odcinając w ten sposób niezbędną komunikację obronną. Rozwój systemu obrony przeciwlotniczej SAGE rozpoczął się około 1950 roku na początku dekady, a system zaczął działać w 1958 roku. Przez lata wprowadzano szereg ulepszeń w komputerach SAGE i innych urządzeniach sprzętowych, aż do wymiany w 1983 roku. Oryginalny SAGE pakiet oprogramowania składał się z około 500 000 instrukcji w podstawowym języku asemblera, co odpowiada około 15 625 punktom funkcyjnym. Chociaż w tamtym czasie była to największa aplikacja, obecnie istnieją aplikacje, które są ponad 10 razy większe. System SAGE działał do 1983 roku, kiedy to został zastąpiony przez nowsze systemy wykorzystujące połączenie radarów pokładowych i naziemnych stanowisk dowodzenia. Całkowity koszt SAGE nie został ujawniony, ale szacuje się, że w latach sześćdziesiątych zbliżył się do 12 miliardów dolarów (lub być może 100 miliardów dolarów w dzisiejszych dolarach). Komputer IBM AN / FSQ-7 SAGE był fizycznie największym komputerem, jaki kiedykolwiek zbudowano, i to twierdzenie jest prawdopodobnie prawdziwe nawet dzisiaj, ponieważ wkrótce potem tranzystorowe układy scalone zmniejszyłyby komputery do niewielkiego ułamka wielkości komputerów lampowych. Komputer IBM SAGE miał około 60 000 lamp próżniowych i ważył około 250 ton. Technologia SAGE, opracowana przez IBM w Kingston w stanie Nowy Jork, odegrałaby główną rolę w cywilnych systemach kontroli ruchu lotniczego w przyszłych latach, a także byłaby częścią systemu rezerwacji linii lotniczych SABRE (lub Semi-Automatic Business Research Environment). W rzeczywistości, część personelu IBM z SAGE przeszła do rozwoju SABRE w dalszej części dekady. SAGE i SABRE wyrzuciły komputery i oprogramowanie z laboratoryjnych ciekawostek wykorzystywanych do wąskiego zakresu obliczeń naukowych i wojskowych w główne narzędzia, które zrewolucjonizowałyby zarówno obronę narodową, jak i operacje biznesowe. SAGE, a później SABRE, również wywalczyły IBM na szczyt firm komputerowych, miejsce, w którym istnieje do dziś. SAGE zapoczątkowała również trend, który trwa do dziś. Koszty broni podczas II wojny światowej były dość niewielkim składnikiem rocznego budżetu Stanów Zjednoczonych. Zaczynając od SAGE i innych nowych systemów broni, stały się wydatki wojskowe coraz większą część budżetu krajowego.

BOMARC

SAGE nie był jedynym nowym skomputeryzowanym systemem uzbrojenia w tej dekadzie. W 1959 roku do arsenału USA dodano naddźwiękowy pocisk kierowany Boeing BOMARC. Wykorzystywał komputer analogowy do prowadzenia w połączeniu z nawigacją z komputerów SAGE. Nazwa tego pocisku była połączeniem Boeinga i Centrum Badań Lotniczych Uniwersytetu Michigan. "BO" pochodzi z Boeinga, a "MARC" z laboratorium badawczego w Michigan. Była to pierwsza operacyjna rakieta przeciwlotnicza dalekiego zasięgu w arsenale USA. W późniejszych formach miał zasięg 400 mil i mógł zostać natychmiast wystrzelony, ponieważ setki były utrzymywane w ciągłej gotowości. BOMARC mógł osiągnąć wysokość 80000 stóp, czyli wyższą niż jakikolwiek inny samolot bojowy w tamtym czasie. Leciał z prędkością około 2,5 Macha, więc był szybszy niż jakikolwiek współczesny samolot bojowy, na jaki mógł się natknąć. Pociski BOMARC zależały od instrukcji nawigacyjnych z systemu obrony powietrznej SAGE w zakresie ich początkowej trajektorii, ale ich własny radar pokładowy, czujniki i komputery analogowe były w stanie wytrzymać ostatnie kilka mil do detonacji. Ani SAGE, ani BOMARC nie były używane w prawdziwej walce i być może jest to jedna z ich zalet. Uważano je za dość potężne systemy obronne, które mogą zniszczyć wystarczającą liczbę atakujących samolotów, aby naloty na terytorium USA i Kanady były mało prawdopodobne.

Kulturowe postrzeganie komputerów

W latach pięćdziesiątych komputery zaczęły pojawiać się w hollywoodzkich filmach i powieściach sensacyjnych. Na przykład ujęcia rzeczywistych komputerów SAGE zostały wykorzystane w filmach Voyage to the Bottom of the Sea i Conquest of the Planet of the Apes. Kiedy Hollywood wzięło sobie do serca komputery, zwiększyło to również atrakcyjność programowania jako zawodu. W 1951 roku Arthur C. Clarke, pisarz science fiction, opublikował zbiór opowiadań zatytułowany Sentinel of Eternity. Jedna z tych historii została później rozszerzona w 1968 roku zarówno na film Stanleya Kubricka, jak i powieść Clarke′a 2001: A Space Odyssey, w której głównym złoczyńcą był komputer HAL. Prawdopodobnie nie jest przypadkiem, że wszystkie litery "HAL" to jedna litera pod nazwą "IBM". Pod koniec lat pięćdziesiątych komputery stały się tak potężne, że rozmowa HAL z ludzkimi astronautami nie wydawałaby się niewiarygodna.

Innowatorzy lat pięćdziesiątych

Na początku lat pięćdziesiątych tysiące wyszkolonych matematycznie ludzkich komputerów były wykorzystywane przez tysiące ludzi do wykonywania zarówno zaawansowanych obliczeń matematycznych, jak i do wykonywania przyziemnych obliczeń rachunkowych dotyczących rachunków, wynagrodzeń, podatków i tym podobnych. Pod koniec dekady termin "komputer" przekształcił się w oznaczający komputer cyfrowy, a zawód programisty komputerowego zaczął pojawiać się w znacznych ilościach, podczas gdy starsza okupacja ludzkich "komputerów" matematycznych szybko spadała i wkrótce zniknie. W latach pięćdziesiątych uniwersytety z silnymi wydziałami inżynieryjnymi i naukowymi zaczęły prowadzić zajęcia z komputerów i oprogramowania. Na przykład początkowe kursy UCLA w 1950 r. były prowadzone przez Douglasa Pfistera i Willisa Ware'a. Na UCLA utworzono Institute for Numerical Analysis, aby współpracować z RAND i organizacjami wojskowymi w zakresie korzystania z komputerów. Inne uniwersytety, takie jak Princeton, Harvard i MIT, również zaczęły włączać kursy komputerowe do programów nauczania. W tym dziesięcioleciu kilka ważnych wynalazków zapoczątkowało ekspansję komputerów i oprogramowania z ogromnych i złożonych instrumentów laboratoryjnych do globalnych produktów komercyjnych. Dwa krytyczne wynalazki w tle, jedne z najważniejszych w historii nauki, to opracowanie tranzystorów zastępujących lampy próżniowe oraz wynalezienie układów scalonych w celu zastąpienia dyskretnych elementów elektronicznych. Pierwszy tranzystor krzemowy został wyprodukowany przez firmę Texas Instruments w 1974 roku. Jednak długa historia doprowadziła do takiego wyniku. W 1947 roku William Bardeen i Walter Brattan z AT&T Bell Labs opracowali prototyp półprzewodnika na bazie germanu. Lider grupy, William Shockley, brał udział w rozszerzaniu pomysłu. W 1956 roku Bardeen, Brattan i Shockley otrzymali Nagrodę Nobla w dziedzinie fizyki za odkrycie efektu tranzystora. Nie byli sami; Jeszcze wcześniejsze prace Juliusa Lillenfielda w latach dwudziestych XX wieku i Oskara Heila w latach trzydziestych XX wieku doprowadziły do opatentowania obu koncepcji podobnych do tranzystorów. Nie doprowadziło to jednak do powstania działających modeli. Nawiasem mówiąc, termin "tranzystor" został ukuty przez Johna R. Pierce'a z Bell Labs na podstawie połączenia słów "rezystor transferowy". Bell Labs było ramieniem badawczym AT&T. Na szczęście dla branży naukowcy Bell zalecili udostępnianie i licencjonowanie technologii tranzystorowej. W 1952 roku Bell Labs sponsorowało dziewięciodniowe sympozjum poświęcone technologii tranzystorów, w którym wzięło udział 100 badaczy. Spośród uczestników 40 każdy zapłacił 25 000 dolarów opłaty licencyjnej, aby uzyskać dostęp do technologii tranzystorowej. Otwartość patentów i własności intelektualnej w latach pięćdziesiątych bardzo różni się od dzisiejszych zaciekłych wojen patentowych, które grożą zahamowaniem innowacji lub przynajmniej sprawią, że nowe produkty będą niezwykle kosztowne w budowie z powodu sztucznie zawyżonych opłat licencyjnych za patenty. Okres ten był również przed pojawieniem się subbranżu "patentowego trolla". Firmy z tej grupy kupują prawa patentowe nie ze względu na ich wartość intelektualną, ale raczej ze względu na ich wykorzystanie jako groźby uzyskania tantiem. W 1949 r. Niemiecki naukowiec z Siemens AG złożył patent na układ scalony, który według jego przewidywań miał wykorzystywać tranzystory. Później w 1952 roku Geoffrey Dummer z brytyjskiego Royal Radio Establishment wygłosił publiczny wykład na temat potrzeby stosowania układów scalonych. Około 1950 roku rosyjski badacz S. A. Lebiediew zbudował lampę próżniową i komputer cyfrowy na Ukrainie o nazwie MESM do rozwiązywania równań w inżynierii jądrowej i rakietach. Lebiediew przeniósł się do Moskwy i ostatecznie opracował około 15 różnych modeli komputerowych. Kilka miesięcy po uruchomieniu MESM Lebiediewa inny rosyjski badacz, Isaac Brook i jego koledzy zbudowali komputer M-l, w którym zamiast lamp zastosowano diody półprzewodnikowe. Uważa się, że jest to pierwszy komputer z zapisanymi programami zbudowany w Rosji. Pod koniec 1951 roku na rynek wszedł pierwszy amerykański komercyjny komputer cyfrowy. To był słynny UNIVAC I, zaprojektowany przez Johna Mauchly′ego i Prespera Eckerta. W 1951 roku Remington Rand kupił firmę Eckert-Mauchly Computer Company i jej nazwę zmieniono na Univac. W latach pięćdziesiątych Univac i IBM konkurowały na rodzącym się rynku komputerów cyfrowych typu mainframe. W 1952 roku prezydent Harry S. Truman podpisał list upoważniający do utworzenia Narodowej Agencji Bezpieczeństwa (NSA). Agencja ta zastąpiła połączenie oddzielnych wojskowych grup bezpieczeństwa i rozszerzyła swoją rolę z wywiadu wojskowego na prawdziwy wywiad narodowy. W późniejszych latach NSA stała się najbardziej wyrafinowanym użytkownikiem komputerów na świecie, a także właścicielem najpotężniejszych komputerów na świecie. Sama NSA przyczyniłaby się do inżynierii oprogramowania i rozwoju technologii szyfrowania. W 1957 roku japońskie Ministerstwo Handlu Międzynarodowego i Przemysłu (MITI) nałożyło 25% cło na komputery i komponenty importowane do Japonii. To pobudziło rozwój japońskich firm komputerowych, takich jak Fujitsu, które wkrótce konkurowały z firmami amerykańskimi na rynkach światowych. Japonia walczyła również o konkurencję na rynku komponentów komputerowych, takich jak tranzystory i układy dynamicznej pamięci o dostępie swobodnym (DRAM). Jak powszechnie wiadomo, japońskie przedsiębiorstwa przemysłowe jako jedne z pierwszych zastosowały koncepcje W. Edwardsa Deminga i Josepha Jurana do przemysłowej kontroli jakości. (Wkład Deminga rozpoczął się w latach czterdziestych i wczesnych pięćdziesiątych XX wieku. Juran rozpoczął się na początku 1954 roku). W 1950 roku Japoński Związek Naukowców i Inżynierów (JUSE) zaprosił W. Edwardsa Deminga ze Stanów Zjednoczonych do poprowadzenia 30-dniowego seminarium na temat jakości statystycznej kontrola. Seminarium to utorowało również drogę do późniejszej Nagrody Deminga za jakość. Wysoka jakość japońskich produktów wpłynęła na ich udział w rynku różnych produktów, w tym chipów komputerowych, pamięci komputerowej, telewizorów i przenośnych radioodbiorników oraz samochodów. Ostatecznie Japonia wyprzedziła Stany Zjednoczone na tych rynkach częściowo ze względu na bardzo wysoki poziom jakości produkcji. W 1958 roku badacz Jack Kilby z Texas Instruments zademonstrował działający układ scalony. Pomysł ten został opatentowany w 1959 roku i wkrótce został wykorzystany przez Siły Powietrzne Stanów Zjednoczonych. W 2000 roku Kilby otrzymał za swoją pracę Nagrodę Nobla w dziedzinie fizyki za wynalezienie układu scalonego. Dość powiedzieć, że bez tranzystorów i układów scalonych żadne z malutkich skomputeryzowanych urządzeń elektronicznych, które są dziś powszechne, nie byłoby możliwe. Bez tranzystorów i układów scalonych oprogramowanie byłoby prawdopodobnie małą niszową branżą obsługującą kilkadziesiąt komputerów typu mainframe, które wykorzystują lampy próżniowe. Ani komputery osobiste, ani urządzenia wbudowane nie byłyby możliwe bez mikroskopijnych tranzystorów małej mocy i układów scalonych. W 1958 roku matematyk i statystyk z Bell Labs, John Wilder Tukey, użył w artykule słowa "oprogramowanie". Miało to miejsce w kontekście bycia odrębną jednostką od "sprzętu". Jest to pierwsze znane użycie słowa "oprogramowanie" w kontekście komputera. Również w 1958 roku w Chinach kontynentalnych zbudowano pierwszy komputer lokalny. Był to komputer lampowy o nazwie 901, skonstruowany przez Instytut Inżynierii Wojskowej Uniwersytetu w Harbin.

Języki programowania z lat 50

Trzy kluczowe języki programowania wysokiego poziomu zostały opracowane w połowie lat pięćdziesiątych, a ich użycie rozszerzyło się w latach sześćdziesiątych: FORTRAN w 1955 r., LISP w 1958 r. i COBOL w 1959 r. Pomysły i zalążki innych języków, takich jak ALGOL, również pojawiły się przed 1960 r. Jednak przez większość dekady język asemblera był najczęściej używanym językiem. COBOL oznacza "wspólny język biznesowy". FORTRAN oznacza "tłumacz formuł". Nazwa LISP pochodzi z przetwarzania listy. Nazwy te odzwierciedlają fakt, że te nowe języki zaczęły specjalizować się w matematyce, biznesie i innych rodzajach problemów. Podczas gdy języki COBOL, LISP i FORTRAN zostały opracowane w Stanach Zjednoczonych, dziesiątki innych języków opracowano w innych krajach i miały one różne nazwy, chociaż niektóre były odmianami starszych języków. ALGOL został opracowany wspólnie przez naukowców z USA i Europy. Języki mają nie tylko wiele dialektów lub odmian, ale z czasem zmieniają się i dodają nowe funkcje. Na przykład istniały wersje ALGOL o nazwie ALGOL 58, ALGOL 60 i ALGOL 68 oraz kolejna wersja z 1973 r. Istnieją również dziesiątki języków podobnych do ALGOL opartych na niektórych zdefiniowanych funkcjach, takich jak SIMULA. Wczesne komputery były kodowane w języku maszynowym, który jest tak bardzo złożony, że błędy były powszechne i trudne do znalezienia i naprawienia. Języki asemblera wprowadziły mnemoniczne instrukcje źródłowe, które były nieco łatwiejsze do zrozumienia niż liczby binarne lub język maszynowy. Początkowo języki asemblerowe miały korespondencję jeden do jednego z językami maszynowymi w tym sensie, że każda instrukcja źródłowa była tłumaczona na jedną instrukcję maszynową. Później koncepcja języków makr asemblerowych rozszerzyła zakres instrukcji kodu źródłowego asemblera. Instrukcja makro była metodą, która pozwalała na tworzenie i nazywanie wielu instrukcji osobno. Zebrane zestawienia nazwano makrami - instrukcje makr są nadal szybkim sposobem dodawania funkcji wielokrotnego użytku do aplikacji.

Pierwsze komputery komercyjne

Komputer komercyjny to komputer zbudowany specjalnie w celu sprzedaży lub wydzierżawienia płacącym klientom, a nie do użytku wewnętrznego w organizacji, która go zbudowała. Historia wczesnych komputerów komercyjnych jest niejednoznaczna i zagmatwana, gdy próbuje się ustalić, kto opracował pierwszy komputer komercyjny. Literatura historyczna Stanów Zjednoczonych twierdzi, że UNIVAC I był pierwszym komercyjnym komputerem sprzedanym klientom. Niektóre literatury brytyjskie twierdzą, że komputer LEO I został dostarczony miesiąc przed UNIVAC I. Inna brytyjska maszyna, Ferranti Mark I, również twierdzi, że została dostarczona przed UNIVAC I. Niezależnie od tego, kto zbudował pierwszy komercyjny komputer cyfrowy, idea informatyki jako narzędzia biznesowego szybko się rozwijała. Wkrótce na rynku pojawią się dziesiątki komercyjnych komputerów cyfrowych, a fala producentów komputerów startowych będzie się rozwijać przez kolejne dwie dekady.

LEO

Brytyjski komputer LEO ma tło, które jest interesujące z historycznego i socjologicznego punktu widzenia. Firma J. Lyons nie była firmą zajmującą się zaawansowanymi technologiami, ale raczej jedną z największych brytyjskich firm zajmujących się cateringiem i produkcją żywności. Prowadziła również herbaciarnie w całej Wielkiej Brytanii. Dwóch dyrektorów Lyonu, Oliver Standingford i Raymond Thomson, odwiedziło Stany Zjednoczone w 1947 roku, aby przyjrzeć się nowym metodom biznesowym opracowanym podczas wojny. Tam spotkali jednego z konstruktorów komputerów ENIAC i dostrzegli potencjał komputerów do wspomagania operacji dużych firm. Po powrocie do Wielkiej Brytanii, Standingford and Thomson odwiedzili brytyjski komputer EDSAC, który był wtedy w fazie rozwoju. Standingford i Thomson pozytywnie poinformowali zarząd Lyons o komputerach, który głosował za przekazaniem 3000 funtów na przyspieszenie rozwoju EDSAC. EDSAC nie tylko otrzymała dofinansowanie, ale zarząd Lyons zdecydował również o budowie komputera biznesowego dla firmy. To była śmiała przygoda dla firmy spożywczej, która prowadzi herbaciarnie. Nowy komputer został nazwany Lyons Electronic Office lub LEO, a inżynier radaru o nazwisku John Pinkerton został zatrudniony do prowadzenia projektu i zaprojektowania komputera. Inżynier Lyons, Derek Hemy, byłby pierwszym programistą nowego komputera. Po ukończeniu w 1951 roku pierwszym zadaniem produkcyjnym komputera była wycena piekarni. Był również używany do obliczania płac, zarządzania zapasami i wprowadzania zamówień. Innymi słowy, LEO I od razu przydał się do obsługi codziennych operacji biznesowych szybciej i wydajniej niż można to zrobić ręcznie. LEO I był również pionierem w zakresie outsourcingu i obsługi biur serwisowych, ponieważ komputer był wkrótce używany na podstawie umowy do przetwarzania list płac dla Lord Motors w Wielkiej Brytanii. Inni klienci poszli za nim. Biura outsourcingowe i usługowe pojawiły się niemal natychmiast po pojawieniu się pierwszych komercyjnych komputerów cyfrowych. Zbudowano kilka ulepszeń zwanych LEO II, LEO III, LEO 360 i LEO 326. Były one szybsze i bardziej wydajne niż LEO I. Późniejsze komputery LEO posiadały wielozadaniowy system operacyjny, który mógł uruchamiać 12 programów jednocześnie. Niektóre komputery LEO działały jeszcze w 1981 roku, przetwarzając rachunki telefoniczne. W 1954 roku Lyons założył oddzielną firmę zajmującą się produkcją komputerów LEO, nazwaną LEO Computers Limited. Sama firma LEO połączyła się z English Electric Company w 1963 r. i po kilku kolejnych połączeniach stała się częścią firmy International Computers Limited (ICL) w 1968 r. Doświadczenie LEO pokazuje, że dalekowzroczni dyrektorzy biznesowi z Lyonu poprawnie zidentyfikowali komputery cyfrowe jako najlepsze rozwiązanie dla szerokiej gamy korporacyjnych działań finansowo-księgowych. Ich pionierska praca pomogła także innym firmom wejść w erę komputerów.

IBM

W 1953 roku wprowadzono IBM 701, który jest uważany za pierwszy udany komputer komercyjny, chociaż wyprodukowano tylko 19 komputerów. Był to jeden z pierwszych komputerów używanych przez Departament Obrony. (Obecnie Departament Obrony posiada więcej komputerów niż większość całych krajów). 701 był komputerem lampowym wykorzystującym taśmę magnetyczną do przechowywania danych. Służył do obliczeń naukowych i obronnych. IBM 701 wyzwolił pierwszą grupę użytkowników komputerów. W 1955 roku grupa klientów IBM z obszaru Los Angeles założyła stowarzyszenie użytkowników o nazwie SHARE, Inc. Stowarzyszenie to później przeniosło się do Chicago i stało się korporacją non-profit. Pomysł grup użytkowników komputerów i oprogramowania był korzystny zarówno dla klientów, jak i producentów. Członkowie SHARE wywarli wpływ na IBM w zakresie przyszłych funkcji i potrzeb. Członkowie SHARE pomagali sobie również w doradztwie technicznym, a nawet w tworzeniu programów i kodu źródłowego. Pomysł SHARE o grupach użytkowników klientów wkrótce doprowadziłby do powstania wielu innych podobnych grup powiązanych zarówno z IBM, jak i innymi dostawcami. W przypadku IBM zostaną utworzone asocjacje GUIDE i COMMON. W latach sześćdziesiątych XX wieku grupa DECUS została utworzona w celu wspierania klientów sprzętu cyfrowego. Powiązania użytkowników są obecnie wspólne dla wielu produktów sprzętowych i programowych. Większe stowarzyszenia, takie jak SHARE, mają pododdziały i oddziały regionalne w wielu miastach. Było kilka zmodernizowanych wersji rodziny 701, ale największym postępem technicznym był IBM 7090, który był pierwszym komputerem IBM z tranzystorami zamiast lamp. Ten komputer został ogłoszony w 1958 roku. Wśród jego interesujących funkcji był wczesny system operacyjny o nazwie IBSYS. To później przekształciło się w znacznie potężniejsze systemy operacyjne, które mogłyby utrzymywać zgodne działanie różnych komponentów sprzętowych. Jeden z pierwszych języków asemblera został stworzony dla IBM 701 przez Nata Rochestera. Inny ważny wynalazek pojawił się w 1953 roku, kiedy inżynierowie w ośrodku badawczym IBM w San Jose stworzyli pierwszy napęd dyskowy, który umożliwiał swobodny dostęp do danych zamiast sekwencyjnego dostępu, który normalnie był zapewniany przez napędy taśmowe. Pierwszym komercyjnym napędem dyskowym był IBM RAMAC 350 w 1956 roku. Bez napędów dysków i swobodnego dostępu do danych komputery miałyby bardzo ograniczoną funkcjonalność, a późniejsze technologie bazodanowe nie byłyby stosowane. W 1953 roku IBM wypuścił 650, który był skierowany bezpośrednio do klientów biznesowych (wcześniej 701 był przeznaczony dla klientów naukowych i obronnych). IBM 650 okazał się sukcesem rynkowym i od pierwszego wydania do 1963 roku sprzedano ponad 2000 egzemplarzy. IBM 650 był wyposażony w obracający się bęben magnetyczny jako pamięć. Programiści musieli być wrażliwi na prędkość obrotową bębna, aby zoptymalizować wydajność. Jeśli instrukcja odczytu pominęłaby część danych, następna okazja nie nastąpiłaby, dopóki dane nie obróciłyby się ponownie pod głowicą odczytującą. Była też niewielka ilość pamięci rdzenia magnetycznego, używana jako bufor między bębnem a jednostką przetwarzającą. Na początku IBM 650 wykorzystywał tylko karty dziurkowane do przechowywania zewnętrznego, ale później dodano napędy taśmowe. Dyski nie były używane w IBM 650. Po wynalezieniu RAMAC, dyski były dodawane do późniejszych wersji IBM 650. Jednym z powodów rynkowego sukcesu IBM 650 był fakt, że był on wstecznie kompatybilny z kartą dziurkowaną IBM maszyny liczące. Na przykład, wyjściowa talia kart z komputera IBM 650 mogłaby zostać wydrukowana na wcześniejszej maszynie księgowej IBM 402. Wczesne wersje IBM 650 były programowane w języku maszynowym. Ale w 1954 roku Stan Poley z IBM T. J. Watson Research Center dodał Symbolic Optimal Assembly Program (SOAP). Ostatecznie dla IBM 650 pojawiło się kilkanaście języków programowania, w tym FORTRAN w 1957 roku. Przed IBM 650 uniwersytety zbudowały pewną liczbę komputerów, ale były one używane tylko do ograniczonego zakresu badań naukowych i nie miały z nimi żadnego związku. do codziennych zadań uniwersyteckich. IBM 650 zapoczątkował trend wykorzystywania komputerów cyfrowych do akademickich działań biznesowych oraz narzędzi badawczych. Na przykład Columbia University będzie miał później około 200 użytkowników swoich komputerów IBM 650.

Inne implementacje komputerowe w biznesie

W latach pięćdziesiątych powstało wiele innych firm, które pomogłyby w rozbudowie komputerów i oprogramowania. Należały do nich Nixdorf w 1952 r., Burroughs w 1956 r., Digital Equipment Corporation (DEC) w 1957 r. i Control Data Corporation (CDC), również w 1957 r. Remington Rand przejął starszą firmę Eckert-Mauchly, a w 1951 r. zmieniła nazwę na Univac. Niektóre z tych samych wynalazków zaczęły trafiać do produktów konsumenckich. W 1954 roku Regency wprowadziła na rynek pierwsze radio tranzystorowe. Następnie w 1955 roku pojawił się bardziej znany Sony TR-55. W 1957 roku pojawił się Sony TR-63, pierwsze radio kieszonkowe (TR-55 był zbyt duży, aby nosić go w kieszeni). To radio Sony było pionierem w zakresie nowoczesnych osobistych urządzeń rozrywkowych i rozwinęło Sony w dużą globalną korporację. Pod koniec lat pięćdziesiątych XX wieku samoloty odrzutowe zostały dodane do flot komercyjnych linii lotniczych. Fakt ten, w połączeniu z rosnącą gospodarką, zwiększył ruch lotniczy o ponad 1000% między 1958 a 1977 rokiem. Przy tak dużym ruchu lotniczym latanie stało się niebezpieczne, ponieważ systemy kontroli ruchu lotniczego były prymitywne w latach pięćdziesiątych. W 1956 roku nad Wielkim Kanionem zderzyły się dwa samoloty i zginęło 128 osób. To skłoniło Kongres do przyjęcia Federalnej Ustawy o Lotnictwie w 1958 r., która stworzyła Federalną Administrację Lotnictwa (FAA) do nadzorowania kontroli ruchu lotniczego w całych Stanach Zjednoczonych. Komputery były używane eksperymentalnie do kontroli ruchu lotniczego pod koniec lat pięćdziesiątych, ale prawdziwy krajowy, skomputeryzowany system kontroli ruchu lotniczego pojawił się dopiero w latach siedemdziesiątych. Przypadkowo w 1953 roku prezes American Airlines C. R. Smith usiadł obok sprzedawcy IBM o nazwisku R. Blair Smith. Obaj rozmawiali o rezerwacjach lotniczych i IBM został zaproszony do odwiedzenia American Airlines i zaproponowania wspólnych działań. To przypadkowe spotkanie doprowadziło do wspólnego rozwoju systemu rezerwacji linii lotniczych SABRE. Rozpoczęto go w 1959 roku, ale ukończono go dopiero w 1964 roku. Po ukończeniu SABRE był największym dotychczas stworzonym systemem aplikacji. Artykuł w Computer World z 29 maja 2004 r. Donosił, że SABRE ma ponad 64 aplikacje zawierające łącznie około 13 000 000 linii kodu. Jest to mniej więcej odpowiednik nieco ponad 100 000 punktów funkcyjnych. Ostatecznie system SABRE miał być używany przez ponad 350 000 biur podróży, 400 linii lotniczych, 100 000 hoteli, 25 wypożyczalni samochodów, 50 linii kolejowych i 14 linii wycieczkowych. Rozwój i sukces SABRE ilustrują siłę komputerów i oprogramowania do wprowadzania ogromnych zmian w powszechnych praktykach biznesowych. Wadą komputeryzacji jest to, że prawdopodobnie ponad 100 000 pracowników biurowych w tych różnych firmach straciło pracę. Strata ta została częściowo zastąpiona przez dodanie, zwykle w tych samych firmach, około 30 000 oprogramowania i personelu centrum danych.

Aplikacje w latach 50

W latach pięćdziesiątych małe aplikacje były normą, częściowo z powodu trudności w kodowaniu dużych aplikacji w językach niskiego poziomu, takich jak asembler. W tym dziesięcioleciu nadal dominowały zastosowania naukowe i wojskowe. W pierwszej części tej ery języki asemblera i języki makrosemblera były normą. Pod koniec dekady języki wyższego poziomu, takie jak FORTRAN i COBOL, zaczęły wypierać wcześniejsze języki niskiego poziomu.

Punkty funkcyjne w 1955 roku

Punkty funkcyjne nie zostały wynalezione, więc wszystkie dane zostały zmierzone za pomocą linii kodu. Fałszowanie lub konwersja matematyczna z linii kodu (LOC) na punkty funkcyjne pokazują następujące wyniki dla projektu 1000 punktów funkcyjnych w tej dekadzie:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 320 000 instrukcji kodu logicznego
•  Język programowania: Podstawowy język asemblera
•  Procent ponownego wykorzystania: od 0% do 5%
•  Metodologia: nieustrukturyzowany rozwój kowboja
•  Wydajność: 3,5 punktu funkcyjnego na pracownika miesięcznie
•  Potencjały defektu: 7,00 na punkt funkcyjny
•  Skuteczność usuwania defektów (DRE): 80%
•  Dostarczone wady: 1,40 usterek na punkt funkcjonalny
•  Stosunek personelu programistycznego do utrzymania:
•  Rozwój: 95%
•  Konserwacja: 5%

Poniżej przedstawiono podstawowe dane za rok 1955:
•  Średni poziom języka: 1,5
•  Liczba języków programowania: 5
•  Instrukcje logiczne na punkt funkcyjny: 213
•  Średnia wielkość aplikacji: 200 punktów funkcyjnych
•  Średnia wielkość aplikacji: 42 600 instrukcji kodu logicznego

Ta dekada charakteryzowała się eksplozją intelektualnego podniecenia i wieloma kluczowymi wynalazkami, z których kilka otrzymało później Nagrody Nobla. Na początku tej dekady dyskretne układy elektroniczne i lampy próżniowe były dominującymi elementami komputerów i innych urządzeń elektronicznych. Pamięć komputera miała postać rtęciowych linii opóźniających lub lamp katodowych. Pamięć zewnętrzna to taśma papierowa lub karty. Pod koniec dekady tranzystory i układy scalone były na dobrej drodze do powszechnego zastosowania. Rdzenie magnetyczne zostały użyte jako pamięć wewnętrzna. Jako pamięć zewnętrzną wykorzystano taśmę magnetyczną i dyski magnetyczne. Połączenie tranzystorów, układów scalonych i pamięci masowej o dostępie swobodnym znajdowało się na krytycznej ścieżce prowadzącej do ogromnej ekspansji komputerów i oprogramowania w przyszłych dziesięcioleciach. Rzadko w historii tak wiele ważnych wynalazków dochodzi do skutku w tak krótkim czasie.

Podsumowanie

Na początku lat pięćdziesiątych komputery były budowane ręcznie, a każdy z nich wykorzystywał tysiące lamp próżniowych. Te zbudowane na zamówienie wczesne komputery były używane głównie do obliczeń wojskowych i matematycznych. Pod koniec dekady komputery stały się produktami komercyjnymi zarówno dla wojska, jak i przedsiębiorstw, i były produkowane przy użyciu tranzystorów i układów scalonych. Programowanie tych komercyjnych komputerów było łatwiejsze dzięki wczesnym językom wysokiego poziomu, takim jak COBOL, FORTRAN i LISP. Zawód programisty komputerowego zaczynał rosnącą trajektorię, która wkrótce uczyni z niej jedno z najszybciej rozwijających się zawodów w historii.


Powrót

1960-1969: Rozwój komputerów biznesowych i oprogramowania biznesowego



W 1960 roku patent IBM na paski magnetyczne zapoczątkował tworzenie kart kredytowych American Express, Visa i MasterCard, które zrewolucjonizowały sprzedaż detaliczną. Pasek magnetyczny doprowadził również do bankomatów (bankomatów) i elektrycznych zamków do drzwi. Aby sprostać rosnącemu zapotrzebowaniu na nowe komputery biznesowe i oprogramowanie, firmy takie jak IBM, RCA, GE, Control Data i wiele innych wprowadziły na rynek nowe komputery przeznaczone specjalnie do operacji biznesowych. Technologia baz danych również szybko się rozwinęła. Te zmiany techniczne spowodowały ogromny wzrost zapotrzebowania na personel programistyczny. Dwa główne procesy sądowe, które zostały wniesione w latach sześćdziesiątych XX wieku, na zawsze zmieniły branżę komputerów i oprogramowania: Sprawa patentowa zdecydowała, że patent ENIAC jest nieważny, przenosząc architekturę komputera do domeny publicznej. Umowa IBM na uwolnienie oprogramowania w wyniku pozwu antymonopolowego otworzyła wrota do powstania ogromnej branży oprogramowania komercyjnego, która nie byłaby możliwa, gdyby oprogramowanie pozostało powiązane ze sprzętem komputerowym. W tej dekadzie komputery pojawią się na Wall Street i na zawsze zmieni giełdę i rynki finansowe, ale nie zawsze w zdrowy sposób. Program Apollo zabrał komputery i oprogramowanie w kosmos i na Księżyc. Pierwsza nagroda Turinga została przyznana w 1966 roku.

Ewoluująca siła robocza

Po drugiej wojnie światowej środowisko biznesowe w USA zaczęło ewoluować od produkcji do usług. To z kolei doprowadziło do szybkiego wzrostu liczby personelu biurowego. Według Early Office Museum (www.officemuseum.com), liczba pracowników biurowych w USA wzrosła o 286%, podczas gdy cała branża pracowników zawodowych, w tym pracowników biurowych, wzrosła tylko o 85% w latach po II wojnie światowej. Na początku lat sześćdziesiątych praca biurowa była dominującą formą zatrudnienia w wielu rozwijających się i ważnych branżach, w tym w bankach, ubezpieczeniach, handlu akcjami i cywilnych działaniach rządowych. Znaczna część personelu wojskowego wykonywała również prace biurowe. Komputery i oprogramowanie nie wyeliminowały pracy biurowej, jak pierwotnie zakładano, ale zmieniły charakter tej pracy. Na przykład wielu urzędników obsługujących dokumentację medyczną przekształciło się w personel komputerowego wprowadzania danych. Urzędnicy obsługujący rachunki medyczne zaczęli używać komputerów do śledzenia rachunków. Zamiast zanikać, stanowiska urzędnicze pochłonęły korzystanie z komputerów i oprogramowania. W latach sześćdziesiątych XX wieku nastąpiło pewne zmniejszenie liczby pracowników biurowych, ale jednocześnie nastąpił wzrost liczby pracowników komputerowych i oprogramowania. W rzeczywistości duże centra danych i zespoły programistyczne zmieniły operacje bankowe i ubezpieczeniowe z czysto ręcznych na prawie w pełni zautomatyzowane. Jako przykład niezwykłego rozwoju oprogramowania w tej dekadzie weźmiemy pod uwagę miasto Hartford w stanie Connecticut i okoliczne miasta. Z różnych powodów (w tym korzystnych podatków) obszar metropolitalny Hartford był siedzibą wielu głównych firm ubezpieczeniowych, w tym Aetna Insurance, Cigna Insurance, Artford Insurance, Mass Mutual Insurance, Phoenix Insurance, Travellers Insurance i innych. Na początku lat sześćdziesiątych większość tych korporacji w dużej branży dopiero zaczynała używać komputerów i oprogramowania. Jednak już wkrótce wszystkie te firmy ubezpieczeniowe będą miały centra danych i organizacje zajmujące się oprogramowaniem, z których każda zatrudnia średnio około 1000 pracowników, a Hartford będzie miał ponad 50 000 pracowników zajmujących się oprogramowaniem. Hartford jest być może wyjątkowe ze względu na dużą koncentrację firm ubezpieczeniowych, ale wszystkie duże firmy, które polegały na pracy biurowej, doświadczały szybkiego rozwoju oprogramowania i przetwarzania danych. Każdy większy bank w Ameryce, każda firma ubezpieczeniowa i każdy dom maklerski budował centra danych i rekrutował personel programistyczny. Największa z tych firm zatrudniłaby w końcu ponad 3000 inżynierów oprogramowania i personelu komputerowego, a nawet mniejsze firmy zatrudniałyby po 250. Rozwój branży komputerowej i oprogramowania w tej dekadzie był niezwykły. Szybko rozwijał się przemysł samochodowy, naftowy, telekomunikacyjny i lotniczy. Jednak te inne szybko rozwijające się branże potrzebowały komputerów i personelu programistycznego, więc ich szybki rozwój przyczynił się również do wzrostu branży oprogramowania. Ostatecznie każdy producent samochodów, duża firma naftowa, firma telekomunikacyjna i producent samolotów zatrudniłby co najmniej 1000, a czasem nawet 10 000 pracowników oprogramowania i komputerów. Firmy takie jak AT&T, ITT, GTE i Motorola w Stanach Zjednoczonych oraz Siemens, Nippon Telephone i Nokia za granicą nie tylko używałyby komputerów i zatrudniałyby tysiące pracowników oprogramowania, ale także tworzyłyby nowe i innowacyjne rodzaje oprogramowania oraz skomputeryzowany sprzęt telekomunikacyjny. W tym dziesięcioleciu pojawiło się przełączanie pakietów, modulacja kodu impulsowego, binarna komunikacja synchroniczna (BSC) oraz wynalezienie rozszerzonego kodu binarnego kodowanego dziesiętnego kodu IBM (EBCDIC) oraz amerykańskiego standardowego kodu wymiany informacji (ASCII). Doprowadziło to do szybkiego cyfrowego przełączania telekomunikacyjnego i, oczywiście, zwiększenia liczby personelu programistycznego dla przemysłu telekomunikacyjnego. Pojawienie się kart kredytowych, kart debetowych i bankomatów na początku lat sześćdziesiątych XX wieku nie byłoby możliwe przy użyciu tylko fizycznych pracowników biurowych. Komputery i oprogramowanie były niezbędnym uzupełnieniem tych poważnych zmian, ponieważ zarówno transakcje kartami kredytowymi, jak i transakcje bankomatowe wymagają przetwarzania w czasie rzeczywistym, a wyniki są potrzebne w ciągu zaledwie kilku sekund. Połączenie kart kredytowych i bankomatów spowodowało zatrudnienie około 100 000 nowych pracowników zajmujących się komputerami i oprogramowaniem w całym kraju do obsługi zwiększonych możliwości przetwarzania danych przez te nowe narzędzia finansowe.

Wczesny wyspecjalizowany outsourcing

Same komputery nie wystarczą do obsługi dużych zbiorów rekordów i danych. W latach sześćdziesiątych XX wieku pojawiła się technologia baz danych i pojawiły się komercyjne systemy zarządzania bazami danych (DBMS). Wczesne systemy DBMS były sekwencyjnymi i obsługiwanymi plikami ze strukturami pól o stałej długości. W przyszłych dziesięcioleciach relacyjne bazy danych zostaną dodane do tej mieszanki. Po raz pierwszy pojawił się system zarządzania informacjami IBM (IMS); był używany na statku kosmicznym Apollo, a także stał się udaną aplikacją komercyjną. Ponieważ rozwój komputerów i oprogramowania nie jest główną misją biznesową banków, firm ubezpieczeniowych i wielu innych branż, szybki rozwój oprogramowania i komputerów był mieszanym błogosławieństwem. Firmy potrzebowały komputerów i oprogramowania do konkurowania, ale mogły, ale nie muszą, być bardzo wydajne i skuteczne w prowadzeniu własnych organizacji programistycznych, co wymagało umiejętności biznesowych daleko odbiegających od ich tradycyjnego zainteresowania. Tak więc szybki rozwój komputeryzacji i oprogramowania wkrótce stworzyłby kolejną nową branżę wyspecjalizowanych firm, które dostarczały oprogramowanie i moc komputerową firmom, które potrzebowały tych nowoczesnych możliwości, ale nie chciały ich obsługiwać. Jednym z archetypów tych nowych wyspecjalizowanych firm "outsourcingowych" była firma Electronic Data Systems (EDS), założona w 1962 roku przez słynnego przedsiębiorcę H. Rossa Perota (który w 1992 roku był kandydatem na prezydenta USA). Inną rozwijającą się branżą, która wynikała z rozwoju komputerów i oprogramowania, było doradztwo w zakresie zarządzania. Kilka dużych firm księgowych utworzyło jednostki biznesowe zajmujące się konsultingiem w zakresie oprogramowania. Jednym z pionierów była firma finansowo-księgowa Arthura J. Andersena. Część konsultingowa tej firmy stoczyła zaciekłą rywalizację z częścią księgową i ostatecznie oddzieliła się i stała się nowoczesną grupą konsultingową i outsourcingową Accenture. Wiele innych firm weszło na arenę doradztwa w zarządzaniu w tej dekadzie. Wśród nich była Boston Consulting Group (BCG), założona w 1963 roku. Rozwój komputerów i oprogramowania nie tylko miał bezpośredni wpływ na operacje biznesowe w USA i na świecie, ale te narzędzia stworzyły również firmy pomocnicze w obszarach wyspecjalizowanych firm konsultingowych i outsourcingowych.

Programiści komputerowi w latach 60

Młodzi inżynierowie oprogramowania będą prawdopodobnie zaskoczeni, a może nawet przerażeni nieformalnym procesem selekcji programistów komputerowych w latach sześćdziesiątych. Zostać programistą W kampusie w latach 1956-1961 nie było komputerów. W rzeczywistości szkoła inżynierska dopiero zaczynała zezwalać na używanie elektronicznych kalkulatorów zamiast suwaków podczas egzaminów. Posiadanie suwaka logarytmicznego przymocowanego do paska było znakiem rozpoznawczym studenta inżynierii w latach pięćdziesiątych. University of Florida nie miał w tamtych czasach żadnych kursów informatyki ani inżynierii oprogramowania, chociaż niektóre szkoły inżynierskie, takie jak Cal Tech i MIT, miały. W tamtych czasach brakowało rzeczywiście przeszkolonych programistów, więc metodą stosowaną było znalezienie osób, , które były zaznajomione z działalnością publicznej służby zdrowia, a następnie wysłanie ich do szkół programowania. Proces selekcji obejmował interesujący i zaprojektowany test umiejętności, aby sprawdzić, czy kandydaci są kwalifikowani. Były kombinacje logicznych pytań, a niektóre z odrobiną matematyki. Ten test został nazwany testem umiejętności programowania (PAT) i został opracowany przez IBM. Ukończenie zajęło około godziny. Po zdaniu testu umiejętności i zatrudnieniu jako programista wysłano do lokalnej szkoły IBM w Waszyngtonie, gdzie uczono programowania IBM 1401 przy użyciu języka zwanego Autocoder. W latach sześćdziesiątych programowania nie nauczano zwykle na uniwersytetach i nigdy w liceum. Konieczne było chodzenie do prywatnych szkół prowadzonych przez firmy budujące komputery, takie jak IBM, RCA, GE, Digital Equipment Corporation i tym podobne. Instruktorzy byli prawdziwymi programistami, a ich wiedza była praktyczna i przyziemna. Było mało teorii, a dużo praktycznych informacji. Ponieważ na uniwersytecie było niewiele programów informatycznych, większość programistów w tamtych czasach miała inne kierunki. W mojej pierwszej grupie programistycznej jeden z najlepszych programistów był absolwentem historii. Było kilka kierunków matematycznych, a także kierunki muzyczne i kierunki angielskie. Łatwość z muzyką i łatwość w przepływie słów są zgodne z programowaniem, ponieważ wszystkie trzy umiejętności obejmują wizualizację i wyrażanie sekwencji logicznych. Jedna osoba w grupie miała tylko wykształcenie średnie, ale okazała się dobrym programistą. Grupa nie miała specjalizacji inżynierskich, ponieważ miała za zadanie tworzenie aplikacji biznesowych, a nie oprogramowania naukowego lub inżynieryjnego. Kiedy młody programista nauczył się początkowego języka programowania, dość łatwo było uczyć się nowych języków poprzez samokształcenie. Później programowano w języku COBOL, PL / I i różnych dialektach języka BASIC, po prostu chwytając podręczniki językowe i ucząc się składni i słów kluczowych. Zdolność do wizualizacji wzorców jest kluczem do pomyślnego programowania. Składnia różnych języków programowania to drobny problem, który waha się od irytującego do umiarkowanie pomocnego. Aplikacje, które opracowywali, były przeznaczone dla National Institutes of Health (NIH) i musieliśmy prowadzić rejestr sprzętu i personelu. Jednak pierwszym programem było przekodowanie wcześniejszej aplikacji, która została napisana dla komputera IBM 650, który został wycofany z eksploatacji, gdy pojawił się IBM 1401s. Najwyraźniej szefowi wydziału, który prowadził program, nie przyszło do głowy, że programy IBM 650 nie będą działać na IBM 1401. IBM 1401, który miał mój wydział publicznej służby zdrowia, miał tylko 4 K pamięci (mniej niż nowoczesny zegarek). Aby opracować niektóre z większych aplikacji, musieli przejść kilka przecznic dalej i użyć 8-K 1401, który został zakupiony przez Internal Revenue Service (IRS) W latach sześćdziesiątych zabezpieczenia komputerowe były dość przypadkowe i nie mieliśmy żadnych problemów z pożyczeniem czasu na IRS IBM 1401. Oczywiście, obecnie komputery IRS są silnie strzeżone, a personel IRS jest dokładnie sprawdzany. We wczesnych latach sześćdziesiątych hakowanie, kradzież tożsamości i ataki typu "odmowa usługi" były nadal niespotykane. Sale komputerowe w tamtych czasach były oznaką technicznego wyrafinowania, a wiele organizacji nadal dumnie wystawiało swoje komputery w pokojach o szklanych ścianach, które były widoczne z ulicy, aby przechodnie wiedzieli, że organizacja jest nowoczesna. Opracowano nasze programy na arkuszach papieru w linie, na których zostały wydrukowane numery wierszy; następnie umieszczono je na kartach IBM 80-kolumnowych na karcie perforowanej IBM 026. Było to przed czasami w pełni obsadzonych centrów danych, więc często musiano samemu ładować i uruchamiać programy, jeśli operator konsoli był zajęty. Ta dekada była archetypem terminu "programowanie kowbojów". Pracowano przed zdefiniowaniem programowania strukturalnego, a większość nauczyła się programowania zaledwie kilka miesięcy wcześniej. W tej erze nowi programiści pracujący nad nowymi aplikacjami byli dość powszechni. Chociaż IBM i inne grupy tworzyły duże aplikacje, większość obsługiwanych projektów była niewielka i wykonywana przez pojedynczych programistów. Największą aplikacją było około 500 linii Autocodera lub 50 punktów funkcyjnych. W branży prywatnej, miano większe systemy. Nie było przeszkolonych grup testowych ani formalnych zespołów zapewniania jakości. Nawet inspekcje i wzajemne oceny dopiero się zaczynały i były wykorzystywane głównie w większych projektach zespołowych, a nie mniejszych, jednoosobowych projektach. Ponieważ komputery IBM 1401 były używane do rzeczywistych zastosowań w publicznej służbie zdrowia w ciągu dnia, czas dostępny na testy był zwykle późny w nocy. Biura programistyczne i sale komputerowe w latach sześćdziesiątych XX wieku były dość ruchliwe o północy i później. Ze względu na brak dogodnych czasów testowania wszyscy programiści w tej erze stali się biegli w sprawdzaniu dokumentów. To był wczesny i ręczny prekursor analizy statycznej. Przejrzglądano listy programów i sprawdziliśmy dokładność wszystkich algorytmów oraz strukturę rozgałęzień, aby upewnić się, że nasz kod trafił we właściwe miejsce w każdej gałęzi. Chociaż języki interpretowane, takie jak BASIC, staną się dostępne w tej dekadzie, większość języków używanych w zastosowaniach komercyjnych i rządowych musiała zostać skompilowana. Oznacza to, że testy musiały zostać poprzedzoneprzez kompilację i obie czynności były zwykle przeprowadzane późno w nocy. Zgłoszenie błędnego programu do kompilacji zwykle oznaczało co najmniej jeden zmarnowany dzień, ponieważ czas komputera na nową kompilację był dostępny dopiero następnego wieczoru. Jest oczywiste, dlaczego staranne sprawdzanie danych przed kompilacją i testowaniem było pierwszą linią obrony przed błędami. W dzisiejszym świecie ogromna pojemność komputera jest dostępna dla wszystkich programistów 24 godziny na dobę, 365 dni w roku. W latach sześćdziesiątych sytuacja była inna. Programiści musieli ustawiać się w kolejce do dostępnych przedziałów czasowych komputera, a czasami programiści mogli mieć tylko 15 do 30 minut dziennie na kompilację i testowanie. Talie na karty były przenoszone na specjalnych tacach, a przy dużych programach mogły być dość ciężkie. Biada programiście, który upuścił tacę i wyciągnął talię poza kolejność lub zgiął karty. Jeśli karty zostały wygięte lub wypaczone i spuchnięte od rozlanej wody lub kawy, czasami jedyną opcją było ponowne uruchomienie talii. Dane wyjściowe z naszych programów zostały wydrukowane na drukarce IBM 1403, która, o ile pamiętam, była drukarką łańcuchową, która była dość hałaśliwa. Wirujące łańcuchy miały na sobie znaki, a młotek przebijał go przez papier w odpowiednim momencie. Był szybki i drukowany w tempie około 600 linii tekstu na minutę. Te drukarki miały zaskakująco wyraźny i przyjemny krój pisma i twarze. W rzeczywistości style pisma były znacznie lepsze niż późniejsze drukarki igłowe. Dopiero gdy pojawiły się drukarki laserowe i atramentowe, IBM 1403 prześcignął elegancję typograficzną. Program mógł mieć błąd, który powodował, że drukarka zasysała papier, ale nie drukowała, więc czasami dziesiątki lub setki arkuszy wyrzucały z górnej części drukarki, zanim można było ją zatrzymać. Podczas przetwarzania pustych linii IBM 1403 mógł zasysać papier z prędkością około 75 cali na sekundę, więc program z błędem w swojej procedurze drukowania mógł z łatwością przejść przez ponad 100 metrów liniowych papieru, zanim będzie można go zamknąć. Pamiętam, jak czysty papier przemieszczał się przez drukarkę IBM 1403 tak szybko, że wystrzelił trzy lub cztery stopy w powietrze. Drukarka IBM 1403 wymagała również dość poważnej konserwacji, która obejmowała smarowanie ruchomych części. W rezultacie obszar pod drukarką musiał mieć pod nią papierowe ręczniki lub maty z powodu sporadycznych wycieków oleju. Papier do drukarek mainframe IBM w tamtych czasach nie był pojedynczymi arkuszami, ale raczej ciągłymi formularzami z perforacjami. Były to duże arkusze ze 132 pozycjami drukowania. Lewa i prawa krawędź miały oddzielną perforowaną taśmę z otworami, które umożliwiały prowadnicom perforacyjnym podawanie papieru przez drukarkę. Papier do drukarki był dostarczany w dużych pudełkach, a papier był podawany do drukarki bezpośrednio z samego pudełka. Te pudełka z papierem były ciężkie i zwykle przewożono je na wózkach kołowych. Te drukarki były tak szybkie i zużywały tyle papieru, że porządek w sali komputerowej był niemożliwy. Wszystkie sale komputerowe IBM 1401 miały pudełka z papierem gotowe do załadowania przed drukarkami i puste pudełka gotowe do zbierania wydruków z tyłu drukarek. Przechowywanie papieru było problemem logistycznym tej epoki i konieczne było wydzielenie pomieszczeń tylko na papier i karty perforowane. Pomieszczenia te wymagały klimatyzacji, ponieważ wilgoć mogłaby rozszerzyć papier i spowodować problemy mechaniczne z drukarkami i czytnikami kart. Wysokie zapotrzebowanie na programistów w dzisiejszym świecie wielu programistów i inżynierów oprogramowania przeżyło krach dot-comów w latach 2000 i 2001 oraz recesję w latach 2008-2010. Chociaż inżynieria oprogramowania radziła sobie lepiej niż niektóre branże, nadal trudno jest znaleźć pracę , nawet dla wykwalifikowanego personelu programistycznego. Jeśli we wczesnych latach sześćdziesiątych byłeś kompetentnym programistą, mogłeś właściwie wybierać firmy i lokalizacje, ponieważ wszyscy zatrudniali tak szybko, jak tylko mogli. Może to zabrzmieć trochę na przesadę, ale pamiętam kilka razy, gdy widziałem dwupłatowce przelatujące nisko nad głównymi autostradami i wiszące banery z napisem: "Programiści - zadzwoń pod ten numer: 123-4567". W Kalifornii pamiętam również samoloty skywriter latające nad publicznymi plażami i reklamy programistów z strumieniami dymu, które wytwarzały litery ponad 100 stóp wysokości. Zwykle dwupłatowce z transparentami latały nad głównymi drogami w godzinach szczytu biznesowego w dni powszednie. Skywriterzy latali w weekendy nad plażami i terenami rekreacyjnymi. Podejrzewam, że branża oprogramowania nigdy więcej nie zobaczy tych dni. W tych wczesnych dniach programowania wyspecjalizowane agencje zatrudnienia lub "łowcy głów" zaczęły wspierać rozwijający się biznes oprogramowania. Programiści nie płacili żadnych opłat za korzystanie z ich usług, ponieważ wszystkie koszty pokrywały firmy, które zatrudniały. Kiedy skontaktowałeś się z jednym z tych łowców głów i opisałeś swoje kwalifikacje, zwykle następnym krokiem było wybranie głównej firmy, do której chcesz dołączyć, i preferowanej części kraju. Chociaż nie wiem, czy ktokolwiek próbował to zrobić, programiści w tamtych czasach mogli prawdopodobnie odbyć wycieczki do co najmniej kilkunastu firm w kilkunastu stanach, zanim zaakceptują ofertę. W tamtych czasach programiści dzielili dużą otwartą przestrzeń biurową z kilkunastoma biurek dla kilkunastu programistów. Telefony biurowe miały podstawowy numer działu i numer wewnętrzny dla każdego biurka. Było tak wiele miejsc pracy dla programistów, że head hunter oferował każdemu, kto odbierze telefon, opłacony (i potwierdzony) wyjazd na rozmowę kwalifikacyjną do prawie każdego miasta w Ameryce. Head hunter nie dzwonił do konkretnych osób po imieniu, tylko do biura programowania w nadziei, że przyciągnie innych programistów. Te wczesne dni inżynierii oprogramowania były ekscytujące i zabawne z perspektywy czasu. Zawody związane z programowaniem i oprogramowaniem rosły tak szybko, że w ciągu niecałego roku działy oprogramowania podwoiły się. Dostępnych było tak wiele miejsc pracy, a rotacja była szybka. Programiści mogliby łatwo uzyskać 15% wzrost pensji po prostu zmieniając pracę. Okres zatrudnienia często nie przekraczał roku. Niektórzy programiści pracowali dla pół tuzina firm w pierwszych pięciu latach od nauki programowania. Większość prac programistycznych była dobrze płatna i miała również świadczenia medyczne i plany emerytalne, a niektóre miały również opcje na akcje. Inną drobną korzyścią z tamtych wczesnych dni było to, że programiści mogli jeść w jadalniach kierownictwa zamiast w stołówkach dla pracowników, jeśli chcieli. Niektóre firmy miały inne korzyści, takie jak członkostwo w gimnazjum. Inne korzyści mogą zaskoczyć współczesnych inżynierów oprogramowania. Nawet początkujący programiści musieli pokrywać koszty przeprowadzki, jeśli musieli przenieść się z innej lokalizacji. W przypadku doświadczonego personelu wykonującego drugą lub trzecią pracę te koszty przeprowadzki obejmowały również opłaty za pośrednictwo w sprzedaży domów, transport mebli do nowej lokalizacji (w tym samochodów) oraz umieszczenie w mieszkaniu służbowym lub hotelu na może miesiąc po przybyciu do nowe miejsce pracy. W rzeczywistości niektóre firmy kupowałyby nawet stare domy programistów, więc pracownicy nie musieli zawracać sobie głowy transakcjami dotyczącymi nieruchomości przed podjęciem nowej pracy. Po zakupie nowego domu wszystkie opłaty za włączenie mediów byłyby pokrywane przez firmę. Niektóre firmy wypłaciły programistom dodatek "wyrównawczy" na wydatki, takie jak nowe zasłony lub pomalowanie nowego domu. Aby płatności te nie były zaliczane do dochodu podlegającego opodatkowaniu, były one księgowane jako pożyczki dla pracowników, ale miały zerowe stopy procentowe i nigdy nie musiały być spłacane. Z perspektywy czasu zaskakujące jest, że IRS nie próbował opodatkować niektórych z tych korzyści, ponieważ ich łączna wartość mogła przekroczyć 100 000 USD. Jednak z jakiegoś powodu firmy w latach 60. miały przywileje dla programistów, które nie podlegały opodatkowaniu. W tamtych czasach nastawienie programistów było takie, że firmy bardziej potrzebują programistów, niż programiści firm. Fajnie było być częścią tej ery szybkiego rozwoju i nowatorskich zastosowań. Prawie każda aplikacja projektowana w latach sześćdziesiątych była nowa, unikalna i prawdopodobnie nigdy wcześniej nie została stworzona. W dzisiejszym świecie prawie 90% nowych aplikacji to zamienniki starzejących się starszych pakietów oprogramowania. We wczesnych latach sześćdziesiątych istniało tylko kilka starszych aplikacji napisanych dla wcześniejszych komputerów IBM 650 i IBM 701. Nawet te nie były bardzo stare i były przeprogramowywane tylko dlatego, że nie działały na nowszych komputerach, takich jak IBM 1401 i IBM 1410. Ostatecznie specjaliści tacy jak analitycy systemowi i analitycy biznesowi zajmowali się większością interakcji z klientami, ale w bardzo wcześnie programiści musieli nie tylko zajmować się czystym kodowaniem, ale także musieli radzić sobie z wymaganiami, architekturą, projektowaniem, kodowaniem, debugowaniem i testowaniem. Niektórzy programiści przeprowadzili również konserwację po wydaniu, ponieważ oddzielne zespoły zmian i grupy konserwacyjne wciąż były w przyszłości. Nawet obsługa klienta i odbieranie telefonów od użytkowników były obowiązkami, z którymi programiści musieli się uporać w latach sześćdziesiątych. Obecnie ponad 115 różnych grup zawodowych jest powiązanych z dużymi organizacjami zajmującymi się oprogramowaniem. We wczesnych latach sześćdziesiątych zróżnicowanie było bardzo małe i wszyscy byliśmy specjalistami, którzy robili wszystko, co było potrzebne. Pojawienie się inżyniera oprogramowania Wyrażenie "inżynieria oprogramowania" nie zyskało wówczas popularności ani nie było szczególnie odpowiednie, biorąc pod uwagę stosowane wówczas metody tworzenia ad hoc. Edsger Dijkstra opublikował swój słynny artykuł "Notes on Structured Programming" dopiero w 1965 roku. Nazywaliśmy się "programistami komputerowymi", a nie inżynierami oprogramowania. Musieliśmy używać zarówno "komputera", jak i "programisty", aby uniknąć nieporozumień z programistami radiowymi i telewizyjnymi. (Pamiętam, jak przyjaciele moich rodziców pytali, dla jakiej stacji radiowej pracowałem, kiedy dowiedzieli się, że jestem programistą). Termin "oprogramowanie" był tak nowy dla ogółu społeczeństwa, że niektórzy myśleli, że odnosi się do małych styropianowych orzeszków ziemnych, które były używane do pakowanie wokół delikatnych elementów elektronicznych. Chociaż "oprogramowanie" zostało zdefiniowane w 1958 r., pierwsze zauważalne użycie wyrażenia "inżynieria oprogramowania" nastąpiło dopiero na konferencji NATO w Garmisch w Niemczech w dniach 7-11 października 1968 r. Konferencja nosiła tytuł "Inżynieria oprogramowania" i przewodniczącym konferencji był dr. FL Bauer. Co ważniejsze, notatki z konferencji zostały zredagowane przez Petera Naura i Briana Randalla, a kiedy zostały opublikowane w styczniu 1969 r., Pilna potrzeba przejścia od metod ad hoc do bardziej naukowych metod tworzenia oprogramowania zaczęła się szeroko rozprzestrzeniać. Żaden z programistów z mojej grupy w publicznej służbie zdrowia nie mógł zostać zatrudniony w dzisiejszym świecie. Żaden z nas nie miał stopnia naukowego z informatyki ani inżynierii oprogramowania (uniwersytety dopiero zaczynały oferować studia z zakresu inżynierii komputerowej), a nikt z nas nawet nie wiedział, jak programować, kiedy zostaliśmy zatrudnieni jako programiści. Naszym głównym atutem była tylko praktyczna wiedza o tym, jak działa publiczna służba zdrowia i nasza zdolność do zdania dość prostego testu umiejętności. Ten niezwykły okres rozpoczął się około 1950 roku i trwał do około 1970 roku. Przed 1950 roku było bardzo niewielu profesjonalnych programistów. Po latach sześćdziesiątych XX wieku absolwenci informatyki i inżynierii oprogramowania zaczęli pojawiać się na rynku pracy w wystarczającej liczbie, tak że kierunki sztuk wyzwolonych nie były już aktywnie rekrutowane. Z perspektywy czasu, zakres wiedzy, którą absolwenci sztuk wyzwolonych, muzycy i pisarze wnieśli do oprogramowania, często tworzył eleganckie i wydajne programy. Kontynuując działania tych programistów od wczesnych lat 60., niektórzy odeszli od oprogramowania, a niektórzy pozostali przy programowaniu i zostali głównymi programistami. Niektórzy weszli do kierownictwa, a nawet zostali menedżerami oprogramowania. Niektórzy zostali przedsiębiorcami i założyli firmy produkujące oprogramowanie. Silne doświadczenie w inżynierii oprogramowania zdecydowanie ułatwia pracę przez mniej więcej pierwszy rok. Potem ważniejsze stają się doświadczenia zawodowe. Po prawdopodobnie kilkunastu udanych projektach oprogramowania, akademickie referencje nie są już głównymi czynnikami związanymi z karierą. To samo dotyczy innych dziedzin. Solidne wykształcenie jest z pewnością kluczowe dla chirurga wykonującego kilka pierwszych operacji. Po około 100 operacjach wiedza na stanowisku pracy wzbogaca wiedzę akademicką. Zawód programowania komputerowego wzrósł z kilku tysięcy na początku dekady do prawie miliona na końcu. Bardzo niewiele zawodów w historii ludzkości rozwinęło się tak szybko.

IBM System / 360 Seria IBM 1400 pojawiła się w 1960 roku i miała dobrą passę przez około 10 lat. Jednak w kwietniu 1964 roku IBM ogłosił większy i mocniejszy IBM System / 360 (S / 360), który stał się głównym komputerem amerykańskiego przemysłu po walce z innymi dostawcami o dominację. Architektem sprzętu dla S/360 był Gene Amdahl (który później założył konkurencyjną firmę komputerową). Oprogramowaniem zarządzał Fred Brooks, którego doświadczenia zostały uwiecznione w jednej z najsłynniejszych książek komputerowych, jakie kiedykolwiek napisano, The Mythical Man-Month. Thomas J. Watson, Jr., był prezesem IBM i siłą napędową S / 360. Wprowadzeniem marketingowym zajął się John Opel. John został później prezesem, dyrektorem generalnym i prezesem IBM, a sam był wizjonerem.

Uwaga: John Opel zasiadał w zarządzie wraz z Mary Maxwell Gates, która była odnoszącą sukcesy bizneswoman i matką Billa Gatesa. John Opel i Mary Gates byli w zarządzie organizacji charytatywnej United Way. To właśnie związek między Johnem i Mary doprowadził do zainteresowania Johna Opla Microsoftem jako firmą, która może być w stanie zbudować system operacyjny dla komputerów osobistych IBM w przyszłej dekadzie.

Architektura IBM S/360 miała cechy, które były wówczas niezwykłe, ale okazała się kluczem do dalekosiężnego sukcesu zarówno IBM, jak i systemu komputerowego S / 360. Jedną z nowatorskich cech było to, że S / 360 nie został zaprojektowany jako pojedynczy komputer, ale jako rodzina powiązanych komputerów, które zaczęły się od dość małych i dość tanich ale może być rozszerzany pod względem mocy i pojemności, gdy zajdzie taka potrzeba. Oznaczało to, że firmy mogły zacząć od wersji low-end, takich jak IBM System / 360 model 20 lub 30, a następnie przejść na większe i szybsze wersje. Wszystkie większe jednostki S / 360 były wstecznie kompatybilne z mniejszymi jednostkami, więc mogły uruchamiać te same aplikacje bez żadnych zmian. Oryginalna seria komputerów IBM System / 360 obejmowała modele 20, 30, 40, 50, 60, 62 i 70. Modele low-end do 30 zostały zaprojektowane w celu zastąpienia serii IBM 1401 i zawierały emulatory, które umożliwiały IBM 1401 do pracy bez przeprogramowania. Modele 65 i 75 zostały później dodane do wyższej półki, podobnie jak jeszcze wyższe modele 85 i 95. Było też kilka specjalnych modeli przeznaczonych do zastosowań wojskowych lub naukowych, takich jak model 44 do obliczeń naukowych. Modelibyło tak wiele, że ciężko było je śledzić. Z perspektywy czasu ta koncepcja rodziny komputerów okazała się genialną strategią biznesową. Zmieniła komputerowy model biznesowy z jednorazowego leasingu lub zakupu na długoterminowe, cykliczne przychody. Klienci mogli zacząć od niskiego zakresu i rozszerzać się w razie potrzeby bez kosztownego przeprogramowania lub nawet znacznej straty czasu podczas przejścia. To właśnie S / 360 doprowadził do aforyzmu, że "nikt nigdy nie został zwolniony za wybór komputerów IBM". S / 360 doprowadził do wieloletnich, wieloproduktowych umów, które sprawiły, że niektóre firmy stały się klientami IBM przez ponad 40 lat. Ten rodzaj lojalności wobec marki był niespotykany przed S / 360 i pozostaje przedmiotem zazdrości prawie każdej innej firmy na świecie. Konkurenci i niektórzy guru oprogramowania krytykowali system operacyjny jako mniej wyrafinowany od innych, a także uważano, że sprzęt powinien zostać ulepszony. Mimo to S / 360 był najbardziej udaną linią komputerową w historii i jednym z najbardziej udanych produktów wszelkiego rodzaju pod względem lojalności wobec marki i stałych przychodów. Jeden z inżynierów S / 360, Gene Amdahl, opuścił IBM, aby założyć konkurencyjną firmę Amdahl, aby konkurować z System / 360. Linia komputerów Amdahl była kompatybilna z S / 360 i mogła obsługiwać to samo oprogramowanie. Ale komputery Amdahl miały zalety, ponieważ były tańsze. Oni też mieli kilka innowacyjnych cech technicznych, takich jak chipy chłodzone powietrzem, które nie wymagały drogich systemów chłodzenia wodą lodową. W szczytowym momencie Amdahl miał około 8% rynku komputerów mainframe w USA. Ponieważ linia S / 360 nadal się rozwijała i ewoluowała, Amdahl nawiązał współpracę z Fujitsu i ostatecznie wycofał się z rynku komputerów mainframe w USA, ale kontynuował działalność w Japonii. Inni konkurenci, tacy jak RCA, a nawet firmy rosyjskie, próbowali zbudować konkurencyjny sprzęt pasujący do linii S / 360, ale żaden z nich nie odniósł szczególnego sukcesu i żaden nie zdołał prześcignąć udziału IBM w rynku.

Nagroda Turinga

W 1966 roku Stowarzyszenie Maszyn Komputerowych (ACM) przyznało pierwszą nagrodę Turinga za wkład w informatykę i oprogramowanie. Nagroda ta została nazwana na cześć Alana Turinga, jednego z głównych teoretyków projektowania komputerów i oprogramowania. Nagrody Turinga przyznawane są co roku i są bardzo ważne dla historii komputerów i oprogramowania; miejmy nadzieję, że czytelnicy nie będą mieli nic przeciwko chronologicznemu odchyleniu od lat sześćdziesiątych XX wieku.

1966: Alan J. Perlis: Techniki programowania
1967: Maurice V. Wilkes: EDSAC; biblioteki programów
1968: Richard Hamming: metody numeryczne; wykrywanie błędów
1969: Marvin Minsky: Sztuczna inteligencja
1970: James H. Wilkenson: Analiza numeryczna; algebra liniowa
1971: John McCarthy: Sztuczna inteligencja
1972: Edsger W. Dijkstra "ALGOL" programowanie strukturalne
1973: Charles W. Bachman: Technologia baz danych
1974: Donald Knuth: Sztuka programowania komputerowego
1975: Allan Newell, Herbert A. Simon: Sztuczna inteligencja; przetwarzanie listy
1976: Michael O. Rabin, Dana S. Scott: automaty skończone; niedeterministyczne maszyny
1977: John Backus: FORTRAN; struktura języków programowania
1978: Robert W. Floyd: Semantyka języka programowania; rozbiór gramatyczny zdania
1979: Kenneth E. Iverson: APL; teoria języka
1980: C. Anthony R. Hoare: Definicja i projektowanie języków programowania
1981: Edgar F. Codd: Relacyjne bazy danych
1982: Stephen A. Cook: Złożoność obliczeń
1983: Ken Thompson, Dennis Ritchie: UNIX; teoria systemu operacyjnego
1984: Niklaus Wirth: języki komputerowe; ALGOL, MODULA, PASCAL
1985: Richard M. Karp: Teoria algorytmów; przepływ sieci
1986: John Hopcroft, Richard Tarjan: Podstawy algorytmów i struktury danych
1987: John Cocke: Przetwarzanie ze zredukowanym zestawem instrukcji (RISC)
1988: Ivan Sutherland: Grafika komputerowa
1989: William Kahan Analiza numeryczna i obliczenia zmiennoprzecinkowe
1990: Fernando Corbato: systemy komputerowe z podziałem czasu CTSS i MULTICS 1991: Robert Milner: wiele osiągnięć
1992: Butler W. Lampson: Obliczenia rozproszone; sieci; bezpieczeństwo
1993: Juris Hartmanis, Richard E. Stearns: Obliczeniowa teoria złożoności
1994: Edward Feigenbaum, Raj Reddy: sztuczna inteligencja na dużą skalę
1995: Podręcznik Bluma: Teoria złożoności; kryptografia
1996: Amir Pnueli: logika czasowa; weryfikacja
1997: Douglas Englebart: Wynalazki prowadzące do obliczeń interaktywnych
1998: Jim Gray: Przetwarzanie transakcji; badania baz danych
1999: Fredrick P. Brooks, Jr.: Architektura komputerów; system operacyjny
2000: Andrew Chi-Chih Yao: Teoria obliczeń; złożoność komunikacji
2001: Ole Johan Dahl, Kristen Nygard: programowanie obiektowe; Simula
2002: R. L. Rivest, Adi Shamir, L. M. Adelman: Kryptografia klucza publicznego
2003: Alan Kay: języki obiektowe; Smalltalk
2004: Vinton G. Cerf, Robert E. Kahn: Internetworking; TCP / IP 2005: Peter Naur: Programowanie komputerów; ALGOL 60
2006: Frances E. Allen: Optymalizacja kompilatorów
2007 E. M. Clark, E. A. Emerson, J. Sifakis: Sprawdzanie modelu pod kątem usuwania defektów
2008: Barbara Liskov: Podstawy projektowania programowania; tolerancja błędów
2009; Charles P. Thacker: Komputery osobiste; Ethernet; tablety
2010: Leslie G. Valient: Teoria obliczeń
2011: Perła Judei: Rachunek do rozumowania probabilistycznego
2012 Silvio Micali, Shafi Goldwasser: Teoria złożoności stosowana w kryptografii

Ta lista nagród jest prawdopodobnie najbardziej zwięzłym sposobem pokazania postępu inżynierii oprogramowania od lat sześćdziesiątych XX wieku do czasów współczesnych. Wszyscy zdobywcy nagrody Turinga zasługują na nagrody. Jednak przemyślana analiza listy pokazuje, że zarządzanie oprogramowaniem jest nieco niedostatecznie reprezentowane. Obecny jest Fred Brooks, ale prawdopodobnie dr Barry Boehm zasługuje na nagrodę za swój wkład w pomiary i estymację, a Allan Albrecht zasługuje na nagrodę za wynalezienie metryk punktów funkcyjnych. Myślę, że Steve Jobs zasługuje na nagrodę za pełen zestaw innowacji Apple pod jego kierownictwem. Wiele użytecznych innowacji pojawiło się pod rządami Thomasa J. Watsona Jr., kiedy był prezesem IBM. W rzeczywistości Watson osobiście kierował kilkoma inicjatywami dotyczącymi jakości oprogramowania i był wizjonerskim sponsorem linii S / 360.

Wynalazek karty kredytowej

W latach sześćdziesiątych XX wieku doszło do kilku ważnych wynalazków. Jednym z nich był AT&T Datanet, pierwszy komercyjny modem z 1960 roku. Kolejnym był rozwój ASCII w 1963 roku; jest to wszechobecny system kodowania używany, aby umożliwić różnym komputerom wymianę wspólnych informacji. Być może najważniejszym był wielki wynalazek IBM z 1960 roku, który zmienił sposób, w jaki konsumenci dokonują zakupów. IBM opracował technologię pewnego rodzaju taśmy magnetycznej, którą można przymocować do małych kart plastikowych. W 1960 roku American National Standards Institute (ANSI) uczynił taśmę magnetyczną IBM standardem amerykańskim. W 1962 roku Międzynarodowa Organizacja Normalizacyjna (ISO) również wydała globalny standard. Kiedy nowy pasek magnetyczny IBM stał się światowym standardem, firmy obsługujące karty kredytowe i zakupy kartami kredytowymi gwałtownie wzrosły. Wpływ kart kredytowych na komputerach i oprogramowaniu był ogromny. Banki i firmy obsługujące karty kredytowe szybko rozszerzyły swoje centra danych i wiele z nich utworzyło duże wewnętrzne grupy oprogramowania. Jednak karty kredytowe stworzyły również nowe możliwości przestępczości. W późniejszych dziesięcioleciach kradzież numerów kart kredytowych stała się jednym z najczęstszych celów hakerów komputerowych.

Uwaga: Pierwsza popularna karta kredytowa Diners Club została wprowadzona w 1950 r. Ale była to karta kartonowa bez paska magnetycznego. Oryginalna karta Diners Club działała tylko w 27 restauracjach w Nowym Jorku, co wyjaśnia, dlaczego "Diners Club" był wybraną nazwą.

+ Zakupy kartą kredytową są jedną z najważniejszych zmian w handlu detalicznym w historii ludzkości. Jednak bez szybkich komputerów i niezawodnego oprogramowania przetwarzanie kart kredytowych nie mogłoby ruszyć tak szybko, jak to miało miejsce. Pierwsze karty kredytowe Diners Club i American Express były zastrzeżonymi, zamkniętymi systemami, co oznaczało, że w transakcje zaangażowani byli tylko klienci, sprzedawcy i firmy obsługujące karty. Banki zostały wykluczone. Karty te wymagały również pełnej 100% spłaty sald na koniec każdego miesiąca. Kredyt odnawialny został wprowadzony w 1959 r. wraz ze znacznymi odsetkami i opłatami za opóźnienia w płatnościach. W 1966 roku Bank of America wszedł do świata kart kredytowych, tworząc BankAmerica Services Corporation. Ideą biznesową tej jednostki było udzielenie franczyzy kart kredytowych setkom banków w kraju i za granicą. To wkrótce doprowadziłoby do wydania karty Visa. Również w 1966 roku inna grupa banków utworzyła InterBank Card Association (ICA). Ta grupa wydawała karty kredytowe MasterCard, które konkurowały bezpośrednio z Visa. Zarówno usługi Visa, jak i MasterCard otworzyły drogę do przelewów międzybankowych i współpracy między bankami członkowskimi. Karty te były popularne, więc mniejsze banki zaczęły wydawać karty kredytowe. Ostatecznie setki firm, takich jak linie lotnicze, sieci handlowe, a w późniejszych latach firmy internetowe, takie jak Amazon, wydały karty Visa lub MasterCard pod swoimi nazwami. Paski magnetyczne na kartach plastikowych nie tylko stworzyły nowoczesny biznes kart kredytowych, ale szybko okazały się przydatne w innych dziedzinach. Na przykład wiele zamków w drzwiach (zwykle używanych przez hotele) jest obecnie otwieranych za pomocą kart magnetycznych.

Uwaga: Niepokojące jest to, że Kongresowy Klub Cybernetyczny sponsorowany przez kongresmana Jamesa Langevina z Rhode Island zgłosił w grudniu 2012 r., że pojawiło się urządzenie hakerskie do drzwi hotelowych z zamkiem magnetycznym, które zostało wykorzystane do kradzieży komputerów i mienia osobistego z pokoi w kilku głównych sieci hoteli.

Nie trzeba dodawać, że szybki wzrost wykorzystania kart kredytowych został odzwierciedlony przez szybki wzrost możliwości komputerów i aplikacji do przetwarzania płatności kartą. Ponieważ małych banków nie było stać na własne grupy oprogramowania, firmy zewnętrzne weszły do branży kart kredytowych jako biura usługowe lub firmy zewnętrzne, które prowadziły lub opracowywały aplikacje dotyczące kart kredytowych dla banków, które same nie miały takich możliwości.

Automatyzacja i nowe zawody

I960 zapoczątkował wprowadzenie komputera IBM 1401, który przez 10 lat był dominującym komputerem biznesowym i znacznie rozszerzył oprogramowanie z początków naukowych i wojskowych na świat biznesu. W 1964 roku dołączyła do niej linia IBM System / 360, która stała się najpopularniejszą linią komputerów w historii. Rok 1960 to także wprowadzenie na rynek Digital Equipment Corporation (DEC) Programmed Data Processor-1 (PDP-1), który odegrałby znaczącą rolę w rozwoju gier komputerowych, systemu operacyjnego UNIX, a nawet włamań komputerowych. Gdy IBM 1401 i inne komputery zorientowane na biznes zaczęły być używane przez banki i firmy ubezpieczeniowe, setki pracowników biurowych wycofano z pracy, gdy automatyzacja zaczęła przejmować kontrolę. Inną pozycją, która została wycofana z powodu komputerów elektronicznych, był ludzki "komputer", który zajmował się obliczeniami matematycznymi. Komputery cyfrowe wprowadziły poważne zmiany socjologiczne, które wciąż są dalekie od zakończenia. Niektórzy wysiedleni pracownicy biurowi stali się specjalistami od wprowadzania danych, bibliotekarzami programów lub częścią zespołów administracyjnych zajmujących się oprogramowaniem i operacjami centrów danych. Podczas gdy tysiące urzędniczych miejsc pracy zniknęły, firmy zaczęły budować wewnętrzne organizacje programistyczne, które ostatecznie miały zatrudniać tysiące wykwalifikowanych pracowników. Ogólnie rzecz biorąc, komputery i oprogramowanie zmniejszyły zatrudnienie w biurze, ale dodały nowe rodzaje pracy opartej na wiedzy i nowe rodzaje wykwalifikowanych pracowników. W wielu przypadkach pracownicy biurowi byli przenoszeni do pracy przy komputerze i dzięki temu nabyli przydatnych nowych umiejętności. Z biegiem czasu organizacje programistyczne w dużych firmach zatrudniałyby ponad 115 nowych grup zawodowych, takich jak analitycy biznesowi, analitycy baz danych, inżynierowie oprogramowania, webmasterzy, administratorzy baz danych oraz nowi mistrzowie scrum i trenerzy Agile. Wraz ze wzrostem liczby personelu zajmującego się oprogramowaniem, wydziały akademickie informatyki i inżynierii oprogramowania otworzyły się i szybko wzrosły zarówno pod względem liczby zapisów, jak i absolwentów. Po latach sześćdziesiątych formalne szkolenie byłoby wymogiem dla programistów komputerowych i skończyłby się okres swobodnego wejścia w programowanie.

DEC PDP-1

DEC została założona w 1957 roku. Przez przypadek budynek siedziby DEC znajdował się w przebudowanej fabryce młyna w Maynard w stanie Massachusetts. DEC PDP-1 został zbudowany i wydany w 1960 roku. Zaktualizował starszy komputer o nazwie TX-0, który został zbudowany w MIT Lincoln Lab. Linia DEC PDP była pionierem w tak zwanych minikomputerach lub mniejszych, tańszych komputerach przeznaczonych dla firm i uniwersytetów, których być może nie stać na komputery mainframe IBM. PDP-1 używał zmodyfikowanych maszyn do pisania IBM Model B (z paskami zamiast kulek) do drukowania urządzeń wyjściowych. Wykorzystywano również większe i solidniejsze maszyny do pisania, zwane Friden Flexowriters. Ponieważ te drukarki używały zwykłego papieru do pisania i drukowały w jakości listowej, dla PDP-1 opracowano kilka wczesnych programów do edycji tekstu. Jeden z nich miał prowokacyjną nazwę Drogi Maszyna do pisania. Wcześniejszy komputer TX-0 na MIT przyciągał programistów do pisania gier eksperymentalnych w wolnym czasie. Kiedy PDP-1 zastąpił TX-0, gracze z MIT opracowali jedną z pierwszych interaktywnych gier o nazwie Spacewar. Stało się to około 1961 roku. Później, w 1969 roku, Ken Thompson i Dennis Ritchie byli zainteresowani przeniesieniem gry o nazwie Space Travel na PDP-7. W trakcie tworzenia tego portu Ritchie i Thompson opracowali system operacyjny UNIX. Z historycznego punktu widzenia interesującym jest fakt, że głównym powodem powstania portu był program gier i prawdopodobnie była to pierwsza aplikacja UNIX-a po porcie. Język programowania C został opracowany w kontekście UNIX i ostatecznie stał się jednym z najczęściej używanych języków w historii. Programy C miały dostęp do sprzętu komputerowego, a więc były przydatne w systemach operacyjnych i innych aplikacjach sterujących urządzeniami fizycznymi. Chociaż C miał być dostępny dopiero w następnej dekadzie, projekt C rozpoczął się około 1969 roku.

Języki programowania lat 60


Dekada od 1960 do 1969 była owocna dla języków programowania i doprowadziła do rozwoju wielu nowych języków, w tym między innymi następujących:

ALGOL 60
ALGOL 68
APL
BASIC
BCPL
COBOL 61
COMIT
CORAL 66
DIBOL
FORTRAN 66
InterLisp
JOSS 1 LOGO
Mark IV
MUMPS
PL / I
RPG
Simula 67
SNOBOL
Speakeasy 2
TRAC

Ta dekada była nie tylko świadkiem wynalezienia wielu nowych języków programowania, ale także zapoczątkowała bardzo powszechny trend, który stał się powszechny w późniejszych dziesięcioleciach: używanie więcej niż dwóch języków w tej samej aplikacji. Wczesne przykłady wielu języków w jednej aplikacji obejmowały język kontroli zadań (JCL), COBOL i SQL. Nowsze przykłady obejmują języki Java, HTML i .NET. Ta mnogość języków programowania doprowadziłaby ostatecznie około 2013 roku do łącznej liczby ponad 2500. Rodzi to ważne pytanie, na które nie ma jeszcze pełnej odpowiedzi: czy ta ogromna liczba języków programowania jest oznaką zaawansowania inżynierii oprogramowania, czy też inżynierowie oprogramowania budują nowe zabawki do zabawy? Chociaż niektóre z tych języków programowania są pomocne w tworzeniu określonych rodzajów aplikacji, pełny zestaw języków programowania ma kilka szkodliwych skutków dla inżynierii oprogramowania, które zostały w mniejszym lub większym stopniu zignorowane przez literaturę dotyczącą inżynierii oprogramowania:

•  Starzejące się i przestarzałe języki utrudniają utrzymanie starszych aplikacji.
•  Starzejące się i przestarzałe języki mają niewielu programistów, którzy je znają.
•  Wiele języków w tej samej aplikacji utrudnia debugowanie
•  Nie ma sztywnych wytycznych dotyczących wyboru języka; rozumowanie przypomina kult.
•  Luki w zabezpieczeniach wydają się mieć charakter endemiczny w większości popularnych języków.

Myślę, że wszystkie te języki mogą wyrządzić więcej szkody niż pożytku, ale jest to subiektywna opinia z przypadkowych obserwacji, a nie oparta na solidnych danych. JCL był kolejnym wszechobecnym językiem rozwiniętym w tej dekadzie w kilku dialektach i odmianach. Służył do planowania sekwencji wykonywania aplikacji w różnych systemach operacyjnych IBM. JCL nie jest prawdziwym językiem programowania, ale był raczej prekursorem języków skryptowych, które kontrolują sekwencje wykonywania. Nie mniej luminarz dr Fred Brooks nazwał JCL najbrzydszym językiem, jaki kiedykolwiek powstał. Opuszczając języki, w połowie lat 60., Martin Goetz złożył pierwszy patent na oprogramowanie w 1965 r., a to wprowadziło pierwszy znany komercyjny pakiet oprogramowania, Autoflow, również w 1965 r. Na początku lat 60. XX wieku również nastąpił początkowy rozwój technologii baz danych, który później stał się podstawowym zastosowaniem komputerów cyfrowych. Opis danych CODASYL i baza danych IBM IMS zostały wydane około 1962 roku. Relacyjne bazy danych pojawią się dopiero w następnej dekadzie. Opierając się na badaniach w MIT, Ivan Sutherland opublikował wczesną pracę na temat programowania obiektowego w 1963 roku. Później, w 1967 roku, język programowania Simula wprowadził klasy i instancje lub obiekty. W następnych dziesięcioleciach pojawi się wiele innych języków zorientowanych obiektowo. Języki programowania APL, BASIC i PL / I zostały opracowane w tej dekadzie. Akronim APL oznacza język programowania. Jest to wysoce matematyczny język opracowany przez Kena Iversona wraz z Adinem Falkoffem z IBM. Koncepcje językowe pochodzą z raportu z 1957 roku, ale pierwsza działająca wersja APL była gotowa dopiero w 1960 roku.

Uwaga: Pracowałem z dr Charlesem Turkiem nad stworzeniem pierwszego narzędzia do oceny oprogramowania IBM w 1973 roku. To narzędzie nosiło nazwę Interactive Productivity and Quality model (IPQ) i zostało zakodowane w APL przez dr Turka.

Język PL / I został również opracowany przez IBM. (Skrót używał rzymskiej cyfry "I" zamiast arabskiej "1" ze względów marketingowych). Przewidywano, że komputer S / 360 nadaje się zarówno do celów biznesowych, jak i naukowych. Aż do tego czasu języki programowania były zorientowane albo na matematykę i nauki ścisłe, jak FORTRAN (co oznacza tłumacz formuł), albo na biznes, na przykład COBOL (co oznacza wspólny język biznesowy). Ponieważ S / 360 jest sprzedawany jako maszyna ogólnego przeznaczenia, zarówno do zastosowań biznesowych, jak i naukowych, IBM potrzebował towarzyszącego języka programowania, który mógłby być używany zarówno do zastosowań biznesowych, jak i naukowych. Pierwsza definicja PL / I pojawiła się w 1964 r. Język PL / I był potężny i skuteczny, ale nie stał się językiem standardowym dla wszystkiego, na co liczył IBM. Język PL / I był nadal w użyciu w 2012 roku. Historia rodziny języków programowania BASIC jest dobrze znana. Pierwszy dialekt języka BASIC został opracowany przez Johna Kemeny′eiego i Thomasa Kurtza z Dartmouth College w 1964 roku. Język BASIC był skierowany do użytkowników komputerów, którzy nie byli matematykami i potrzebowali dość prostego języka do wykonywania swoich zadań. BASIC postawił sobie za cel, aby był łatwy do nauczenia i łatwy w użyciu. W późniejszych dziesięcioleciach, kiedy eksplodowało używanie komputerów osobistych, dialekty BASIC były narzędziem z wyboru dla milionów hobbystów i zwykłych programistów. Do dziś istnieje kilkanaście dialektów języka BASIC, w tym niektóre, takie jak Visual Basic firmy Microsoft, które są używane do tworzenia oprogramowania komercyjnego i przemysłowego, a także do aplikacji osobistych. Biznes komputerowy lat 60. Komputery zaczęły szybko się rozwijać jako narzędzia biznesowe. Początkowe ekspansje miały miejsce w branżach o dużej liczbie dokumentów i dużej liczbie pracowników biurowych. Bankowość, ubezpieczenia i obrót akcjami to główne przykłady branż intensywnie wykorzystujących papier, które wkrótce odniosą korzyści z używania komputerów i oprogramowania. W drugiej połowie lat 60. prasa branżowa komputerów zaczęła używać niepochlebnej nazwy "IBM and the Seven Dwarves" dla firm z branży komputerowej. W rzeczywistości było ponad siedem firm komputerowych, ale nazwa miała tak prowokacyjny dźwięk, że stała się popularna. Firmy wchodzące w skład tego zestawu to:

•  Burroughs
•  Control Data Corporation (CDC)
•  GE
•  Honeywell
•  National Cash Register (NCR)
•  RCA
•  UNIVAC

W ciągu tej dekady branża komputerowa i oprogramowania eksplodowała pod względem rozmiarów i możliwości. W późniejszych dziesięcioleciach klimat biznesowy ulegnie zmianie i większość mniejszych firm komputerowych zostanie przejęta, wycofana z komputerów lub zbankrutowana, co zostanie omówione w dalszych rozdziałach. Konkurencja pomiędzy IBM a tymi firmami jest interesująca sama w sobie, ale tylko pobocznym zainteresowaniem historii inżynierii oprogramowania. Inne firmy komputerowe, które nie znalazły się na liście "siedmiu krasnoludów", były nieco wyspecjalizowane i obejmowały:

Amdahl
Apollo
Cray
Data General
DEC
Ferranti
Fujitsu
Groupe Bull
Hitachi
Mitsubishi
Nixdorf
Olivetti
Scientific Data Systems (SDS)
Sun
Wang
Xerox

Nie wszystkie z nich pojawiły się w latach sześćdziesiątych, ale lepiej jest je wszystkie wymienić w jednym miejscu, zamiast rozrzucać je po kilku częściach. Oprócz cyfrowych komputerów typu mainframe istniało również wiele wyspecjalizowanych analogowo-cyfrowych komputerów hybrydowych, wykorzystywanych głównie do rozwiązywania problemów inżynieryjnych i naukowych. Nie są one tak znane, jak komputery w pełni cyfrowe. Dwa przykłady hybryd to hybrydowa hybryda cyfrowo-analogowa HYCOMP z 1961 r. i większy komputer analogowo-cyfrowy HYDAC 2400 z 1963 r. Inne to hybryda Beckmana z 1960 r. i hybryda naukowa EAI 680 stosowana w inżynierii. Czysto analogowe komputery pozostawały w powszechnej służbie wojskowej jako celowniki bombowe, komputery naprowadzania torped i systemy nawigacji rakietowej. Komputery analogowe zdominowały broń wojskową przez ponad następną dekadę. Użycie komputerów cyfrowych na statkach kosmicznych Apollo wkrótce utoruje drogę komputerom cyfrowym do zastąpienia analogów w samolotach i pociskach. Komputery przenośne i notebooki zostaną omówione w dalszych rozdziałach. Jednak chociaż komercyjne notebooki nie istniały w tej dekadzie, Alan Kay stworzył wczesną koncepcję notebooka o nazwie Dynabook w 1968 roku. Jego pomysłem było zapewnienie uczniom przenośnych urządzeń do nauki. Artykuł opublikowany przez Kay w 1972 roku pokazał urządzenie, które wyglądało jak skrzyżowanie nowoczesnego tabletu i notebooka. Był to wizjonerski pomysł, który później przerodził się w potężne koncepcje w Centrum Badawczym Xerox Palo Alto (PARC) w Kalifornii, gdzie pracował Kay. Xerox PARC pojawi się ponownie w następnej dekadzie ze względu na wpływ, jaki technologie Xerox wywarły na Steve'a Jobsa i Apple Computer. Potrzeba komputerów jako narzędzi biznesowych została wyraźnie pokazana przez to, co stało się z Wall Street. Między 1965 a 1968 rokiem, akcje notowane na Wall Street wzrosły z około 5 000 000 do 12 000 000, co podkreśliło poziom pracy biurowej na zapleczu. Liczba pracowników biurowych gwałtownie wzrosła. Jedną z przyczyn wzrostu sprzedaży zapasów było zmniejszenie odsetka ceny akcji, jaki należało zapłacić, aby je nabyć. Stawki obniżono ze 100% wartości zapasów do 70%, co w naturalny sposób doprowadziło do wzrostu wielkości sprzedaży. Jednak w 1969 i 1970 r. Obrót akcjami gwałtownie spadł, zmniejszając przychody z działalności maklerskiej i powodując zwolnienia i problemy finansowe wśród domów maklerskich. Około 100 firm z Wall Street wypadło z rynku lub połączyło się, co oznacza spadek o około 17%. Dla firm z Wall Street był to najgorszy kryzys od czasu Wielkiego Kryzysu. Wiele firm z Wall Street, które poniosły porażkę, zrobiło to po części dlatego, że straciły kontrolę nad swoimi danymi finansowymi na zapleczu z powodu ogromnego obciążenia pracą biurową. Około 90% kosztów operacyjnych firm z Wall Street w tej dekadzie było związanych z pracą biurową. Najwyraźniej Wall Street było gotowe na przejście w kierunku komputeryzacji, co nastąpi w latach siedemdziesiątych.

Spory sądowe zmieniają świat komputerów na zawsze

W latach sześćdziesiątych XX wieku doszło do kilku poważnych procesów sądowych, które w nieoczekiwany sposób zmieniły charakter komputerów i oprogramowania. Pierwszym z tych poważnych pozwów były dwie sprawy o naruszenie patentów wniesione przez Sperry-Rand przeciwko Honeywell oraz kontrpozew wniesiony przez Honeywell przeciwko Sperry-Rand. Oba pozwy zostały wniesione tego samego dnia, 26 maja 1967 r. Honeywell złożyła pozew na kilka minut przed Sperry-Rand, co później okazało się ważne. Firma Honeywell oskarżyła Sperry-Rand o bycie monopolistą i zażądała unieważnienia patentu na ENIAC, należącego do Sperry-Rand. Wpływ patentu ENIAC polegał na tym, że Sperry-Rand rościł sobie prawo własności do głównych funkcji wszystkich komputerów cyfrowych, a tym samym pobierał opłaty licencyjne. Ten patent był wyraźnym wąskim gardłem dla ekspansji przemysłu komputerowego. jego pozew i kilka poprzednich spraw było najdłuższymi procesami w historii Ameryki i zgromadziło tysiące stron danych i informacji o technologii komputerowej i historii informatyki cyfrowej. W sumie zaangażowanych było ponad 150 świadków. Sprawa ta była nie tylko ważna dla branży komputerowej i oprogramowania, ale był to pierwszy poważny proces sądowy, w którym wykorzystano skomputeryzowane pliki prawne. Fakt, że Honeywell złożył sprawę jako pierwszy, doprowadził do rozprawy w Minneapolis, a nie w Waszyngtonie. W tamtym czasie Honeywell był największym pracodawcą w Minnesocie, więc wynik sprawy był ważny lokalnie. Sprawa została rozstrzygnięta dopiero w latach siedemdziesiątych XX wieku, więc zostanie ona ponownie omówiona potem. Znaczenie dla branży polega na tym, że ostateczna decyzja unieważniła patent ENIAC. Spowodowało to udostępnienie większości technologii używanych do budowy komputerów cyfrowych w domenie publicznej. To z kolei doprowadziło do znacznej ekspansji komputerów i firm budujących komputery. Kolejne doniosłe wydarzenie dla branży oprogramowania miało miejsce w 1969 r., kiedy IBM uwolnił oprogramowanie w wyniku pozwu antymonopolowego. Przed rokiem 1969 komputery IBM były dostarczane z oprogramowaniem w pakiecie i nie były wyceniane oddzielnie. Sprzedaż wiązana lub udostępnianie oprogramowania za darmo stanowiła barierę wejścia, a uwolnienie doprowadziło do powstania dzisiejszego ogromnego rynku oprogramowania. Pozew antymonopolowy IBM został złożony pod koniec dekady 17 stycznia 1969 r. przez Departament Sprawiedliwości. Decyzja zapadła dopiero w latach osiemdziesiątych XX wieku, ale do tego czasu unbundling został ustanowiony od dawna. (Sprawa została ostatecznie wycofana przez Williama Baxtera w styczniu 1982 r. Baxter był zastępcą prokuratora generalnego odpowiedzialnym za kwestie antymonopolowe). W tym dziesięcioleciu istniało kilka firm zajmujących się czystym oprogramowaniem komputerowym i koncentrowały się one na pakietach aplikacji, które nie były ściśle powiązane z żadną konkretną marka lub model komputera. Jedną z odnoszących największe sukcesy i najdłużej działających firm programistycznych była firma Cincom, założona w 1968 roku przez Thomasa Niesa, Toma Richleya i Claude'a Bogardusa. Wszyscy trzej założyciele pracowali dla IBM przed założeniem Cincom. (Niezwykła nazwa firmy wynika po części z faktu, że została założona w Cincinnati w stanie Ohio). W tamtych czasach IBM dostarczał systemy operacyjne i oprogramowanie systemowe oraz kompilatory, ale od klientów oczekiwano, że będą pisać własne aplikacje. Fakt, że klienci piszą własne aplikacje, wyjaśnia ogromny wzrost personelu programistycznego w tej dekadzie. Wizją Cincom była komercjalizacja typowych aplikacji, które były powszechnie używane i potrzebne. Jednym z tych obszarów wspólnych potrzeb była baza danych. Pakiet bazy danych Cincom TOTAL wszedł na rynek w 1970 roku i był pionierem w komercyjnym systemie DBMS. Cincom był i jest odnoszącym sukcesy producentem oprogramowania, który przeżył wielu swoich konkurentów.

Komputery i oprogramowanie w kosmosie

20 lipca 1969 roku sonda Apollo 11 wylądowała na Księżycu Neila Armstronga i Buzza Aldrina. Było to jedno z największych osiągnięć naukowych w historii ludzkości. Statki kosmiczne Apollo były pionierem wykorzystania komputerów cyfrowych i oprogramowania w programie kosmicznym. Fizyczny komputer używany w programie Apollo był jednym z pierwszych, który połączył układy scalone i tranzystory małej mocy. Został nazwany Apollo Guidance Computer (AGC). AGC wykorzystywał specjalny rodzaj pamięci tylko do odczytu (ROM) zwany core rope. Namagnesowane pasmo przeszło przez puste rdzenie. Przez rdzeń może przejść do 64 oddzielnych przewodów, a każdy z nich zawiera informacje o oprogramowaniu. Zaletą lin rdzeniowych było przechowywanie o dużej gęstości - około 18 razy więcej danych niż mogłyby pomieścić konwencjonalne rdzenie magnetyczne. Te sznury rdzeniowe zostały w rzeczywistości utkane przez szwaczki. To dało początek slangowemu określeniu pamięci "LOL" lub "mała starsza pani". Chociaż zespół Apollo składał się z wielu znanych inżynierów i naukowców, Charles Stuart Draper był jednym z pionierów obliczeniowych Apollo. Jego imię nosi słynne laboratorium MIT w Cambridge w stanie Massachusetts. IBM był również uczestnikiem programu Apollo, a słynna baza danych IMS powstała najpierw dla programu Apollo, ale została również wprowadzona na rynek komercyjny. Oprogramowanie Apollo zostało zaprogramowane zarówno przy użyciu języka asemblera, jak i języka interpretowanego. Dla programu Apollo opracowano specjalny wielozadaniowy system operacyjny czasu rzeczywistego. Chociaż komputer Apollo był powolny i ograniczony w porównaniu z dzisiejszymi komputerami, był to wielki krok do przetwarzania danych, tak jak lądowanie na Księżycu było wielkim krokiem dla ludzkości. Niepokojące jest to, że podczas zejścia na Księżyc pojawiło się wiele błędów i komunikatów o błędach, wskazujących na problemy z komputerem lub oprogramowaniem. Najwyraźniej zbyt wiele zadań wykonywało się jednocześnie i przekraczało wydajność systemu. Na szczęście oprogramowanie miało algorytmy planowania priorytetów i można było wyeliminować zadania o niskim priorytecie, dzięki czemu faktyczne prowadzenie zejścia działało idealnie. Jeden z kontrolerów naprowadzania Apollo, Steve Bales, otrzymał Prezydencki Medal Wolności w uznaniu za udane zapewnienie lądowania Apollo. Systemy komputerowe i oprogramowanie Apollo były ważnymi prekursorami systemów typu "fly-by-wire", które stały się normą w przyszłych samolotach i promach kosmicznych. Bliska katastrofa podczas zejścia Apollo 11 i jeszcze większe problemy z późniejszymi misjami Apollo podkreślają fakt, że oprogramowanie pokładowe dla samolotów i pojazdów kosmicznych musiało osiągnąć poziom jakości zerowej defektów.

Rozwój komputerów i oprogramowania w latach 60

Gdy dekada zbliżała się do końca, programowanie komputerowe ewoluowało w kierunku inżynierii oprogramowania, z ulepszonymi standardami i lepszą kontrolą jakości. Pod koniec lat sześćdziesiątych XX wieku komputery również zaczęły mieć wpływ na sport. W 1968 roku zawodowy golfista Jim Healy stworzył pierwsze skomputeryzowane narzędzie do obliczania handicapów golfowych. Później tego rodzaju oprogramowanie stało się standardem branżowym dla amatorów i profesjonalnych golfistów. Oryginalne narzędzie było jednorazową kompilacją przy użyciu niestandardowego mikrokomputera. Później, w latach 80-tych, oprogramowanie zostało przeniesione na komputery osobiste, począwszy od Radio Shack Model II, a następnie na komputery osobiste Apple i IBM. W tym dziesięcioleciu w 1969 roku firma AT&T Bell Labs opracowała również system operacyjny UNIX. W tym samym roku Departament Obrony Agencji Zaawansowanych Projektów Badawczych (DARPA) przedstawił ARPANET, który był prekursorem dzisiejszego Internetu. Pojawił się kowbojski rozwój, języki niskiego poziomu, takie jak asembler, a później języki makrosemblera, a następnie języki średniego poziomu, takie jak COBOL i FORTRAN. Małe aplikacje były normą na początku dekady, ale pod koniec dekady ich rozmiary wzrosły. Pod koniec dekady zaczęto coraz częściej używać kilku nowszych języków, takich jak ALGOL, LISP, COBOL i FORTRAN. Liczba aplikacji zaczęła rosnąć we wszystkich rodzajach aplikacji. Oprogramowanie nie ograniczało się już do przedsięwzięć naukowych i wojskowych, ale rzeczywiście wkraczało w każdy aspekt ludzkiego życia. Wszystkie główne kategorie biznesowe mają aplikacje, a nawet gry i działania artystyczne zaczynają korzystać z oprogramowania. Przyspieszyłoby to w późniejszych dziesięcioleciach.

Punkty funkcyjne przyniosły skutek w roku 1965

Punkty funkcyjne nie zostały wynalezione, więc wszystkie dane zostały zmierzone za pomocą linii kodu. Fałsz odwrotny lub konwersja matematyczna z linii kodu (LOC) na punkty funkcyjne pokazują następujące wyniki dla projektu 1000 punktów funkcyjnych w tej dekadzie:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 160 000 instrukcji kodu logicznego
•  Język programowania: montaż makr
•  Procent ponownego wykorzystania: od 0% do 5%
•  Metodologia: nieustrukturyzowany rozwój kowboja
•  Wydajność: 5 punktów funkcyjnych na miesiąc pracownika
•  Potencjały defektu: 6 na punkt funkcyjny
•  Skuteczność usuwania defektów (DRE): 83%
•  Dostarczone wady: 1,02 usterki na punkt funkcyjny
•  Stosunek personelu programistycznego do utrzymania:
•  Rozwój: 90%
•  Konserwacja: 10%

Poniżej przedstawiono podstawowe dane za rok 1965:

•  Średni poziom języka: 2,0
•  Liczba języków programowania: 10
•  Instrukcje logiczne na punkt funkcyjny: 160
•  Średnia wielkość aplikacji: 600 punktów funkcyjnych
•  Średnia wielkość aplikacji: 96 000 instrukcji kodu logicznego

Uwaga: Fraza "poziom języka" została opracowana w IBM około 1968 roku i odnosi się do potęgi języka w stosunku do podstawowego języka asemblera. Zatem dla języka poziomu 2 wymagałoby to dwóch instrukcji w podstawowym języku asemblerowym, aby wytworzyć funkcjonalność jednej instrukcji w języku docelowym. Koncepcja poziomu jest nadal w użyciu. Na przykład Java została sklasyfikowana jako język na poziomie 6. Poziomy są oparte na logicznych instrukcjach kodu, a nie na fizycznych wierszach kodu. Pod koniec dekady aplikacje rozrosły się i zwiększyły złożoność. Było oczywiste, że miernik LOC nie był już przydatny. W 1970 r. Wiele grup publikacji IBM przekroczyło swoje budżety z powodu oparcia kosztów dokumentów na procencie kosztów kodowania. Kiedy język / systemy programowania (PL / S) zaczęły zastępować kod asemblera, wszystkie działy zajmujące się dokumentacją korzystające z procentu kosztów kodowania PL / S przekroczyły swoje budżety. W rezultacie IBM rozpoczął badania, które doprowadziły do metryk punktów funkcyjnych kilka lat później.

Podsumowanie

Na początku lat sześćdziesiątych oprogramowanie było dołączane do komputerów i rozdawane wraz ze sprzętem. Patent ENIAC utrudniał innym producentom budowanie komputerów bez wysokich opłat licencyjnych. Ostatecznie decyzje w sprawach sądowych doprowadziły do uwolnienia oprogramowania i doprowadziły do wprowadzenia komercyjnego oprogramowania do domeny publicznej. W tym dziesięcioleciu tysiące firm kupowało komputery i zaczęło z nich korzystać w celu zastąpienia pracochłonnych zadań, takich jak prowadzenie dokumentacji. Organizacje programistyczne i korporacyjne centra danych zaczęły pojawiać się na początku dekady i szybko się rozwijały. W tym dziesięcioleciu powstało wiele nowych firm komputerowych i oprogramowania, ale niewiele z nich mogłoby przetrwać długo.


Powrót

1970-1979: Komputery i oprogramowanie zaczynają tworzyć bogactwo



Dzięki wydzieleniu oprogramowania przez IBM w 1969 roku, w latach 70. powstało kilka firm, które później rozszerzyły się na największe i najbogatsze firmy w historii Stanów Zjednoczonych: trzy przykłady to Apple, Microsoft i Oracle. Gwałtowny rozwój wykorzystania komputerów doprowadził do bardzo szybkiego rozwoju firm tworzących oprogramowanie komercyjne, z którego skorzystały zarówno korporacje, jak i osoby fizyczne. Na początku tej dekady nie przewidywano (i nie potwierdzono), że oprogramowanie ostatecznie sprawi, że Bill Gates stanie się jedną z najbogatszych osób na świecie, a Apple Computer jedną z najbogatszych firm. Pod koniec tej dekady komputery i oprogramowanie należałyby do najszybciej rozwijających się i najbardziej dochodowych gałęzi przemysłu w historii ludzkości. Ugoda w sprawie patentowej pomiędzy Honeywell i Sperry-Rand unieważniła patent na ENIAC i zasadniczo wprowadziła architekturę komputerową do domeny publicznej. W ciągu tej dekady oprogramowanie zaczęło dzielić się na szereg podkategorii, takich jak oprogramowanie biznesowe, oprogramowanie wbudowane, oprogramowanie pośredniczące i wiele innych.

Ewolucja oprogramowania w latach 70

W tym czasie dziedzina inżynierii oprogramowania rozwijała się szybciej niż prawie jakikolwiek inny zawód w historii. W ciągu dekady powstało również wiele różnych dziedzin oprogramowania, takich jak aplikacje biznes owe, aplikacje do zarządzania projektami, aplikacje osobiste, oprogramowanie systemowe, oprogramowanie wbudowane, oprogramowanie pośredniczące, oprogramowanie naukowe i matematyczne, oprogramowanie komunikacyjne, oprogramowanie do produkcji, oprogramowanie do baz danych i do gier i rozrywki.

Trendy w oprogramowaniu Popularnym trendem w tej dekadzie było pojawienie się rynków wertykalnych zarówno wśród dostawców komputerów, jak i oprogramowania. Rynek wertykalny odnosi się do sprzedaży kompletnych pakietów, które obsługują wszystkie potrzeby w zakresie przetwarzania danych dla określonej funkcji biznesowej lub branży. Banki, ubezpieczyciele i zakłady opieki zdrowotnej są dobrymi przykładami docelowych rynków wertykalnych, ponieważ wszystkie trzy zależą od złożonych i nieco specjalistycznych obliczeń wykorzystujących duże ilości danych. We wszystkich trzech branżach istnieją setki firm, których potrzeby w zakresie przetwarzania danych są bliskie identyczności. Obsługa roszczeń ubezpieczeniowych jest prawie taka sama, niezależnie od tego, czy jest prowadzona przez Hartford, Farmers, Aetna, Prudential, GEICO czy American Commerce. Obsługa transakcji za pośrednictwem bankomatu (bankomatu) jest podobna w przypadku Bank of America, Wells Fargo, Citizens Bank i setek innych. Rynki pionowe mają sens, gdy istnieje wiele firm z tego samego sektora biznesowego, które mają podobne potrzeby w zakresie przetwarzania danych. Koncepcja podziału czasu była również popularna w latach 70. Podział czasu powstał we wcześniejszych dziesięcioleciach, ale stał się główną techniką obniżania kosztów użytkowania komputera w latach siedemdziesiątych. To była dekada komputerów typu mainframe i niektórych minikomputerów, ale przed internetem i komputerami osobistymi. Dzielenie czasu umożliwiło wielu użytkownikom podłączenie się do jednego komputera mainframe i używanie go, gdy inne aplikacje były wstrzymane lub ciche. W związku z tym dość wysokie koszty dzierżawy komputerów mainframe i oprogramowania można rozłożyć na wielu użytkowników. Dzielenie czasu dla wielu firm było często oferowane przez biura usługowe, które kupowały i były właścicielami komputerów oraz wynajmowały czas za tygodniową lub miesięczną opłatę. W latach osiemdziesiątych, po pojawieniu się komputerów osobistych IBM i Apple II, podział czasu zaczął zanikać, a kontrolę przejmowały komputery osobiste. Pod koniec lat 70. XX wieku oprogramowanie zabezpieczające i ochronne wyłoniło się jako podbranża w następstwie rosnącej liczby wirusów i cyberataków. To była bardzo dynamiczna dekada z szybkim wzrostem liczby inżynierów oprogramowania, a także gwałtownym przyspieszeniem kilku firm w kierunku ogromnych rozmiarów, bogactwa i wpływów. Na początku tej dekady uniwersytety nie oferowały stopni naukowych z inżynierii oprogramowania. Pod koniec dekady prawie wszystkie główne uniwersytety miały dostępne programy nauczania inżynierii oprogramowania i oferowano stopnie naukowe. Nastąpił również początek ogromnego udziału w rynku amerykańskich firm w zakresie oprogramowania komercyjnego, głównie dzięki IBM, aż do połowy dekady. W przyszłych dziesięcioleciach Apple, Microsoft, Cullnane, Computer Associates, Oracle i inne amerykańskie firmy zdominują światowe rynki. SAP w Niemczech stanowi wyjątek od tej reguły i jest główną siłą w aplikacjach planowania zasobów przedsiębiorstwa (ERP).

Polityczne niepowodzenia

Poza oprogramowaniem dekadę wstrząsnęły dwoma wydarzeniami politycznymi, które podważyły zaufanie obywateli USA do rządu federalnego i zmniejszyły szacunek dla ich najwyższych urzędników. 10 października 1973 r. Wiceprezydent Spiro Agnew podał się do dymisji z powodu oskarżeń o przyjmowanie łapówek, niektóre z nich w swoim wiceprezydenckim biurze. Drugim i jeszcze bardziej zniechęcającym wydarzeniem była dymisja prezydenta Richarda Nixona z 9 sierpnia 1974 r. W następstwie słynnej afery Watergate. Gdyby nie zrezygnował, Nixon stanąłby w obliczu procesu o impeachment.

Uwaga: Watergate obejmowało włamanie do siedziby Democratic National Committee (DNC) w hotelu Watergate. Ostatecznie doszło do 43 procesów i wyroków skazujących, które toczyły się wokół kilku pracowników Nixona. Słynny ukryty magnetofon w biurze Nixona dostarczył dowodów na zatuszowanie. W nagraniach była tajemnicza 18,5-minutowa przerwa, w której jedna z taśm została skasowana. Ani luka, ani brakujące informacje nigdy nie zostały w pełni wyjaśnione. Po rezygnacji Nixon otrzymał od prezydenta Geralda Forda całkowite ułaskawienie. W przeszłości miały miejsce inne skandale, ale te dwie rezygnacje wiceprezydenta i prezydenta w odstępie krótszym niż rok wzbudziły poważne wątpliwości co do uczciwości polityków. Nawet dzisiaj zaufanie członków Kongresu i innych urzędników krajowych jest niskie. Wątpliwości te są często uzasadnione w przypadku Kongresu, który prowadzi do podziałów i często wydaje stronnicze diatryby bez treści i danych. Kongres raz po raz zatrzymywał się na dzień lub dwa, zanim nastąpiła poważna katastrofa, taka jak klif fiskalny (masowe podwyżki podatków) lub sekwestracja (masowe cięcia wydatków). Oba te problemy były spowodowane zaniedbaniem Kongresu w przeprowadzeniu należytej staranności lub zastosowaniu jakiejkolwiek analizy predykcyjnej konsekwencji. Rzeczywiście, Kongres nie podjął żadnych działań, aby zapobiec sekwestracji, a ani Izba Reprezentantów, ani Senat nie dokonały właściwej oceny potencjalnych szkód wynikających z tej porażki. Bez grupy zajmującej się badaniami operacyjnymi Kongres nie może właściwie zastosować analiz predykcyjnych do kwestii finansowych i ekonomicznych. Powoduje to często uchwalanie przepisów, które są szkodliwe i przynoszą niewielkie korzyści. Kongresowe Biuro Budżetowe (CBO) powinno być taką organizacją, ale nie zawsze jest słuchane i nie zawsze jest na celowniku.

Szybki rozwój firm komputerowych

Przed 1970 rokiem oprogramowanie dostarczane przez IBM stanowiło większość oprogramowania systemowego i znaczący procent oprogramowania użytkowego używanego w Stanach Zjednoczonych i na całym świecie. Po uwolnieniu przez IBM branża oprogramowania zaczęła pokazywać klasyczne wzorce starszych branż. Było wiele małych firm z jedną lub dwiema aplikacjami; grupa średnich firm z kilkunastoma aplikacjami; oraz kilka dużych firm z dziesiątkami lub, w kilku przypadkach, setkami pakietów oprogramowania. Nastąpiły gwałtowne wzrosty i równie szybkie spadki firm z sektora. Ciekawym zjawiskiem jest to, że oczekiwana długość życia amerykańskiej korporacji jest krótsza niż średnia długość życia obywatela amerykańskiego. Oczekiwana długość życia firm tworzących oprogramowanie i komputery wydaje się być gorsza niż w innych branżach, a wiele firm umiera w ciągu kilku lat od włączenia. Te szybkie zgony są szczególnie prawdziwe w przypadku firm wspieranych przez venture capital, które często są pchane w kierunku tak szybkiego wzrostu, że badania i rozwój nowych produktów nie nadążają. Na drugim końcu spektrum niektóre firmy, takie jak Apple, Microsoft, Oracle, SAP i Google, osiągnęły nieoczekiwanie ogromne udziały w rynku i ogromne bogactwo. Najstarszą z firm komputerowych i programistycznych jest IBM, który jako jedyny ma ponad 100 lat i został utworzony (pod inną nazwą) w czerwcu 1911 r. Jak zostanie omówione dalej, IBM przeżywał ciężkie chwile podczas kryzysu i także w latach 80., ale w obu przypadkach udało się go odrodzić.

Uwaga: Najstarszą amerykańską firmą technologiczną wydaje się być Consolidated Edison, która została założona w 1823 roku w celu dostarczania lamp gazowych na długo przed wynalezieniem elektryczności. Najstarszą firmą na świecie jest japońska firma Kongo Gumi. Zaczęła budować świątynie buddyjskie około 1430 lat temu. Pozostał w jednej rodzinie do 2006 roku, kiedy to został przejęty przez Takamatsu, większą japońską firmę budowlaną. Do 2006 roku Kongo Gumi była również najstarszą firmą rodzinną na świecie.

Spadająca giełda w latach 1970 i 1971 spowolniła rozwój komercyjnych firm programistycznych, ale to przyspieszyło rozwój wewnętrznych grup oprogramowania w wielu firmach, które nabywały komputery i zaczęły automatyzować swoje operacje biznesowe.

Główne firmy powstałe w latach 70

W latach 70. powstało lub szybko rozwinęło się kilka ważnych firm, które korzystały z komputerów w nowy i interesujący sposób, w tym FedEx, NASDAQ i Southwest Airlines.

FedEx

Firma Federal Express została założona w 1971 roku przez Fredericka Smitha i wkrótce stała się gigantem transportu towarowego dzięki opracowaniu modelu transportu lotniczego typu "hub-and-spoke" z centrum w Memphis w stanie Tennessee. Najbardziej efektywne jest przemieszczanie towarów do centrali (węzła) drogą bezpośrednią (szprychą). Towary są następnie przenoszone z centrum do miejsca docelowego. Próba wysyłki bezpośrednio z miejsca przeznaczenia do miejsca przeznaczenia bez centrum prowadziłaby do niemożliwej złożoności kombinatorycznej. Skomputeryzowane oprogramowanie FedEx do wyznaczania tras i śledzenia stało się wzorem dla innych firm zajmujących się dystrybucją towarów. Był to doskonały przykład badań operacyjnych zastosowanych do optymalizacji wysyłki towarów. FedEx stał się jedną z najbardziej opłacalnych firm transportowych w historii i nadal wykorzystuje komputery i oprogramowanie do precyzyjnego dostrajania operacji.

NASDAQ

Giełda NASDAQ również powstała w tej dekadzie i stała się ważną giełdą dla firm komputerowych i programistycznych, kiedy zdecydowały się przeprowadzić pierwszą ofertę publiczną (IPO). Nazwa tej giełdy to skrót od National Association of Securities Dealers Automated Quotations. NASDAQ rozpoczął działalność 8 lutego 1971 roku. Była to pierwsza skomputeryzowana i zautomatyzowana giełda, więc oprogramowanie i komputery były ważnymi technologiami wspomagającymi. Początkowo NASDAQ był raczej rodzajem tablicy ogłoszeń niż prawdziwą giełdą. Ale w miarę jak rosła i ewoluowała, stała się pierwszą skomputeryzowaną giełdą papierów wartościowych online w 1987 roku.

Southwest Airlines

Inną firmą o efektywnym modelu biznesowym była Southwest Airlines, która została założona w 1967 roku przez Herba Kellehera, ale nie zmieniła nazwy na Southwest Airlines do 1971 roku. Jako przykład wykorzystania komputerów do wspomagania operacji biznesowych, Southwest była pierwszą linią lotniczą, która miała stronę internetową od 1995 r. Southwest nadal odwiedza witrynę internetową częściej niż jakiekolwiek inne linie lotnicze i prowadzi za jej pośrednictwem więcej interesów niż jakiekolwiek inne linie lotnicze. Southwest był także pionierem w zakresie zabezpieczenia paliwa, czyli kontraktów, które chroniły linię lotniczą przed rosnącymi kosztami paliwa. W końcu Southwest stał się na tyle potężny, że spowodował uchylenie poprawki Wrighta, która ograniczyła zdolność linii lotniczych do latania do stanów innych niż Teksas. Southwest jest obecnie największą, odnoszącą największe sukcesy i najbardziej dochodową linią lotniczą w USA. Młodsi czytelnicy mogli nie zdawać sobie sprawy, że trzy spośród odnoszących największe sukcesy współczesnych firm w Ameryce - FedEx, NASDAQ i Southwest Airlines - są stosunkowo młode i rozpoczęły swój wzrost dominacji w latach siedemdziesiątych. Wszystkie używane komputery i oprogramowanie w interesujący sposób, aby pomóc im się rozwijać i stać się opłacalnymi.

Firmy komputerowe i programistyczne powstałe w latach 70

Wiele firm, które odegrały ważną rolę w tworzeniu oprogramowania, zostało założonych w latach siedemdziesiątych XX wieku. Poza wymienionymi tutaj istnieje wiele innych, ale te próbki obejmują całą gamę firm, które albo urosły, by stać się ogromnie zamożne, albo szybko zniknęły z pola widzenia. Obie skrajności odzwierciedlają historię oprogramowania. Kilka firm, które później zyskały sławę w branży komputerowej i oprogramowania, zaczęło od czegoś innego: firmy konsultingowe lub wytwarzające inne rodzaje produktów elektronicznych. To było podekscytowanie rozwijającymi się domenami komputerów i oprogramowania, które przyciągnęły tak wiele startupów, które migrowały w kierunku komputerów i oprogramowania. Patrząc na firmy zajmujące się oprogramowaniem i komputerami, które powstały w latach siedemdziesiątych, czytelnicy zauważą, że wiele z nich powstało w "Dolinie Krzemowej", czyli zasadniczo w dolinie Santa Clara w Kalifornii. Oryginalne miasta należące do Doliny Krzemowej biegły na północ od San Jose do Palo Alto. Region ten obejmował Uniwersytet Stanforda i nie był daleko od U.C. Berkeley po drugiej stronie zatoki. Na przykład Steve Jobs, współzałożyciel Apple, mieszkał w Cupertino w Kalifornii, które jest dość blisko centrum Doliny Krzemowej. W regionie nadal znajdują się dziesiątki firm tworzących oprogramowanie i zaawansowane technologie, a także wiele firm venture capital, które finansowały startupy. Inne obszary owocne dla start-upów oprogramowania znajdują się na Wschodnim Wybrzeżu, skupiającym się w Cambridge w stanie Massachusetts oraz w stanie Teksas. Jednak odnoszące sukcesy firmy programistyczne pojawiły się w wielu regionach geograficznych, w tym w Cincinnati w stanie Ohio; Seattle, Waszyngton; Portland w stanie Oregon; i Jacksonville na Florydzie. W tym dziesięcioleciu doszło do szeregu procesów sądowych między firmami programistycznymi i komputerowymi lub przez rządy. Kilka pozwów antymonopolowych, pozwów o naruszenie patentów, pozwów o naruszenie praw autorskich i innych rodzajów współczesnych sporów sądowych przeciwko firmom komputerowym i programistycznym wydawało się przyśpieszyć w ciągu tej dekady i niewiele zwolniło w późniejszych dziesięcioleciach. Biznes jest zwykle sporny, a biznes oprogramowania nie jest wyjątkiem. W poniższych sekcjach przedstawiono przykłady firm komputerowych i oprogramowania które powstały w latach siedemdziesiątych XX wieku.

Altair Computers

Komputer Altair 8800 był jednym z pierwszych komputerów osobistych. Jest znany, ponieważ Altair Basic był pierwszym produktem opracowanym przez Microsoft. Firmą, która zbudowała Altair, była Micro Instrumentation and Telemetry Systems Corporation (MITS), założona w 1969 roku w Albuquerque w Nowym Meksyku przez Forresta Mimsa, Eda Robertsa, Stana Cagle'a i Boba Zallera. MITS nie zaczynał od komputerów, ale raczej od sprzętu modelowo-rakietowego (co wyjaśnia dość złożoną nazwę firmy). Komputery pojawiły się później w latach 70. Altair 8800 pojawił się w 1975 roku i znalazł się w magazynie Popular Science, co uczyniło go bestsellerem, z tysiącami egzemplarzy sprzedanych w pierwszym miesiącu. Paul Allen i Bill Gates przenieśli się do Albuquerque, założyli firmę Microsoft i opracowali aplikacje dla Altair 8800, w tym Altair Basic. Altair 8800 był technicznie wyrafinowany jak na tamte czasy, wykorzystując układ Intel 8080 i tworząc coś, co później stało się magistralą S-100, de facto standardem branżowym. Ten komputer był urządzeniem umożliwiającym rozpoczęcie wielu innych ważnych firm i wynalazków. Firma Apple Computer powstała po części ze względu na pragnienie Steve'a Jobsa i Steve'a Wozniaka, aby ulepszyć Altair 8800, oferując pełny komputer. Wkrótce potem wprowadzono komputery IMSAI z myślą o ulepszeniu Altaira. IMSAI jest prawdopodobnie pierwszym "klonem", który był reklamowany jako zgodny z wtyczką Altair 8800.

Apple

Steve Jobs i Steve Wozniak zakończyli budowę słynnego komputera Apple 1 1 kwietnia 1976 r. i włączyli Apple 3 stycznia 1977 r. W Cupertino w Kalifornii. Apple stał się jedną z najbogatszych korporacji na świecie. Na drodze do tego kamienia milowego Apple przyjmie Objective C jako swój główny język programowania; pionierskie eleganckie i popularne urządzenia, takie jak iPod, iPhone i iPad; i opracowywać dziesiątki innowacyjnych aplikacji. Inne popularne technologie Apple obejmowałyby stworzenie odnoszącego największe sukcesy biznesu muzycznego online, stworzenie zestawu popularnych sklepów Apple na całym świecie i ogólnie wprowadzanie innowacji w szerokim zakresie technologii komputerowych i oprogramowania. Czytelnicy zainteresowani głębszą historią Apple mogą przeczytać książkę Waltera Isaacsona Steve Jobs: The Exclusive Biography. Ta książka to fascynująca biografia błyskotliwej, ale zdecydowanie nieobliczalnej osoby.

Baan

Korporacja Baan została założona w 1978 roku przez Jana Baana w Holandii. Zaczynała jako firma konsultingowa, ale Jan i jego brat Paul wkrótce stworzyli interesującą aplikację w sektorze ERP. Przez pewien czas Baan szybko się rozwijał i przejął wiele innych firm programistycznych. Miał dobrą reputację techniczną dzięki szybkiej i wydajnej bazie danych oraz pakietom ERP. Baan stał się spółką publiczną w 1995 roku i był notowany na NASDAQ. W 1998 roku Baan popadł w kłopoty finansowe i zaczął tracić swój udział w rynku. Po serii kolejnych przegranych kwartałów Baan został przejęty w 2000 roku przez brytyjską firmę Invensys. Jednym z powodów sprzedaży było oskarżenie Baana o wyolbrzymianie wielkości sprzedaży, co obniżyło jego reputację i wartość.

Computer Associates (CA)

CA została założona w 1979 roku przez Charlesa Wanga i Russella Artzta w Islandia w stanie Nowy Jork. CA była pionierem w dziedzinie oprogramowania dla biznesu (B2B). CA specjalizuje się w różnorodnych aplikacjach biznesowych, takich jak księgowość, finanse, wprowadzanie zamówień i tym podobne. CA próbowało opracować pakiety komputerów osobistych, takie jak zabezpieczenia i antywirusy, ale zdecydowało się opuścić tę linię i skupić się na większych aplikacjach biznesowych sprzedawanych korporacjom, a nie użytkownikom końcowym. Mieli dużą kadrę programistyczną i stworzyli sporo innowacyjnych aplikacji. W rzeczywistości CA posiada ponad 400 patentów, a setki oczekują w kolejce. Z biegiem czasu CA rozrosło się również poprzez przejęcia i przejęło tak wiele firm programistycznych, że Departament Sprawiedliwości zaczął badać, czy CA może posiadać tak wiele w tej samej dziedzinie, aby być może stanowić potencjalnego monopolisty. Niektóre z przejętych przez CA firm były dobrze znane, takie jak Applied Data Research (ADR), Cullinet, Capex, Sterling Software, The Ask Group i UCCEL. CA przejęła prawie dwa tuziny firm programistycznych. CA było przedmiotem szeregu rządowych dochodzeń dotyczących wykorzystywania informacji poufnych, wynagrodzeń kadry kierowniczej i metod księgowych. Z różnych powodów CA miał niezwykle liczne procesy sądowe z udziałem klientów, konkurentów i rządu federalnego. Jeden z procesów sądowych toczył się między CA a innym gigantem, Electronic Data Systems (EDS), w 1996 roku. Jedno z rządowych dochodzeń dotyczyło stosowania praktyk księgowych, które zawyżały przychody, księgując je, zanim zostały zapłacone. Sprawa dotyczyła Komisji Papierów Wartościowych i Giełd (SEC) oraz Departamentu Sprawiedliwości. Doprowadziło to do ugody z 2004 r., na mocy której CA zapłacił akcjonariuszom 225 milionów dolarów i zrewidował swoje metody księgowe. To był poważny problem, a były dyrektor CA Sanjay Kumar, dyrektor generalny i przewodniczący, został skazany na 12 lat więzienia. Ośmiu innych dyrektorów CA przyznało się do zarzutów oszustwa. Jedną z obaw rządu było to, że w 1999 roku Charles Wang otrzymał największą w historii korporacyjną premię wydaną przez spółkę publiczną w okresie spowolnienia gospodarczego. Opcje na akcje przyznane w ramach tej premii wyniosły około 670 milionów dolarów, co jest z pewnością znaczącą premią. Pomimo sporadycznych problemów prawnych Computer Associates rozwija się dość stabilnie i jest jedną z największych firm zajmujących się czystym oprogramowaniem na świecie. Setki patentów CA i duża liczba inżynierów oprogramowania, którzy prowadzą badania i rozwój w CA, pokazują, że firma poważnie podchodziła do inżynierii oprogramowania.

Komputery Cray

W 1972 roku znany projektant komputerów Seymour Cray opuścił firmę Control Data Corporation (CDC) i założył własną firmę Cray Research. Laboratoria badawcze znajdowały się w Chippewa Falls w stanie Minnesota, a główna siedziba firmy znajdowała się w Minneapolis w stanie Minnesota. Pierwszy superkomputer Cray-1 został zainstalowany w 1976 roku w Los Alamos National Laboratory. Komputery Cray były jednymi z pierwszych superkomputerów i rzeczywiście Cray-1 był najszybszym komputerem tamtych czasów. Seymour Cray wkrótce zrezygnował ze stanowiska dyrektora generalnego i został niezależnym konsultantem, zakładając kilka kolejnych firm. Jego pierwotna firma ogłosiła upadłość w 1995 r. Technologie stosowane w liniach komputerowych Cray były zaawansowane w tamtej epoce i były pionierem szeregu innowacji. Wysoko kosztowne, szybkie innowacje z linii Cray zyskały prestiż, a główne firmy i rządy krajowe były dumne z tego, że są znane jako użytkownicy komputerów Cray. Idea superszybkich komputerów odbiła się echem w branży. Cray zapoczątkował szereg konkurencyjnych firm w późniejszych dziesięcioleciach i był mniej lub bardziej pionierem superkomputera. Superkomputery były używane do rozwiązywania bardzo trudnych problemów, które wymagały intensywnych i szybkich obliczeń: prognoz pogody, fizyki jądrowej, dynamiki płynów, logistyki i innych złożonych obszarów problemowych. W końcu superkomputery monoprocesorowe, takie jak linia Cray, zaczęły napotykać konkurencję ze strony masowo równoległych macierzy komputerów. Ponieważ szybkie monoprocesory były drogie, podczas gdy małe komputery równoległe były tanie, rynek superkomputerów zaczął przesuwać się w kierunku równoległości. Ponieważ główną cechą komputerów jest duża szybkość przetwarzania, producenci komputerów często konkurują o rekordy szybkości. W 1976 roku, kiedy po raz pierwszy zbudowano szybki komputer Cray-1, ustanowił on światowy rekord prędkości w tamtej epoce, obliczając z szybkością 160 megaflopów (megaflop to milion operacji zmiennoprzecinkowych na sekundę). Przez lata IBM, Fujitsu, Cray i inne firmy miały gorącą konkurencję dla tych superkomputerów z najwyższej półki.

Cullinane

Cullinane zostało założone w 1968 roku przez Johna Cullinane'a i Larry'ego Englisha. Znajdowała się w Westwood w stanie Massachusetts. Firma jest cytowana tutaj, ponieważ weszła na giełdę w latach 70. Pierwsza oferta publiczna Cullinane była pierwszą dla firmy zajmującej się wyłącznie oprogramowaniem. Była to również pierwsza oferta publiczna przeprowadzona przez Hambrechta i Quista, którzy później obsłużyli wiele innych. Była to również pierwsza oferta publiczna oprogramowania, w której firma programistyczna została wyceniona na ponad miliard dolarów. Później Cullinane jako pierwsza firma programistyczna uruchomiła reklamę podczas Super Bowl. Główne aplikacje oprogramowania Cullinane znajdowały się w obszarze zarządzania bazami danych; jego Zintegrowany System Zarządzania Bazą Danych (IDMS) był głównym produktem bazodanowym. To z powodzeniem konkurowało z kilkoma innymi, w tym z systemem zarządzania informacjami IBM (IMS). IDMS był oparty na modelu danych CODASYL i ostatecznie stracił podstawy do relacyjnych baz danych. W 1982 roku IBM ogłosił serię komputerów 4300 i powiedział klientom, że produkt bazodanowy Cullinane IDMS nie będzie działał na 4300, więc IMS był jedynym wyborem. Niestety dla IBM okazało się, że Cullinane był w stanie przeportować IDMS do serii 4300, zmieniając tylko jedną instrukcję! To oczywiście zawstydziło IBM i postawiło ich w defensywie. Po wielu wzlotach i upadkach firma Cullinane (której nazwa została zmieniona na Cullinet) została przejęta przez CA w 1989 roku. W latach siedemdziesiątych i osiemdziesiątych produkty bazodanowe były dość popularnym elementem przestrzeni rynkowej oprogramowania, a na ten rynek weszło wiele firm i produktów. Aplikacje bazodanowe pozostają dziś ważne. Wśród wielu aplikacji baz danych i metod zapytań są Access, dBASE, DB2, Easytrieve, Filemaker, FoxPro, IDMS, IMS, Informix, Ingres, MySQL, Oracle, Sybase i wiele innych. Technologia baz danych jest również gorącym, czystym tematem badawczym i pojawiło się co najmniej tuzin modeli nawigacji, w tym sekwencyjny, CODASYL, relacyjny, relacje między jednostkami i wiele innych. Ta książka dotyczy tylko kilku podstawowych problemów, ale literatura dotycząca baz danych jest obszerna i ma wiele doskonałych źródeł.

Digital Research

Firma znana obecnie jako Digital Research została założona przez dr Gary'ego Kildalla i jego żonę Dorothy pod nazwą Intergalactic Digital Research w 1976 roku w Pacific Grove w Kalifornii. Oryginalna nazwa była próbą humoru, która nie była rzadkością w tamtych czasach, co pokazało powstanie w 1975 roku czasopisma o nazwie Dr. Dobb's Journal of Tiny BASIC Calisthenics and Orthodontia. Zarówno firma, jak i pismo zmieniły nazwy, gdy ich pomysły zaczęto traktować poważnie. Dr Dobb stał się szanowanym czasopismem technicznym i ma stronę internetową, która jest nadal szeroko czytana przez inżynierów oprogramowania. Firma Digital Research stworzyła słynny program sterujący dla systemu operacyjnego mikroprocesorów (CP / M), który był używany na wielu komputerach z układami scalonymi Intela. Przez kilka lat był dominującym systemem operacyjnym dla komputerów wykorzystujących układy Intel 8086 i 8088. Legenda głosi, że IBM pierwotnie zwrócił się do Digital Research o opracowanie systemu operacyjnego dla komputerów osobistych IBM w 1980 roku. Z jakiegoś powodu firma Digital Research odmówiła, co pozwoliło Microsoftowi stworzyć zarówno dyskowy system operacyjny IBM (DOS), jak i , później Microsoft Windows. Jednym z możliwych powodów jest to, że Gary Kildall nie chciał podpisać umowy o nieujawnianiu informacji z IBM, ale były różne historie o tym, dlaczego Digital Research odrzucił ofertę IBM.

Uwaga: Interesujące jest to, że kiedy po raz pierwszy zwrócił się do IBM, Bill Gates polecił IBM Gary'emu Kildallowi z Digital Research jako profesjonalną uprzejmość. Kiedy IBM został odrzucony, Microsoft otrzymał kontrakt.

Digital Research później zbudował konkurencyjny system operacyjny dla IBM PC o nazwie DR DOS, który konkurował łeb w łeb z MS-DOS. Niektóre firmy komputerowe oferowały jedno i drugie. Jednak Microsoft dał tak dobre warunki licencyjne producentom komputerów, którzy włączali MS-DOS na każdej sprzedanej maszynie, a sprzedaż DR DOS spadła. Doprowadziło to do pozwu antymonopolowego przeciwko Microsoftowi w 1994 r. I kolejnego w 1996 r. Kiedy Microsoft tworzył Windows, oryginalna aplikacja DOS znajdowała się pod osłonami. Jednak Digital Research DR DOS nie był obsługiwany. Rzeczywiście, jednym z zarzutów w procesie antymonopolowym z 1996 r. Było to, że Microsoft wykrył obecność DR DOS i spowodował awarie systemu, aby sprawiać wrażenie, że DR DOS był niestabilny. Microsoft zapłacił 150 milionów dolarów za rozstrzygnięcie pozwu z 1996 roku, a warunkiem ugody było zniszczenie dowodów z pozwu. Ostatecznie firma Microsoft rozwinęła się i stała się największą na świecie firmą programistyczną, podczas gdy Digital Research dryfował, aż do przejęcia firmy Novell w 1991 roku.

Galorath Incorporated

Galorath została założona przez Dana Galoratha w 1979 roku jako organizacja konsultingowa mająca na celu poprawę rozwoju oprogramowania, co było powszechnym problemem w tej dekadzie. Firma została później zarejestrowana w 1987 roku w Marina Del Rey w Kalifornii. Galorath jest jedną z wielu organizacji, które tworzą narzędzia do parametrycznego szacowania kosztów oprogramowania. Główny produkt Galorath nazywa się SEER i ma cechy oprogramowania, sprzętu i produkcji. Szacowanie parametryczne projektów oprogramowania jest dokładniejsze niż ręczne szacowania, a dokładność jest jeszcze lepsza w przypadku dużych aplikacji z ponad 1000 punktów funkcyjnych, w przypadku których niewielu kierowników projektów ma obszerne dane lub doświadczenie. Szacowanie parametryczne powinno być technologią głównego nurtu stosowaną we wszystkich głównych projektach oprogramowania. Ale z jakiegoś powodu przedsiębiorstwa parametryczne pozostały stosunkowo małe, a także niezależne, a nie zbierane przez większe firmy globalne.

Uwaga: Firmy nazwane na cześć ich założycieli często napotykają problemy, jeśli firma zostanie sprzedana, jak widać w dyskusji na temat firmy Eda Yourdona w dalszej części. Firma zachowała nazwisko założyciela długo po tym, jak zajęła się czymś innym.

Komputery IMSAI

W 1973 roku William Millard założył firmę domową o nazwie Information Management Associates (IMS) w San Leandro w Kalifornii. W 1974 roku firma zaczęła projektować specjalną stację roboczą dla dealerów samochodowych General Motors, ale nie zakończyła tego. W 1976 roku IMS wypuścił klon Altaira 8800 o nazwie IMSAI 8080. Podobnie jak Altair, używał on chipa Intel 8080, a nawet kopiował magistralę S-100. IMSAI pojawił się w 1975 roku i sprzedawał się dobrze przez kilka lat, być może dostarczając nawet 20 000 sztuk. Jednak sprzedaż spadła, a problemy finansowe narastały. IMSAI został przejęty przez dwóch byłych pracowników, Thomasa Fischera i Nancy Freitas, po ogłoszeniu przez IMSAI upadłości w 1979 r. Komputer IMSAI miał służyć jako model dla dziesiątek klonów, które będą naśladować komputer osobisty IBM w przyszłych dziesięcioleciach. Gdy produkt nadający się do sprzedaży wykazuje oznaki dużego rynku, dziesiątki szybkich obserwujących pogrążają się w tyle, co widać na obecnych rynkach smartfonów i tabletów. Ciekawym zjawiskiem jest to, że pozyskanie funduszy venture na prawdziwie nową i oryginalną koncepcję jest bardzo trudne. Ale jeśli koncepcja odniesie sukces w uzyskaniu akceptacji rynku, kolejnych 10 klonów będzie dość łatwo uzyskać finansowanie venture. Dzieje się tak być może dlatego, że społeczność venture capital nie do końca rozumie samą technologię, ale całkiem dobrze widzi, co się sprzedaje po jej opracowaniu.

InterSystems Corporation

Firma InterSystems została założona w 1978 roku w Cambridge w stanie Massachusetts przez Philipa T. Ragona. InterSystems to prywatna korporacja, która przekształciła pionowy rynek w obszarze opieki zdrowotnej w biznes o wartości wielu miliardów dolarów. W rzeczywistości Ragon jest miliarderem oprogramowania. Branża opieki zdrowotnej (w tym dokumentacja medyczna dla Veterans Administration) wcześnie przyjęła specjalny język zwany MUMPS, co oznacza system wieloprogramowania Massachusetts General Hospital Utility. MUMPS powstała w 1966 roku przez Neila Pappalardo i współpracowników z Massachusetts General Hospital. Jest to nieco dziwaczny język interpretowany, który zawiera integralną technologię baz danych ukierunkowaną na dokumentację medyczną. InterSystems był pionierem w używaniu MUMPS i jest jednym z jego oryginalnych dostawców. Później firma InterSystems zbudowała własną zastrzeżoną bazę danych o nazwie CACHE. InterSystems jest głównym dostawcą obsługującym szpitale i grupy zajmujące się dokumentacją medyczną. W 2008 roku InterSystems złożył nietypowy pozew przeciwko firmie Microsoft, która miała biura w tym samym budynku w Massachusetts. Pozew próbował uniemożliwić Microsoftowi rozbudowę i wynajęcie większej powierzchni biurowej. Jak wspomniano w innym miejscu tego rozdziału, branża oprogramowania jest dość sporna. We współczesnej erze InterSystems pozostaje głównym graczem w zastosowaniach opieki zdrowotnej. Jako firma prywatna nie jest tak dobrze znana, jak firmy publiczne, takie jak Apple i Microsoft, ale jest bardzo udanym przedsiębiorstwem z silnym rynkiem wertykalnym. Dowodzi koncepcji, że rynki wertykalne mogą odnieść sukces.

Lawson Software

Lawson powstał w 1976 roku w St. Paul w stanie Minnesota. Założycielami byli dwaj bracia, William i Richard Lawson, wraz z Johnem Cerullo jako Chief Technology Officer (CTO). Lawson Company była pionierem w zakresie pakietów ERP, w których konkurowała z SAP, Oracle, PeopleSoft i innymi. Lawson odniósł taki sukces, że w 2001 roku wszedł na giełdę.

MicrosoftL

W 1975 roku Bill Gates i Paul Allen założyli firmę Microsoft w Albuquerque w Nowym Meksyku. Przyszła historia firmy Microsoft byłaby kluczowym elementem rozwoju branży oprogramowania w tej dekadzie i we wszystkich przyszłych dekadach. Nazwa "Microsoft" została opracowana przez Paula Allena jako połączenie "mikrokomputera" i "oprogramowania". Pierwszym produktem firmy Microsoft był interpreter języka BASIC dla komputera Altair 8800 zbudowanego przez MITS. Później przekształciło się to w dobrze znany Microsoft BASIC, który był głównym językiem lat 70. W 1979 roku Microsoft przeniósł się z Albuquerque do Bellevue w stanie Waszyngton, gdzie nadal pozostaje jego główna siedziba. Interesujące jest to, że Gates i Allen podeszli do MITS, a nie na odwrót. Pierwszy BASIC dla Altaira został napisany przez Gatesa w około osiem tygodni.

Uwaga: matka Billa Gatesa, Mary Maxwell Gates i John Opel, dyrektor generalny IBM, byli w zarządzie United Way. Dzięki temu kontaktowi IBM po raz pierwszy dowiedział się o Billu Gates i Microsoft.

Oracle

W 1977 roku Larry Ellison, Bob Miner i Ed Oates założyli firmę, która później przekształciła się w Oracle. Jednak jego pierwsza nazwa brzmiała Software Development Laboratories i dopiero w 1995 roku została zmieniona na Oracle. Podobno jako nazwę wybrano Oracle, ponieważ była to kryptonim projektu CIA, nad którym pracował Ellison. W rzeczywistości CIA i siły powietrzne były wczesnymi klientami bazy danych Oracle. Larry Ellison zainteresował się relacyjnymi bazami danych po przeczytaniu materiałów opublikowanych przez Teda Codda z IBM, słynnego wynalazcę modelu relacyjnego. Firma Oracle stała się również liderem w dziedzinie ERP, a ostatecznie przeszła na szał zakupów i przejęła wiele innych firm zajmujących się oprogramowaniem i sprzętem. Oracle była wzorem sukcesu oprogramowania i ostatecznie stała się głównym graczem zarówno w świecie baz danych, jak iw świecie ERP. Sam Ellison zasłynął z zainteresowania żeglarstwem i regatami jachtowymi. Słynął też z mocnych opinii, z których jedną była niechęć do Microsoftu. Ellison był najlepiej opłacanym dyrektorem generalnym jakiejkolwiek amerykańskiej firmy, nie tylko w oprogramowaniu. To kolejny przykład oprogramowania tworzącego ogromne bogactwo. Roczna sprzedaż Oracle sięga 10 miliardów dolarów. W domenach baz danych i ERP było wielu konkurentów, takich jak Informix i Sybase. Głównym konkurentem ERP była niemiecka firma SAP. Firma Oracle złożyła pozew przeciwko firmie SAP o piractwo komputerowe i naruszenie praw autorskich. W 2010 r. sąd przyznał firmie Oracle w sumie 1,3 miliarda dolarów. To była największa nagroda w zakresie praw autorskich w jakimkolwiek pozwie. Nie trzeba dodawać, że był apel i więcej sporów prawnych. Od 2012 roku nagroda została zmniejszona do około 272 milionów dolarów, ale nie ma pewności, czy nastąpią dalsze pozwy lub zmiana kwoty. Oracle rozwijał się zarówno poprzez przejęcia, jak i własne wysiłki na rzecz rozwoju. Niektóre ze znanych firm i produktów pod parasolem Oracle obejmują Sun Microsystems, słynny język programowania Java oraz pakiet Open Office, który konkuruje z pakietem Microsoft Office, ale jest bezpłatny dla użytkowników. Oracle przejęła również firmy Siebel, JD Edwards i PeopleSoft. Oracle stało się czymś w rodzaju konglomeratu oprogramowania z pakietami baz danych, ERP, narzędziami biznesowymi, narzędziami programistycznymi i kilkoma innymi rodzajami pakietów oprogramowania.

Price Systems

Price Systems projektuje i buduje parametryczne narzędzia szacowania kosztów sprzętu i oprogramowania, głównie dla aplikacji wojskowych i obronnych. Został założony jako oddział w RCA Corporation w 1975 roku w Cherry Hill w stanie New Jersey. Frank Freiman był pierwotnym założycielem i jednym z twórców narzędzi do wstępnej oceny wraz z Robertem Parkiem. Obecnym prezesem jest Tony DeMarco, również pionier w szacowaniu kosztów oprogramowania. Kiedy RCA zaczęło wycofywać się z branży komputerowej, Price stała się niezależną firmą. Później, w 1998 roku, doszło do wykupu menedżerskiego, który przeniósł firmę do Mount Laurel w stanie New Jersey. W skład zespołu zarządzającego wchodzili Anthony DeMarco, Bruce Fad, Earl King i George Teologlou. Ponieważ społeczności wojskowe i obronne często tworzą duże aplikacje z ponad 10 000 punktów funkcyjnych lub 1 000 000 linii kodu, często stosuje się estymację parametryczną. (Badanie, które przeprowadziłem, wykazało, że dokładność ręcznych szacunków stopniowo pogarszała się wraz z rozmiarem aplikacji i zawsze była bardziej optymistyczna niż rzeczywiste koszty i harmonogramy po zakończeniu projektów). Price jest obecnie jedną z wielu firm, które projektują i budują narzędzia do estymacji parametrycznej. Wszystkie te firmy są mniej więcej tej samej wielkości i wszystkie są niezależne, mimo że kilka z nich rozpoczęło działalność w dużych korporacjach. Firmy zajmujące się estymacją parametryczną również uległy ciekawemu odwróceniu sekwencjonowania start-upów. Wiele firm tworzących oprogramowanie powstało jako małe, niezależne firmy, które później zostały przejęte przez duże korporacje. Z drugiej strony, estymacja parametryczna zwykle zaczynała się w dużych korporacjach, takich jak IBM, RCA i TRW, a później została podzielona na niezależne firmy.

Prime Computers (Prime)

Prime Computers zajmowała się budową minikomputerów. Została założona w 1972 roku w Natick w stanie Massachusetts przez zespół kilku przedsiębiorców, z których niektórzy pracowali przy projekcie MIT Multics. Pierwsze komputery Prime były wzorowane na komputerach Honeywell i czasami nazywane są klonami.

Uwaga: chociaż słowo "Prime" jest zapisywane za pomocą litery "i", w logo firmy występuje cyfra "1". Jest to niezręczna sytuacja przy omawianiu firmy, dlatego w tej książce użyto słowa" Prime "ze wszystkimi znakami alfabetu.

William Poduska był wiceprezesem ds. oprogramowania i stał się ważną postacią w historii inżynierii oprogramowania. Poduska ostatecznie opuścił Prime i założył Apollo Computers. Prime była jedną z firm, które odniosły sukces w marketingu wertykalnym: bankowość była branżą wybraną przez Prime i radziła sobie dobrze. W połowie lat osiemdziesiątych wiele banków korzystało ze sprzętu Prime i bazy danych Prime. Prime osiągnął szczyt w późnych latach 80-tych, kiedy jego sprzęt był używany przez ponad 330 firm z listy Fortune 500. Prime również próbował dywersyfikacji i miał kilka interesujących produktów do projektowania wspomaganego komputerowo (CAD). W późniejszych latach Prime pozostawał w tyle pod względem szybkości przetwarzania i technologii. Na przykład, w przeciwieństwie do wysokiej klasy sprzętu IBM, komputery Prime można było eksportować do Rosji i krajów sowieckich, ponieważ rząd USA nie uważał, że mają one technologie, które mogłyby zostać skradzione. Ostatecznie w 1998 roku Prime wstrzymał większość produkcji i wiele operacji. Pozostałe elementy zostały przemianowane na Computervision i zostały przejęte przez Parametric Technology.

Systems Applications Programs (SAP)

Ważny rodzaj aplikacji i ważna firma pojawiła się około 1972 roku. Była to niemiecka firma Systemsanalyse und Programmentwicklung, czyli Systems Applications Programs (SAP), która była pionierem w zakresie aplikacji ERP. Oryginalna nazwa oznaczała analizę systemów i rozwój programów. Firma SAP została założona w Mannheim w Niemczech. Później firma zachowała ten sam akronim SAP, ale zmieniła nazwę prawną na Systeme, Anwendungen, und Produkte in der Datenverabeitung. Ta nowsza nazwa oznaczała systemy, aplikacje i produkty w przetwarzaniu danych. Pięciu założycieli to Detmar Hopp, Klaus Tschira, Hans-Werner Hector, Hasso Plattner i Claus Wellenreuther. (Wszyscy ci założyciele to byli IBMersi. Od około 100 lat IBM jest owocnym źródłem przedsiębiorców tworzących własne firmy). Technologia wykorzystywana przez SAP miała zawikłaną ścieżkę. Niektóre programy i pomysły zostały opracowane przez firmę Xerox. Kiedy Xerox zdecydował się odejść z branży komputerowej, zatrudnił IBM do przeniesienia części swojego oprogramowania na platformy IBM. Jeden z pakietów nosił nazwę SDS / SAPE i był używany w SAP. Ale to nie wszystko. IBM przekazał oprogramowanie pięciu założycielom SAP w zamian za akcje założycielskie firmy w wysokości około 8%. SAP był również zainteresowany marketingiem wertykalnym. W miarę jak SAP rozwijał się i prosperował, był w stanie wejść na kilka rynków wertykalnych w tym samym czasie. Wśród nich znalazły się produkcja, kontrola procesów, finanse, operacje rządowe, produkty konsumenckie i usługi. SAP stał się trzecią co do wielkości firmą programistyczną na świecie, a na drodze do tej pozycji przejął również inne firmy, takie jak Sybase i SuccessFactors. SAP uruchomił także ciekawy program akademicki, który umożliwia profesorom uniwersytetów i studentom pełny dostęp do SAP. Program SAP University Alliance obejmuje obecnie około 1200 uniwersytetów i około 250 000 studentów. Idea silnego programu uniwersyteckiego opłaca się przyszłym klientom, którzy uczą się korzystać z produktów jako studenci i chcą kontynuować naukę po ukończeniu studiów. Jak wspomniano w części tego rozdziału poświęconej Oracle, w 2010 roku SAP przegrał sprawę o naruszenie praw autorskich wniesioną przez firmę Oracle w wysokości 1,3 miliarda dolarów. Wciąż trwają zmiany i korekty, więc spory sądowe i ostateczne kwoty mogą jeszcze nie zostać uregulowane.

Tandem Computers

Firma Tandem została założona w 1974 roku przez Jimmy′ego Treybiga, Jamesa Katzmana i Michaela Greena przy wsparciu inwestora venture capital Jacka Loustaunou i innych w Cupertino w Kalifornii. Założyciele pracowali dla firmy Hewlett-Packard i rozwinęli swoje pomysły dotyczące obliczeń odpornych na błędy, ale w tamtym czasie firma HP nie była tym zainteresowana. Idea techniczna stojąca za Tandemem była wtedy ważna i nadal jest ważna. Dla wielu rodzajów krytycznych pakietów oprogramowania, takich jak bankomaty, giełdy, telekomunikacja i szpitale, awarie i przestoje są katastrofami. Komputery zaprojektowane w tandemie, które miały działać w trybie ciągłym i nie zawieść. Oczywiście, aby działać bezawaryjnie, potrzebne były nadmiarowe komponenty, a także metoda szybkiego przełączania z wadliwego komponentu na alternatywny bez utraty czasu i danych. Tandem wniósł nadmiarowość na nowy poziom. Wszystkie komponenty były redundantne i oddzielone od siebie, więc awaria któregokolwiek nie wpłynęłaby na pozostałe. Komunikowali się, wysyłając wiadomości tam i z powrotem. Tandem stworzył również rodzaj funkcji oprogramowania monitorującego lub watch-dog, które śledziło niezawodność każdego komponentu i wydawało ostrzeżenia, gdy tylko wykryto problemy. Ponadto firma Tandem opracowała metody wymiany lub wymiany komponentów, podczas gdy reszta komputera nadal działała. Były to ważne koncepcje dotyczące komputerów i oprogramowania, które wymagały wysokiej niezawodności. W momencie powstania Tandem niezawodność komputera mierzona była średnim czasem do awarii (MTTF) i wynosiła tylko kilka dni. Rozciągnięty tandem co najmniej 100-krotnie poza okno MTTF. Rynki obsługiwane przez Tandem doceniły wartość tego, co robią, i Tandem stał się ulubieńcem Doliny Krzemowej z jednym z najszybszych awansów do statusu Fortune 500 ze wszystkich firm. Tandem miał również interesującą kulturę korporacyjną, która wzbudziła zarówno entuzjazm, jak i lojalność wśród pracowników Tandem. Tandem wykorzystywał szereg unikalnych i zastrzeżonych projektów oprogramowania i sprzętu. Jednym z nich był system operacyjny Tandem. Niestety, kiedy Tandem próbował wejść na rynek PC w połowie lat 80., jego produkt nie był w pełni kompatybilny z IBM i nie był również kompatybilny z wieloma płytami i urządzeniami fizycznymi. W rezultacie nie udało się.

Uwaga: Wiele firm nauczyło się ze smutkiem, że bycie tylko częściowo kompatybilnym z IBM nie wystarczy, aby odnieść sukces, jak pokazały komputery osobiste ITT i AT&T, komputer osobisty Tandem i komputer osobisty DEC Rainbow. de facto światowy standard i tylko konkurencyjne komputery, które były w 100% kompatybilne, takie jak Compaq, były w stanie utrzymać się na rynku.

W latach dziewięćdziesiątych Tandem doświadczył spowolnienia sprzedaży i pewnych problemów finansowych. Tandem został przejęty przez firmę Compaq, która liczyła na sukces na wyższych półkach rynku komputerowego, ale się nie udało. Compaq przejął również firmę Digital Equipment Corporation (DEC), która również przeżywała ciężkie chwile, kiedy komputery osobiste zastąpiły minikomputery i ich linię VAX, a DEC spóźnił się na rynek komputerów osobistych. Fuzja firmy Compaq z innymi firmami komputerowymi nie zakończyła się sukcesem, dlatego w 2001 roku całość została przejęta przez firmę Hewlett-Packard. Tandem stał się linią serwerów w ramach HP. Jedną z przyczyn niepowodzenia Compaqa z Tandemem są różnice w strategiach marketingowych i sprzedażowych. Komputery firmy Compaq były samodzielnymi urządzeniami, które można było nabyć i używać od razu. Nie wymagali wielu rozmów i negocjacji na miejscu w celu sprzedaży. Z drugiej strony, komputery tandemowe były często kupowane do wykonywania zadań o znaczeniu krytycznym, w przypadku których potrzebna była bardzo wysoka niezawodność. Dlatego cykl sprzedaży obejmował wiele wizyt u kierownictwa i personelu technicznego, aby pokazać, jak komputery Tandem pasowałyby do całej działalności. Produkty Tandem i kultura korporacyjna Tandem są częścią legend Doliny Krzemowej i zasługują na zbadanie. Podstawowe idee Tandem zmierzające do uzyskania ultra-wysokiej nieprzerwanej niezawodności były rozsądne i rozwiązały wcześniej niezaspokojone potrzeby rynku. Ale technologia zmienia się tak szybko w komputerach i oprogramowaniu, że nie jest łatwo nadążyć za nią.

Yourdon, Inc.

Firma Yourdon, Inc. została założona przez słynnego autora oprogramowania Eda Yourdona w 1974 roku w Nowym Jorku. Jak omówiono w innym miejscu, aplikacje stawały się duże i złożone. Było oczywiste, że dla aplikacji tak dużych jak systemy operacyjne potrzebne jest coś bardziej rygorystycznego niż nieustrukturyzowany kowbojski rozwój. Interesująca nowa firma Yourdona była jednym z nielicznych startupów z tej dekady, które faktycznie zmieniły sposób opracowywania oprogramowania. Yourdon jest jednym z pionierów ustrukturyzowanego rozwoju, a także jednym z najbardziej płodnych autorów (wraz z dr Geraldem Weinbergiem) książek, które wprowadziły tysiące młodych inżynierów oprogramowania do lepszych metodologii. Yourdon napisał dziesiątki książek, ale jego najsłynniejsza, ze względu na uderzający tytuł, to Decline and Fall of the American Programmer, wydana przez Prentice Hall w 1992 r. Kiedy Yourdon prowadził swoją firmę, rozrosła się do około 150 osób z biurami w Stany Zjednoczone i Europa. Yourdon zapewnił szkolenie i doradztwo setek firm i tysiące inżynierów oprogramowania W 1986 roku Yourdon został sprzedany francuskiej firmie CGI Informatique, później połączone z IBM. Po sprzedaży Yourdon miał pewne trudności z wyodrębnieniem własnego nazwiska na własny użytek, co nie jest rzadkością w przypadku firm nazwanych imionami znanych osób. Firma Yourdona nie budowała ani komputerów ani oprogramowania bezpośrednio, ale dostarczyła niezwykle cennych informacji za pośrednictwem książek i szkoleń dla tych, którzy zajmowali się budowaniem komputerów i oprogramowania. Firma była pionierem w dziedzinie cennej niszy. Yourdon stworzył również słynny magazyn o nazwie American Programmer, który później został przejęty i zmienił nazwę na Cutter IT Journal. To pozostaje jednym z lepszych czasopism związanych z inżynierią oprogramowania.

Wpływ firm założonych w latach 70

Firmy cytowane w tej części pokazują, jak ważne były komputery i oprogramowanie dla operacji korporacyjnych w tej dekadzie. FedEx, NASDAQ i Southwest Airlines wszystkie wykorzystywały komputery i oprogramowanie, aby osiągnąć doskonałość w obsłudze klienta i skierować swoje firmy w nowe kierunki, które prawdopodobnie nie byłyby osiągalne bez komputerów. Spośród firm komputerowych i oprogramowania wymienionych tu, cztery stały się jednymi z największych i najbogatszych firm na świecie: Apple, Microsoft, Oracle i SAP. Wielu przedsiębiorców, którzy założyli te firmy, również stało się bardzo zamożnych, a Bill Gates był przez kilka lat najbogatszym człowiekiem na świecie. Inni przedsiębiorcy, tacy jak Paul Allen, Steve Ballmer, Steve Jobs i Larry Ellison, również stali się osobiście bogaci, podobnie jak Charles Wang, Jeff Bezos, Sergey Brin, Terry Ragon i kilku innych. Inni liderzy tej dekady opublikowali dziesiątki książek, które przekształciły rozwój oprogramowania z nieustrukturyzowanego stylu kowbojskiego w bardziej przewidywalny, ustrukturyzowany styl. Niektórzy z autorów, których prace były wpływowe, to Fred Brooks, Gerald Weinberg, Ed Yourdon, James Martin, Carma McClure i Larry Constantine. Branża komputerowa i oprogramowania była atrakcyjna dla przedsiębiorców po części dlatego, że stworzyły one wielu niedawnych miliarderów i setki milionerów. W stosunkowo krótkim czasie przemysł komputerowy i oprogramowania stworzył ogromne bogactwo i dokonał trwałych zmian w działalności biznesowej i rządowej, a nawet w naszym życiu osobistym.

Uciążliwy rozwój aplikacji

W miarę rozpowszechniania się oprogramowania w latach 70. aplikacje stały się większe i bardziej złożone. Doprowadziło to do pionierskich badań nad ulepszaniem inżynierii oprogramowania. Doprowadziło to również do opublikowania dwóch przełomowych książek, wśród najbardziej znanych do tej pory książek o oprogramowaniu: The Psychology of Computer Programming Geralda Weinberga w 1971 r. I The Mythical Man-Month Fredericka Brooksa w 1975 r. Obaj autorzy byli współpracownikami IBM, który był wylęgarnią badań inżynierii oprogramowania w tej dekadzie. Inne godne uwagi książki z tego dziesięciolecia to Sztuka testowania oprogramowania Glenforda Myersa w 1979 r. Oraz Structured Design Edwarda Yourdona i Larry'ego Constantine'a, również z 1979 r. Tak się składa, że moja pierwsza książka, Program Quality and Programmer Productivity, została opublikowana w 1977 r. W tamtych czasach termin "inżynieria oprogramowania" nie był jeszcze powszechnie używany, a ci którzy tworzyli oprogramowanie, wciąż byli nazywani programistami. Jak widać z tytułów książek i dat publikacji, oprogramowanie zaczęło być badane jako dyscyplina techniczna, która wymagała formalnych metodologii zamiast programowania kowbojskiego przy użyciu technik losowych. Książki te powstały w odpowiedzi na rozwój oprogramowania, wzrost rozmiaru systemów oprogramowania oraz rosnącą liczbę problemów z jakością, które zaczęły przyciągać uwagę. W klasycznej książce Brooksa The Mythical Man-Month poruszono kwestię, która po raz pierwszy stała się ważna w ciągu tej dekady i nadal pozostaje ważna. Problem polega na tym, że gdy aplikacje zaczęły się rozrastać, błędy lub defekty oprogramowania i ilość dokumentacji oprogramowania rosły szybciej niż sam rozmiar mierzony za pomocą punktów funkcyjnych lub linii kodu. System operacyjny IBM omówiony w książce, S / 360, był pierwszą aplikacją IBM, która osiągnęła 1 000 000 linii kodu, czyli około 10 000 punktów funkcyjnych. IBM nie planował utrzymywać S / 360 dłużej niż pięć lat. W połowie lat siedemdziesiątych IBM pracował nad nowym systemem operacyjnym, który miał się nazywać Future System lub w skrócie FS. Byłby co najmniej dziesięć razy większy niż S / 360. Uznano jednak, że nawet IBM miałby problem ze zbudowaniem tak ogromnego systemu, który dotrzymałby zaplanowanego harmonogramu i uczynił go wystarczająco niezawodnym, aby spełniał rygorystyczne standardy jakości IBM. Podczas pracy nad IBM Future System zainteresowałem się rozmiarem wymagań i specyfikacjami. Gdyby zostały one powiększone z rozmiaru podobnych materiałów dla S / 360, przeczytanie łącznej liczby stron zajęłoby pracownikowi IBM 40 lat. Jednym z endemicznych problemów dużego systemu jest to, że ilość dokumentów rośnie szybciej niż rozmiar kodu.

Liczne podkategorie oprogramowania pofragmentowanego

W tej dekadzie cała branża oprogramowania zaczęła się dzielić na szereg podbranż, z których każda stała się duża i zyskowna sama w sobie. Młodsi czytelnicy prawdopodobnie przyjmują te kategorie za pewnik, ponieważ od wczesnego dzieciństwa używali urządzeń sterowanych komputerowo. Starsi czytelnicy urodzeni przed II wojną światową widzieli powstanie całej gamy omawianych tutaj aplikacji, ponieważ żadna z nich nie istniała do lat pięćdziesiątych, a wiele z nich nie istniało aż do lat siedemdziesiątych lub później. Poniższe podrozdziały zawierają krótkie podsumowania tych kategorii oprogramowania. To tylko niektóre z głównych form oprogramowania, które pojawiły się w latach 70.

Oprogramowanie zaawansowane i eksperymentalne

Rodzaje aplikacji uważanych za "zaawansowane" zmieniają się w czasie. W latach 70. dziedziny sztucznej inteligencji i tłumaczeń na język naturalny były pionierami i na pewno były tam zaawansowane. Później interfejsy umysł / maszyna i robotyka stały się tematami zaawansowanych badań. Wirtualna rzeczywistość była również zaawansowanym tematem. Oprogramowanie, które pomaga astronomom i fizykom, jest często zarówno zaawansowane, jak i eksperymentalne. Oprogramowanie diagnostyki medycznej to również temat zaawansowany. Niektóre szczegółowe zaawansowane tematy z lat 70. obejmowały wbudowane urządzenia medyczne, takie jak oprogramowanie stosowane w implantach ślimakowych; Mapowanie GPS, które później stało się dominującą metodą nawigacji i tworzenia map; tłumaczenie na język naturalny; produkcja zrobotyzowana; i sztucznej inteligencji.

Oprogramowanie biznesowe

Oprogramowanie biznesowe obejmuje oprogramowanie obsługujące transakcje bankowe i finansowe, transakcje personalne, księgowanie, przetwarzanie ubezpieczeń, rezerwacje lotnicze i hotelowe oraz wiele innych rodzajów ogólnych transakcji biznesowych. Oprogramowanie biznesowe wyewoluowało z wcześniejszych pakietów księgowych i finansowych, które korzystały z maszyn do tworzenia tabel zamiast prawdziwych komputerów. Kiedy komputery cyfrowe zaczęły zastępować maszyny tabelaryczne, klasa systemów informacji zarządczej (MIS), zaczęły pojawiać się aplikacje. Wkrótce przestawiono się z używania kart dziurkowanych na używanie taśmy magnetycznej do używania napędów dyskowych. Pojawienie się biznesowego oprogramowania MIS skłoniło setki firm do stworzenia wewnętrznych grup programistycznych, a także dużych centrów danych dla swoich komputerów mainframe. Pod koniec lat 70. niektóre z tych kombinacji oprogramowania i centrów danych zatrudniały ponad 5% całkowitej siły roboczej w korporacji. Stosunkowo wysokie koszty takich grup i ich tendencja do opóźnień i przekroczeń kosztów doprowadziły do rozwoju firm outsourcingowych w zakresie oprogramowania, wyspecjalizowanych firm konsultingowych w zakresie zarządzania oraz narzędzi, takich jak narzędzia do oceny parametrycznej, które mogłyby pomóc w utrzymaniu kontroli nad projektami oprogramowania. CA została założona w 1979 roku i jest archetypem firmy zajmującej się sprzedażą biznesowych aplikacji MIS do finansów, księgowości, środków trwałych i innych typowych celów biznesowych. Niektóre specyficzne rodzaje oprogramowania biznesowego obejmują zobowiązania, należności, zapisy zamówień, listy płac dla zwolnionych i zwolnionych pracowników, zarządzanie zapasami i dane klientów.

Oprogramowanie komunikacyjne

Oprogramowanie i komputery szybko przeszły do standardowej telekomunikacji i doprowadziły do powstania przełączników cyfrowych, a ostatecznie do cyfrowych telefonów i smartfonów. Oprogramowanie miało również duży wpływ na przesyłanie danych i doprowadziło do powstania poczty elektronicznej, komunikatorów internetowych i innych form przesyłania danych. Specyficzne rodzaje oprogramowania komunikacyjnego obejmują zarządzanie siecią, systemy przełączania w centrali, systemy przełączania central prywatnych (PBX), routing telefonów komórkowych i wiele innych.

Oprogramowanie do cyberprzestępczości i hakowania

Skomputeryzowane przechowywanie cennych informacji, takich jak rachunki bankowe, numery ubezpieczenia społecznego, akta urodzenia, rejestry karne, rejestry medyczne i inne istotne dane, spowodowało, że cyberprzestępczość stała się niepokojąco dużą i dochodową gałęzią przemysłu. Obecnie istnieje wiele grup zorganizowanych hakerów zajmujących się kradzieżą plików i sprzedaż danych osobowych, biznesowych, a nawet rządowych. Konkretnych rodzajów cyberprzestępczości jest zbyt wiele, aby je tutaj przytaczać. Jednak cyberprzestępstwa obejmują botnety, wirusy, robaki, hakowanie, kradzież tożsamości, phishing, rejestrowanie naciśnięć klawiszy i wiele innych. Aby przeciwdziałać cyberprzestępczości i oprogramowaniu hakerskiemu, pojawiło się wiele kategorii obronnych, w tym zapory ogniowe, programy antywirusowe i antyspamowe oraz niektóre nowsze języki programowania, takie jak E, które mają podnieść odporność oprogramowania na ataki z zewnątrz.

Oprogramowanie bazy danych

Komputery i oprogramowanie szybko stały się preferowanymi narzędziami do przechowywania i analizowania dużych ilości rekordów i danych biznesowych. Nie byłoby to możliwe bez specjalnych rodzajów aplikacji do przechowywania danych w sposób umożliwiający dość wygodny losowy dostęp do określonych rekordów i pól. Technologia baz danych jest jednym z najważniejszych produktów ubocznych komputerów cyfrowych i oprogramowanie. W wyniku technologii baz danych miliony książek, ogromne zbiory przepisów i ogromne ilości danych są dostępne do analizy na niespotykane dotąd sposoby. Staje się to znane jako duże zbiory danych i jest to koncepcja, która zostanie omówiona w dalszych rozdziałach. Obecnie istnieje co najmniej kilkanaście schematów baz danych, takich jak hierarchiczne, relacje, relacje między jednostkami itp. Istnieją również dziesiątki komercyjnych silników baz danych i narzędzi zapytań, takich jak Access, DB2, SQL, MySQL, NoSQL, Oracle i wiele innych. . Jest to główna dziedzina inżynierii oprogramowania i jest aktywnym tematem badań od 50 lat lub dłużej.
Oprogramowanie edukacyjne

Podczas jednego z ich ostatnich spotkań przed śmiercią Steve′a Jobsa jednym z tematów rozmów między Steve'em Jobsem i Billem Gatesem było wspólne rozczarowanie, że komputery nie miały tak wielkiego wpływu na edukację, jak sobie życzyli. Dostępnych jest kilka bardzo dobrych narzędzi edukacyjnych zarówno do zwykłych celów edukacyjnych, jak i do edukacji specjalnej dla uczniów niewidomych, niesłyszących lub niepełnosprawnych. Jednak zwykłe szkoły publiczne częściej używają oprogramowania do celów logistycznych, takich jak harmonogramy i listy płac, niż do celów edukacyjnych. Nawet w liceum oprogramowanie jest w mniejszym lub większym stopniu używane w tle, z wyjątkiem niektórych szkół, które uczą programowania. W niektórych stanach, takich jak Pensylwania, istnieją korporacje, które połączyły swoje zasoby w celu nabycia komputerów i oprogramowania, które są następnie przekazywane szkołom w śródmieściu, które mogą nie mieć funduszy na zakup takich narzędzi. Niektórzy z tych darczyńców korporacyjnych zapraszają również grupy studentów do odwiedzenia biur i sprawdzenia, co to będzie , będzie chciał pracować u jednego po ukończeniu studiów. Grupy te finansują również wycieczki terenowe, więc uczniowie szkół podstawowych mogą odwiedzać uniwersytety, ponieważ wiele małych dzieci w ogóle nie ma pojęcia, jak wyglądałoby życie w college'u. Z drugiej strony, poza szkołą, dzieci już od najmłodszych lat zaczynają korzystać ze smartfonów i komputerów. W rzeczywistości znaleziono wielu hakerów-samouków, którzy nie mają więcej niż 15 lat. W kilku okręgach szkolnych, na przykład w Kalifornii, zaczęto zastępować papierowe podręczniki e-bookami na Amazon Kindle, Nooks lub iPad. Jednak komputery i oprogramowanie mogłyby być prawdopodobnie skuteczniejsze i szerzej stosowane niż obecnie. Konserwatyzm ze strony dyrektorów szkół i fakt, że rady szkolne i wielu nauczycieli nie są w pełni zaznajomieni z obsługą komputera może być czynnikiem sprawczym.

Wbudowane oprogramowanie

Jedną z głównych gałęzi przemysłu oprogramowania jest oprogramowanie wbudowane w urządzenia fizyczne. Niektóre z ważniejszych form oprogramowania wbudowanego obejmują oprogramowanie w urządzeniach medycznych, oprogramowanie sterujące silnikami samochodowymi, oprogramowanie awioniki sterujące samolotami podczas lotu oraz setki wbudowanych aplikacji w produktach konsumenckich, od telewizorów po teleskopy. Prawdopodobnie zainstalowanych jest więcej aplikacji wbudowanych niż jakiejkolwiek innej znanej formy oprogramowania. Dzieje się tak, ponieważ niektóre aplikacje wbudowane są używane w milionach urządzeń fizycznych. Przykładowo, prawie każdy nowoczesny samochód korzysta obecnie z oprogramowania wbudowanego w układy zapobiegające blokowaniu się hamulców, a wiele z nich korzysta również z oprogramowania wbudowanego do wtrysku paliwa. Miliony "inteligentnych" urządzeń, takich jak telewizory, pralki, kuchenki mikrofalowe, a nawet budziki i zegarki na rękę są obecnie kontrolowane przez wbudowane aplikacje. W krajach uprzemysłowionych przeciętny pracownik umysłowy z wykształceniem wyższym prawdopodobnie korzysta codziennie z co najmniej 50 urządzeń wbudowanych, często nawet o tym nie wiedząc. Jeśli mamy problemy zdrowotne, takie jak głuchota lub wada serca, wbudowane urządzenia mogą zostać wszczepione w nasze ciała. W ciągu ostatnich 35 lat urządzenia wbudowane były używane w prawie każdym rodzaju nowoczesnego urządzenia i części złożonego wyposażenia mechanicznego. Powszechne stosowanie urządzeń wbudowanych nie jest pozbawione nowych i współczesnych problemów. Złożono pozwy z powodu awarii hamulców lub niezamierzonego przyspieszenia samochodu. W przypadku awarii urządzenia sterowanego komputerowo nie można już dokonywać napraw; zamiast tego konieczna jest teraz wymiana uszkodzonego urządzenia wbudowanego na nowe, często przy znacznych kosztach. Ostatni problem wynikający z naszej niedawnej zależności od urządzeń wbudowanych polega na tym, że cyberprzestępcy mogą zhakować niektóre z nich lub uzyskać do nich dostęp zdalny. Co gorsza, impuls elektromagnetyczny (EMP) spowodowany eksplozją jądrową i prawdopodobnie silnymi burzami słonecznymi może wyłączyć lub uszkodzić wbudowane urządzenia, prawdopodobnie nie do naprawienia.

Oprogramowanie do gier i rozrywki

Przemysł gier komputerowych jest jednym z najbardziej uderzających nowych rodzajów biznesów w całej historii. Pomysł milionów ludzi wchodzących w interakcje w wirtualnych środowiskach nie był nawet marzeniem science fiction, dopóki te gry nie zaczęły pojawiać się w prawdziwym życiu. Komputery i oprogramowanie zmieniły również produkcję filmową i doprowadziły do niesamowicie realistycznych efektów specjalnych i niemal fotograficznego realizmu obrazów, które są generowane wyłącznie komputerowo. Komputery i oprogramowanie również miały wpływ na kompozycję i występy muzyczne. Rzeczywiście, prawie każdy nastolatek ma w dowolnym momencie dostęp do tysięcy pobranych utworów. Niektóre specyficzne gry i programy rozrywkowe obejmują repliki gier planszowych, takich jak szachy i tryktrak; setki gier karcianych; jeden gracz takiej gry takie jak klasyczny Doom, a ostatnio także gry RPG dla wielu graczy (MMORPG). Animacja komputerowa jest obecnie dominującym narzędziem w kreskówkach i filmach pełnometrażowych. Skomputeryzowane serwisy muzyczne, takie jak Pandora, wykorzystują zaawansowane algorytmy do klasyfikowania kompozytorów i typów muzycznych; kompozytorzy i wykonawcy mogą teraz pisać muzykę i nagrywać ją za pomocą urządzeń wbudowanych i komputerów. Syntezatory muzyczne są starsze niż komputery, ale wszystkie nowoczesne używają wbudowanych chipów i oprogramowania.

Oprogramowanie produkcyjne

Przez setki lat linie montażowe i obrabiarki były sterowane ręcznie przez wykwalifikowanych operatorów. W latach siedemdziesiątych XX wieku komputery zaczęły być stosowane na liniach montażowych i przy powtarzalnych operacjach. Ostatecznie doprowadziłoby to do w pełni zautomatyzowanej produkcji z bardzo niewielką liczbą ludzi zaangażowanych w proces. Nie tylko produkcja sprzętu, ale także produkcja chemiczna, farmaceutyczna i naftowa będzie coraz bardziej zautomatyzowana. Obecnie wiele firm stosuje produkcję just-in-time i to wszystko. Kolejność od zamówienia surowca do końcowego montażu kontrolowana jest komputerowo. Produkcja robotyczna zmniejszyła siłę roboczą w warsztatach w sektorach motoryzacyjnym i lotniczym, a także w obszarze inteligentnych urządzeń i smartfonów.

Oprogramowanie pośredniczące

Komputery i oprogramowanie są symbiotyczne. Sprzęt jest obojętny, chyba że jest kontrolowany przez specjalne rodzaje oprogramowania zwane systemami operacyjnymi, które obsługują dyski, porty komunikacyjne i inne fizyczne atrybuty. Aplikacje, z których korzystają klienci i na których im zależy, znajdują się na wierzchu systemów operacyjnych, ale nie bezpośrednio na nich. Pomiędzy systemami operacyjnymi a aplikacjami użytkownika znajduje się warstwa zwana oprogramowaniem pośrednim, która wysyła żądania z aplikacji do systemu operacyjnego system, przetwarzanie rozproszone, przetwarzanie żądań internetowych i inne usługi. Dokładny charakter oprogramowania pośredniczącego jest nieco niejednoznaczny. Niektóre konkretne przykłady oprogramowania pośredniego obejmują silniki gier, które pomagają twórcom gier łączyć się z chipsetami graficznymi, biblioteki usług obsługujących multimedia oraz multimedialną platformę domową w inteligentnych telewizorach.

Oprogramowanie wojskowe

Począwszy od SAGE w latach pięćdziesiątych Departament Obrony i służby wojskowe były liderami w korzystaniu zarówno z komputerów, jak i oprogramowania. W rzeczywistości, nawet przed komputerami cyfrowymi, wojsko miało długą i pełną sukcesów historię z komputerami analogowymi. Były one używane do celowników bombowych, celowania torpedowego, sterowania działami okrętowymi, celowania przeciwlotniczego i do wielu innych celów. W rzeczywistości komputery analogowe były dominującymi wojskowymi silnikami obliczeniowymi do końca wojny w Wietnamie. Komputery cyfrowe są obecnie głównymi komponentami operacyjnymi wszystkich wyrafinowanych systemów uzbrojenia, w tym samolotów bojowych, pocisków kierowanych, okrętów wojennych, czołgów bojowych i zasadniczo każdego złożonego urządzenia. Oczywiście systemy uzbrojenia to nie jedyne rodzaje oprogramowania, z którego korzystają służby mundurowe. Setki innych rodzajów aplikacji są potrzebne do logistyki, planowania, komunikacji, dokumentacji medycznej, dokumentacji kadrowej, płac, zakupów i normalnych funkcji biznesowych. Departament Obrony Stanów Zjednoczonych jest obecnie największym na świecie właścicielem oprogramowania, które starzeje się i wiąże się ze znacznymi kosztami utrzymania. Niektóre z największych systemów oprogramowania w historii zostały zbudowane przez Departament Obrony USA i służby mundurowe. Jednym z nich był Światowy Wojskowy System Dowodzenia i Kontroli (WWMCCS), który podobno przekroczył 300 000 punktów funkcyjnych lub ponad 21 000 000 linii kodu. W ostatnich latach służby wojskowe stworzyły jednostki cyberwojny w celu ochrony zasobów cybernetycznych USA i wymyślania możliwych przyszłych ofensyw przeciwko cyberasetom wroga w przypadku fizycznej wojny. Siła Stanów Zjednoczonych w zakresie komputerów i oprogramowania jest silnym atutem wojskowym. Jednak inne kraje próbują nadrobić zaległości, a Chiny są drugim krajem pod względem wykorzystania komputerów i oprogramowania do celów wojskowych. W rzeczywistości Chiny mają obecnie większą jednostkę ds. Cyberwojny niż Stany Zjednoczone.

Oprogramowanie open source

Zaskakujące jest, że dziedzina oprogramowania typu open source rozrosła się mniej więcej tak szybko, jak inne nowe dziedziny oprogramowania. Jeszcze bardziej zaskakujące jest to, że jakość pakietów open source często wypada korzystnie w porównaniu z komercyjnymi aplikacjami, z których niektóre są dość drogie. Temat open source jest zawarty w tym rozdziale w latach 70. XX wieku, ponieważ jeden z założycieli koncepcji, Richard Stallman, zaczął udostępniać oprogramowanie opracowane na MIT innym uniwersytetom od 1970 roku. Wyrażenie "open source" oznacza, że kod źródłowy oprogramowania jest dostępny dla społeczności użytkowników, a użytkownicy mogą modyfikować kod, jeśli chcą. Kategoria open source pokrywa się, ale nie jest identyczna z kategorią freeware. Jak sama nazwa wskazuje, oprogramowanie freeware jest rozpowszechniane bezpłatnie. Jednak nie każda bezpłatna aplikacja zawiera kod źródłowy. Niektóre programy typu open source należą do najczęściej używanych aplikacji współczesnych. Kilka przykładów aplikacji open source, które mają miliony użytkowników, to m.in. Mozilla Firefox; system operacyjny Android; oraz pakiet narzędzi Open Office, który obejmuje edytor tekstu, arkusz kalkulacyjny, program do slajdów, pakiet do rysowania i nie tylko. Wiele języków programowania oraz ich kompilatory i narzędzia są również open source, takie jak Perl, PHP, Python i Ruby. System operacyjny Linux jest również open source. Tylko dlatego, że aplikacja jest open source, nie daje użytkownikom nieograniczonych uprawnień do robienia czegokolwiek z aplikacją i jej kodem źródłowym. Wiele produktów o otwartym kodzie źródłowym jest dystrybuowanych przy użyciu dobrze znanej Powszechnej Licencji Publicznej GNU (GPL), która została stworzona przez Richarda Stallmana z Free Software Foundation. Licencja GNU pozwala użytkownikom modyfikować kod, ale produkty wykorzystujące oryginalny lub zmodyfikowany kod muszą również korzystać z licencji GNU. Nazywa się to kopiowaniem w lewo w przeciwieństwie do kopiowania w prawo. Istnieją witryny i usługi zawierające listę narzędzi typu open source i freeware. Taką stroną jest SourceForge.net. Obecnie istnieje około 50 000 dostępnych aplikacji typu open source, z których mniej więcej połowa korzysta z licencji GNU GPL. Domena oprogramowania typu open source obejmuje coraz więcej interesujących i przydatnych aplikacji oraz dość wyrafinowany sposób opracowywania oprogramowania, wydawania go i naprawiania błędów. Open source nie jest bynajmniej chaotyczny, ale nie jest też rygorystyczny i poddany reżimowi. Ciekawą książką o ruchu open source jest The Cathedral and the Bazaar, napisana przez Erica Raymonda w 1997 roku. Podtytuł książki to Rozważania o Linuksie i Open Source przez przypadkowego rewolucjonistę. Tematem książki jest to, że konwencjonalne komercyjne oprogramowanie jest zbudowane jak katedra ze starannymi planami i formalną organizacją. Z drugiej strony oprogramowanie typu open source działa jak bazar z dziesiątkami dostawców mniej lub bardziej współpracujących zgodnie z ogólnymi wytycznymi.

Oprogramowanie osobiste

Lata siedemdziesiąte byłyby dopiero początkiem aplikacji do użytku osobistego, które nie przyniosłyby skutku aż do pojawienia się komputerów przenośnych i przenośnych urządzeń inteligentnych w przyszłych dziesięcioleciach. Jednak aplikacje takie jak zarządzanie kalendarzami, przetwarzanie tekstu i arkusze kalkulacyjne pojawiły się w ciągu tej dekady. W dzisiejszym świecie dostępne są różnorodne niezwykle wyrafinowane pakiety oprogramowania. Niektóre przenośne smartfony mają polecenia uruchamiane głosem, które mogą przekazywać ich właścicielom przydatne informacje, takie jak nazwy pobliskich restauracji. Mapy GPS są endemiczne i mogą wskazywać optymalne trasy samochodem, rowerem lub pieszo. Wśród tych, którzy interesują się astronomią, mapy gwiazd zapewniają wspaniały widok każdej większej gwiazdy, planety i konstelacji w każdym kierunku, w tym przez Ziemię. Wielu z nas nie prowadzi już ręcznych list telefonów lub książek adresowych, ponieważ nasze osobiste akta są dostępne online. Jeśli chcemy coś kupić, nasze komputery, tablety lub smartfony mogą dostarczyć informacji i adresów lokalnych sklepów. Mogą również pokazywać ceny porównawcze poszczególnych produktów w lokalnych sklepach. Jeśli nie potrzebujemy tego produktu dzisiaj, możemy go kupić przez internet i prawdopodobnie uniknąć płacenia podatków lokalnych lub stanowych. Komputery i oprogramowanie wywarły bardzo duży wpływ na nasze życie osobiste i style komunikacji. Wielu z nas ma o wiele więcej "przyjaciół" w sieciach społecznościowych niż w prawdziwym życiu. Możemy spędzać więcej czasu, wysyłając SMS-y z naszymi prawdziwymi przyjaciółmi, niż spędzając z nimi rzeczywistą rozmowę.

Oprogramowanie narzędzi programistycznych

Wraz ze wzrostem liczby inżynierów oprogramowania lub programistów pojawiły się rynki wyspecjalizowanych narzędzi, takich jak narzędzia do debugowania, narzędzia do śledzenia i interaktywne środowiska programistyczne (IDE). Najstarsze narzędzia programistyczne pojawiły się w latach pięćdziesiątych XX wieku w postaci asemblera i wczesne kompilatory dla języków wyższego poziomu. W dzisiejszym świecie współcześni programiści mają ponad 50 rodzajów narzędzi, w tym narzędzia wymagań, narzędzia do projektowania, narzędzia wspomagające inspekcję, generatory przypadków testowych, narzędzia do obsługi bibliotek testów, zautomatyzowane narzędzia do testowania, narzędzia do debugowania, narzędzia do reengineeringu, narzędzia do dokumentacji, narzędzia do śledzenia defektów i zbyt wiele innych, by je wymienić.

Oprogramowanie do zarządzania projektami

Techniczne części zarządzania projektem obejmują planowanie, alokację zasobów, szacowanie kosztów i gromadzenie danych o kosztach, zarządzanie zmianami, raportowanie statusu i analizę jakości. Komputery i oprogramowanie od dawna są przydatne dla kierowników projektów w każdej dziedzinie. W latach siedemdziesiątych XX wieku pojawiły się narzędzia do parametrycznej oceny oprogramowania. W dzisiejszym świecie tego typu oprogramowanie jest używane przez miliony kierowników projektów do obsługi takich tematów, jak alokacja personelu, śledzenie postępów, budżety, szacowanie kosztów, szacowanie jakości, operacje biura projektowego i propozycje nowych firm. W przypadku projektów oprogramowania istnieje wiele potężnych narzędzi do szacowania parametrycznego, które są na ogół dokładniejsze niż szacunki ręczne. Należą do nich COCOMO II, Cost Xpert, KnowledgePLAN, SEER, SLIM, Software Risk Master (SRM) i TruePrice. Wszystkie te przewidują koszty tworzenia oprogramowania. Niektórzy przewidują również jakość. Jeden, SRM, ma specjalne szacunki dotyczące uruchamiania oprogramowania wspieranego przez venture, a także prawdopodobieństwa i kosztów sporów sądowych między wykonawcami outsourcingu a ich klientami.

Oprogramowanie naukowe i matematyczne

Stworzono komputery, aby przyspieszyć złożone operacje matematyczne wymagane przez naukowców, takich jak astronomowie, chemicy i fizycy. Specjalistyczne oprogramowanie do statystyki i operacji matematycznych stało się teraz tak łatwe w użyciu, że jest dostępne dla uczniów szkół średnich. Zwykłe arkusze kalkulacyjne mogą obsługiwać różne typowe obliczenia. Dostępne są bardziej specjalistyczne pakiety, takie jak SAGE, SAS, MatLab, Mathematica i co najmniej 50 innych. Niektóre są darmowe, inne open source, a inne są produktami płatnymi. Innym przykładem jest język programowania R, który jest darmowy i szeroko stosowany w aplikacjach statystycznych.

Oprogramowanie zabezpieczające i ochronne

Pojawienie się hakerów, wirusów, robaków i ataków typu "odmowa usługi" stworzyło nową krytyczną branżę firm, które opracowują i sprzedają narzędzia antywirusowe, zapory sieciowe i inne rodzaje oprogramowania ochronnego. Trwa gorący techniczny wyścig między cyberprzestępcami a cyberobrońcami. Główne zagrożenia obejmują wirusy, robaki, oprogramowanie szpiegowskie, botnety, ataki typu "odmowa usługi", kradzież tożsamości i wiele innych. Główne produkty obronne obejmują zapory ogniowe i kilkanaście narzędzi złośliwego oprogramowania i antywirusów, takich jak AVG, Avira, Bitdefender, Kaspersky, McAfee, Microsoft Security, Norton i wiele innych.

Oprogramowanie sieci społecznościowych

Sieci społecznościowe mają miliony członków w praktycznie każdym kraju na świecie. Najpopularniejszymi sieciami społecznościowymi są obecnie Facebook, Twitter, Linkedln i starsza wersja America Online (AOL). Nie do końca sieci społecznościowe jako takie, ale mające podobny wpływ na codzienne życie, to Craigslist i Angie's List, używane przez miliony konsumentów do wyszukiwania produktów i recenzji usług. Witryny Wiki to kolejna nowa forma sieci społecznościowych, która doprowadziła do crowdsourcingu, w którym różne grupy osób mogą zająć się dość złożonymi problemami w jednym miejscu w sieci. Sieci społecznościowe wywodzące się z wcześniejszych technologii, takich jak tablice ogłoszeń i poczta e-mail. Stopniowo dodawali funkcje, takie jak czat, obrazy, zdjęcia i inne nowsze funkcje, takie jak dźwięk. W sieci pojawia się ponad 100 głównych sieci społecznościowych i prawdopodobnie co miesiąc pojawia się jedna lub dwie nowe. YouTube, MySpace, SecondLife i Friendster to inne przykłady sieci społecznościowych. Gry komputerowe dla wielu graczy nie są czystymi sieciami społecznościowymi, ale nakładają się na to pole, ponieważ gracze są ze sobą w kontakcie. Największy jest Facebook z 200 milionami subskrybentów. Jednak dziesiątki sieci społecznościowych mają ponad 10 milionów subskrybentów. Sieci społecznościowe to zjawisko, które zaczęło się mniej niż 30 lat temu, ale łączna liczba członków wszystkich sieci społecznościowych jest prawdopodobnie równa jednej siódmej populacji świata. Użytkownicy sieci społecznościowych różnią się w zależności od wieku, zawodu i innych zmiennych. Uczniowie na poziomie college'u intensywnie korzystają z sieci społecznościowych. Osoby poniżej 25 roku życia zazwyczaj są członkami kilku sieci społecznościowych i używają ich codziennie. Osoby w wieku powyżej 65 lat mogą w ogóle nie korzystać z sieci społecznościowych, a niektórzy nic o nich nie wiedzą.

Oprogramowanie narzędzi pomiarowych

Jednym z bardziej powszechnych zastosowań komputerów w epoce nowożytnej jest poznanie opinii ludzi na różne tematy. Przed pojawieniem się Internetu i sieci ankiety drukowano na papierze i rozprowadzano pocztą, a obie te metody były dość drogie. W dzisiejszym świecie ankiety są łatwe do zaprojektowania i zbudowania, a także mogą być dystrybuowane na całym świecie lub do dowolnej wybranej grupy docelowej niemal natychmiast przez Internet. Przeszukanie w Internecie narzędzi ankietowych znalazło ponad 50 z nich, od oprogramowania darmowego po dość drogie produkty komercyjne. Kilka przykładów to Survey Crafter, Survey Monkey, Limesurvey, QuestionPro, Keysurvey, Formsite, SurveyGizmo i Google Forms.

Oprogramowanie narzędziowe

Ogólny termin "oprogramowanie narzędziowe" obejmuje różnorodne narzędzia służące do manipulowania danymi, kodem i innymi artefaktami. Programy sortowania są głównym przykładem pakietów narzędziowych. Niektóre popularne programy narzędziowe obejmują defragmentację dysków, narzędzia do czyszczenia bałaganu, takie jak CClean, Norton Utilities, programy naprawcze rejestru i programy do przesyłania plików. Prawdopodobnie istnieje ponad 100 narzędzi, ale nie ma dokładnej definicji tego, czym właściwie jest narzędzie, ponieważ robi tak wiele rzeczy. Jak widać, cała dziedzina inżynierii oprogramowania, podobnie jak praktyka medyczna i prawnicza, tworzy wiele wyspecjalizowanych dziedzin i dyscyplin. Taksonomia w tej sekcji przedstawia 20 różnych rodzajów aplikacji. Przed 1970 rokiem istniały tylko dwa popularne rodzaje oprogramowania: naukowe i wojskowe. Wszystkie inne różnorodne formy oprogramowania zaczęły rosnąć i rozszerzać się pod koniec lat sześćdziesiątych, ale rozwijały się bardzo szybko w latach siedemdziesiątych. Młodsi czytelnicy prawdopodobnie używali tego rodzaju oprogramowania od dzieciństwa. Starsi czytelnicy urodzeni przed II wojną światową mogli aktywnie uczestniczyć w tworzeniu tych kategorii oprogramowania.

Pozew, który zmienił historię komputerów

W kwietniu 1973 r. ostatecznie rozstrzygnięto najdłuższy federalny proces biznesowy w historii Stanów Zjednoczonych. To był spór patentowy pomiędzy Honeywell i Sperry-Rand. Była to złożona sprawa z zarzutami i kontrargumentami, setkami świadków i tysiącami stron dokumentów odkrywczych obejmujących pełną historię przemysłu komputerowego. Wniosek patentowy został złożony na komputerze ENIAC w 1947 r., ale urząd patentowy wydał go dopiero w 1964 r. ENIAC został zbudowany przez J. Prespera Eckerta i Johna W. Mauchly'ego, ale patent został nabyty przez Sperry-Rand. Ponieważ patent obejmował podstawowy projekt i cechy komputerów cyfrowych, inne firmy, takie jak IBM, były zobowiązane do płacenia tantiem za wszystkie komputery cyfrowe, które miały takie same lub podobne funkcje, jak te objęte patentem. Niektóre z firm obciążonych opłatami licencyjnymi to Burroughs, Control Data, General Electric, Honeywell, National Cash Register, Philco Ford i RCA. (IBM nie postawił zarzutów, ponieważ zawarł porozumienie o współudziale patentu ze Sperry-Rand.) Sędzią federalnym w tej sprawie był Earl R. Larson, a jego decyzja została wydana 19 października 1973 r. sam w sobie bardzo obszerny dokument, w którym zasadniczo stwierdzono, że patent ENIAC jest niewykonalny i nieważny z wielu różnych powodów. Jeden aspekt tej decyzji był i nadal jest kontrowersyjny. Sędzia stwierdził mimochodem, że wynalazcami komputera cyfrowego nie byli Eckert i Mauchly, ale raczej John V. Atanasoff, którego komputer ABC omówiono w rozdziale 3. Tak się złożyło, że Mauchly odwiedził Atanasoffa i widział komputer ABC, a także napisał o tym list. Komputery ABC i ENIAC różniły się pod wieloma względami, więc opinia sędziego do dziś pozostaje kontrowersyjna. W każdym razie decyzja unieważniająca patent ENIAC otworzyła dziesiątkom firm drogę do rozpoczęcia budowy komputerów cyfrowych bez płacenia tantiem na rzecz Sperry-Rand. Konsekwencje tej decyzji są znaczące dla rozwoju branży komputerowej i oprogramowania. Jest całkiem możliwe, że gdyby tantiemy pozostały w mocy, małe firmy, takie jak Apple, Altair, Atari, Commodore, Data General, Prime, Sun, Tandem, Tandy i Wang nigdy nie zostałyby uruchomione, ponieważ tantiemy żądane od każdej firmy były różne, od 20 milionów do 250 milionów dolarów. Gdyby pozew poszedł w drugą stronę, a patent ENIAC zostałby potwierdzony, dzisiejszy przemysł komputerowy i oprogramowania byłby prawdopodobnie zupełnie inny niż się stał. Dominowałyby duże firmy i prawdopodobnie różnorodność oferty sprzętu i oprogramowania byłaby znacznie mniejsza.

Wynalazki umożliwiające tło

Bez jakiejś wygodnej metody przechowywania oprogramowania trudno byłoby mieć prawdziwy przemysł oprogramowania. Jednym z przełomowych wynalazków współczesnego oprogramowania był rozwój dyskietek i stacji dyskietek w 1971 roku. Pierwsza dyskietka miała 8 cali średnicy i zawierała tylko około 80 kilobajtów informacji. Ale dyskietka okazała się sukcesem i stała się standardową funkcją IBM S / 370. Współcześni czytelnicy, którzy używają dysków flash lub zewnętrznych dysków twardych, które ważą tylko uncję lub dwie, byliby zaskoczeni, jak duże i ciężkie były wczesne ośmiocalowe dyski. Dysk twardy czasami ważył 40 funtów. Mimo to dyskietki stanowiły skuteczny nośnik do przechowywania, transportu i marketingu oprogramowania, bez którego nie byłoby przemysłu programistycznego.

Starsze nośniki pamięci, takie jak karty perforowane, taśma papierowa i taśma magnetyczna, nie były odpowiednie dla powszechnych dystrybucji oprogramowania. Karty perforowane i taśma papierowa były krótkotrwałe i podatne na uszkodzenia spowodowane wilgocią i wodą. Taśma magnetyczna była nieporęczna i podlegała dość szybkiej degradacji magnetycznej. Dyski typu mainframe istniały, ale były zbyt ciężkie i duże do użytku domowego. Co równie ważne, Ted Codd z IBM w San Jose zaczął publikować opisowe informacje o modelu relacyjnej bazy danych, co doprowadziłoby do ogromnej poprawy dostępu do danych i szybkości dostępu do danych. Technologia relacyjnych baz danych otworzyła również rynki dla wielu nowych dostawców, takich jak Ingres i Sybase, a także własny System R. Mechanizm kwarcowy używany w nowoczesnych zegarkach sięga lat dwudziestych XX wieku, ale potrzebował półprzewodników, aby przenieść się do małych osobistych zegarków. Centrum Electronique Horloger (CEH) zbudowało działający analogowy zegarek kwarcowy w 1967 r. Firma Sony zbudowała udany zegarek kwarcowy, Astron, w 1969 r. W 1972 r. Hamilton przedstawił pierwszy zegarek cyfrowy, Pulsar. Ten zegarek kosztował około 2100 dolarów, kiedy pojawił się po raz pierwszy. Wcześniej Hamilton zbudował zegar cyfrowy, który pojawił się w filmie 2001: Odyseja kosmiczna. W dzisiejszym świecie cyfrowe mechanizmy kwarcowe są niedrogie i dominują w pomiarze czasu. Miliardy urządzeń do pomiaru czasu i czasu są dostępne w zegarkach, minutnikach, urządzeniach medycznych, urządzeniach wojskowych i wszystkim innym, co wymaga dokładnego pomiaru czasu. Rok 1970 to początek systemu operacyjnego UNIX, który stał się jedną z najpopularniejszych aplikacji w historii. W tej dekadzie pojawiły się również minikomputery i specjalistyczne komputery do przetwarzania tekstu i zadań biurowych. Wśród firm z tej niszy były DEC ze swoimi komputerami PDP i VAX, Wang z wyspecjalizowanymi maszynami do edycji tekstu i małymi komputerami oraz Prime Computers. Fizyczne zmniejszenie rozmiarów i wagi komputerów, od komputerów typu mainframe po minikomputery, pokazało, że wkrótce będzie możliwe posiadanie komputerów, które byłyby wystarczająco małe, aby można je było przenosić i przenosić. Komputer IBM 5100, wydany we wrześniu 1975 roku, był pierwszym komputerem, który można było przenosić z miejsca na miejsce, chociaż wymagał pewnej siły fizycznej, ponieważ ważył około 55 funtów. W 1976 roku po tym "przenośnym" komputerze pojawił się NoteTaker firmy Xerox Park, który był prototypem, który później stał się wzorem dla urządzeń przenośnych Osborne i Compaq w następnej dekadzie. Każdy z tych urządzeń przenośnych ważył około 26 funtów. W latach siedemdziesiątych XX wieku dostrzegano zapotrzebowanie na komputery przenośne, ale technologia zmniejszania komputerów do prawdziwie przenośnych rozmiarów pojawiła się dopiero w późniejszych dziesięcioleciach. Również w 1976 roku matematyk Tom McCabe opracował miarę cyklomatycznej złożoności. Mierzy kontrolę ścieżek za pośrednictwem aplikacji. Pozostał kluczowym wskaźnikiem od ponad 35 lat. W tym dziesięcioleciu pojawiło się również zastosowanie oprogramowania wbudowanego w stale powiększającej się rodzinie urządzeń fizycznych. Na przykład pierwszy szeroko stosowany implant ślimakowy został opracowany w 1972 roku. Implanty ślimakowe chirurgicznie osadzają druty, które zastępują uszkodzony ślimak, a jakość dźwięku jest regulowana przez oprogramowanie w urządzeniu wbudowanym. W październiku 1978 roku Al Albrecht z IBM w White Plains wygłosił pierwsze publiczne przemówienie na temat punktów funkcyjnych na wspólnej konferencji IBM / SHARE / GUIDE w Monterey w Kalifornii. W 1979 roku Dan Bricklin i Bob Frankston przedstawili aplikację VisiCalc dla komputerów Apple, która znacznie rozszerzyła wykorzystanie komputerów osobistych do osobistych finansów i łatwego modelowania matematycznego. VisiCalc został również wydany na IBM PC w 1981 roku. W tej dekadzie nastąpiła ewolucja języków wyższego poziomu. Niektóre z języków stworzonych w tej dekadzie to Pascal i Forth w 1970 roku; C, Smalltalk i Prolog w 1972 roku; COMAL i EML w 1973 roku; ELAN w 1974 roku; Scheme i RATFOR w 1975 roku; i SQL w 1978 r. Dołączyły one do COBOL, FORTRAN i PL / I, a eksplozja języków była już w toku. Od tej dekady nowe języki pojawiały się prawie co miesiąc, a łączna liczba języków przekracza obecnie 2500. Eksplozja języków programowania wydaje się być bardziej zjawiskiem socjologicznym niż prawdziwą potrzebą techniczną. Istnienie tak wielu języków programowania sprawia, że obsługa starszych aplikacji jest złożona i trudna. Rzeczywiście, oczekiwana długość życia dużej aplikacji jest czasami dłuższa niż żywotność języka, w którym została utworzona. W tej dekadzie wystąpiło także inne zjawisko, które w obecnej dekadzie nadal się pogłębia. Aplikacje zaczęły używać wielu języków, takich jak COBOL i SQL lub, ostatnio, Java i HTML. Z mojego zbioru danych wynika, że przeciętna aplikacja zawiera około 2,5 różnych języków programowania. Zauważyłem, że maksymalna liczba języków programowania w jednej aplikacji to 15, a całkiem sporo aplikacji używa więcej niż pół tuzina. Mnogość języków niekoniecznie jest korzystna dla branży. Programowanie może być nieco wspomagane, ale zadanie utrzymania i ulepszania starszych aplikacji napisanych w martwych lub umierających językach stało się głównym czynnikiem kosztotwórczym dla branży oprogramowania. W latach 70. XX wieku nastąpiła również wczesna ewolucja programowania strukturalnego i narodziny programowania zorientowanego obiektowo. Dekada była świadkiem gwałtownej migracji komputerów i oprogramowania z domeny naukowej i wojskowej do domeny biznesowej. W tej dekadzie, która była okresem gwałtownego rozwoju oprogramowania we wszystkich segmentach przemysłu, firma IBM stała się jednym z największych światowych dostawców komputerów i oprogramowania.

Punkty funkcyjne w 1975 roku

Punkty funkcyjne zostały wynalezione przez IBM w White Plains przez A1 Albrecht i jego współpracowników około 1975 r. i zostały opublikowane poza IBM w 1978 r. Formalne inspekcje zostały opracowane przez IBM w ciągu tej dekady przez Mike'a Fagana, Rona Radice i współpracowników z IBM Kingston. W tej dekadzie IBM był pionierem w dziesiątkach technologii inżynierii oprogramowania i zdobył doskonałą reputację w zakresie jakości i niezawodności zarówno sprzętu, jak i oprogramowania. Dla tego samego zastosowania 1000 punktów funkcyjnych wyniki byłyby następujące:

•  Instrukcje kodu źródłowego dla 1000 punktów funkcyjnych: 91 426 instrukcji kodu logicznego
•  Język programowania: C
•  Procent ponownego wykorzystania: 0% do 10%
•  Metodologia: nieustrukturyzowany wodospad
•  Wydajność: 6,00 punktów funkcyjnych na miesiąc pracownika
•  Potencjały defektu: 5,00 na punkt funkcyjny
•  Skuteczność usuwania defektów (DRE): 85%
•  Dostarczone wady: 0,75 na punkt funkcyjny

Stosunek personelu programistycznego do utrzymania:

•  Rozwój: 80%
•  Konserwacja: 20%

Poniżej przedstawiono podstawowe dane za rok 1975:

•  Średni poziom języka: 3,50
•  Liczba języków programowania: 100
•  Instrukcje logiczne na punkt funkcyjny: 91
•  Średnia wielkość aplikacji: 950 punktów funkcyjnych
•  Średni rozmiar aplikacji: 86 450 instrukcji kodu logicznego

Połączenie lepszych języków programowania i zwiększonego rygoru programistycznego było odpowiedzialne za wzrost produktywności i jakości. Jednak w przypadku dużych projektów oprogramowania nadal występowały przekroczenia kosztów i harmonogramu oraz stanowczo zbyt wiele błędów. Anulowane projekty zawierające ponad 10 000 punktów funkcyjnych pozostały problemem endemicznym.

Podsumowanie

Unbundling oprogramowania przez IBM w 1969 r. otworzył drogę do powstania setek komercyjnych firm programistycznych. Decyzja patentowa z 1973 r., która unieważniła patent ENIAC, otworzyła ścieżki również dla nowych firm komputerowych, w tym małych firm, takich jak Apple i Commodore. Na początku lat 70. komputery i oprogramowanie były mniejszymi branżami niszowymi o niepewnej przyszłości. Pod koniec dekady komputery i oprogramowanie były na najlepszej drodze do stworzenia bogactwa przekraczającego wyobraźnię i uczynienia Billa Gatesa najbogatszą osobą na świecie, a Apple Computer najbogatszą firmą świata. Zawody programowania komputerowego i inżynierii oprogramowania nadal szybko się rozwijały. Do 1979 roku komputery i oprogramowanie były na dobrej drodze, aby stać się dominującymi narzędziami w działalności biznesowej i rządowej, a także stać się głównymi narzędziami osobistymi. Po tej dekadzie wpływ komputerów i oprogramowania przeniknąłby każdy aspekt działalności biznesowej, rządowej, wojskowej i osobistej. Świat się zmieniał, a komputery i oprogramowanie tworzyły ogromne sieci, które obejmowały cały świat.


Powrót

1980 do 1989: Rozwój komputerów osobistych i oprogramowania osobistego



W latach osiemdziesiątych XX wieku nastąpiła poważna zmiana biznesowa w historii. Pojawienie się komputera osobistego IBM i ciągła ekspansja linii Apple sprawiły, że komputery i oprogramowanie z czysto korporacyjnych narzędzi biznesowych stały się wyrafinowanymi narzędziami osobistymi. Zmianom sprzętowym towarzyszyła ogromna ekspansja nowych komercyjnych pakietów oprogramowania skierowanych na rynek komputerów osobistych. Rzeczywiście, oprogramowanie "gotowe do użytku komercyjnego" (COTS) zaczęło wypierać oprogramowanie tworzone na zamówienie w wielu branżach zarówno na komputerach mainframe, jak i na komputerach osobistych. Eksplozja komputerów osobistych miała negatywny wpływ na minikomputery, które do tej pory były rozwijającym się biznesem. Komputery mainframe i superkomputery nadal były kluczowymi narzędziami w dużych korporacjach i dużych agencjach rządowych. Pod koniec dekady minikomputery umarły. Pojawienie się komputerów osobistych doprowadziło do znacznej ekspansji oprogramowania do użytku osobistego, takiego jak pakiety biurowe, kalendarze i finanse domowe. Pod koniec dekady pojawiły się komputery przenośne, a także jeszcze mniejsze urządzenia zwane osobistymi asystentami cyfrowymi (PDA). Mobilność stała się nową siłą rynkową, ponieważ wiele firm konkurowało o kombinacje lekkich i długowiecznych urządzeń osobistych. W tej dekadzie nastąpił również rozwój outsourcingu, ponieważ firmy zdały sobie sprawę, że ich wewnętrzne grupy oprogramowania są duże, drogie i niekoniecznie zdolny do dobrego budowania oprogramowania. Kolejnym ważnym postępem w tej dekadzie było stworzenie sieci World Wide Web, która na zawsze zmieni ludzką komunikację.

Szybkie zmiany w informatyce

Na początku lat 80. XX wieku nastąpiło wydarzenie zmieniające świat: wypuszczenie komputera osobistego IBM w 1981 r. Marketingowa siła IBM i łatwość obsługi IBM PC otworzyły rynki dla komercyjnego oprogramowania, ponieważ prawie każdy obywatel wkrótce użyłby komputera do zadań osobistych. IBM PC spowodował, że Microsoft stał się głównym graczem w branży oprogramowania, a Bill Gates stał się przez wiele lat najbogatszym człowiekiem na świecie. Słynny dyskowy system operacyjny, czyli Microsoft DOS (MS-DOS), został zamówiony przez IBM w 1981 r., a pierwsza wersja została wydana klientom zewnętrznym w 1982 r. DOS był głównym systemem operacyjnym wczesnej ery komputerów osobistych. System operacyjny Windows był pierwotnie rozszerzeniem DOS, ale do czasu Windows 2 w 1982 roku zaczął mieć wygląd graficzny z nakładającymi się obrazami ekranów. Na początku dekady firma Apple wybrała język programowania Objective-C jako główny język produktów Apple. Język został pierwotnie opracowany przez dr. Toma Love i dr Brada Coxa z ITT i został przejęty przez Stepstone Corporation, kiedy ITT sprzedał swoją działalność telekomunikacyjną firmie Alcatel. Objetive-C jest nadal używany w produktach Apple, co czyni go jednym z najtrwalszych w przemyśle języki programowania. W tym dziesięcioleciu w 1984 roku powstał Software Engineering Institute (SEI) i zwiększył się rygor rozwoju oprogramowania. Oceny oprogramowania zaprojektowane przez Wattsa Humphrey'a były oferowane przez SEI, a oceny i testy porównawcze były oferowane przez Software Productivity Research (SPR), począwszy od roku przed SEI. Obie metody szybko się rozwinęły w tej dekadzie. Języki programowania zaczęły eksplodować liczebnie i różnorodnością wraz z pojawieniem się nowych języków, takich jak Ada, Quick Basic, Pascal, C11, Objective-C i dziesiątki innych. W ciągu tej dekady nowe języki pojawiały się w tempie ponad dwóch miesięcznie. W tej dekadzie pojawił się Internet i to, co później ułatwiło stworzenie sieci WWW. Internet to zbiór protokołów, które łączą ze sobą komputery i sieci. Termin "sieć ogólnoświatowa" został wymyślony przez Tima Bernersa-Lee i jest zbiorem usług korzystających z internetu. Minęłaby następna dekada, zanim sieć WWW faktycznie stanie się globalna. Internet wywodzi się ze starszego ARPANET-u i kilku innych podobnych sieci w Europie. Potrzebne były inne technologie wspomagające; wśród nich był słynny pakiet protokołów internetowych TCP / IP. Standard TCP / IP ułatwił pojawienie się nowej komercyjnej działalności "dostawców usług internetowych" lub ISP, jak się ich powszechnie nazywa. (Inne wynalazki, takie jak hiper-tekstowy język znaczników [HTML], są omówione w części dotyczącej lat 90-tych). Międzynarodowa Grupa Użytkowników Punktów Funkcyjnych (IFPUG) przeniosła się z Kanady do Stanów Zjednoczonych w 1986 roku. Wkrótce potem IFPUG zaczął oferować egzaminy certyfikacyjne, aby zapewnić dokładność liczenia punktów funkcyjnych. Wstępne badanie zostało opracowane przez Al Albrechta, który był wówczas w SPR, po odejściu z IBM na emeryturę. W późniejszych dziesięcioleciach IFPUG stałby się największą na świecie organizacją do pomiaru oprogramowania z oddziałami w ponad 25 krajach. Metryki punktów funkcji zaczęły zastępować starsze metryki, takie jak "wiersze kodu" oraz "koszt wady" w przypadku studiów ekonomicznych. Metryka wierszy kodu (LOC) ignoruje wymagania i projekt oraz penalizuje języki wysokiego poziomu. Metryka kosztu za usterkę ignoruje koszty stałe i obniża jakość. Punkty funkcyjne to najdokładniejsze miary do analizy ekonomicznej oprogramowania. Narzędzie do estymacji SPQR / 20 w 1984 r. Było pierwszym komercyjnym narzędziem do szacowania zbudowanym wokół metryk punktów funkcyjnych. Było to również pierwsze narzędzie szacujące ze zintegrowanym wymiarowaniem. Stworzyła rozmiary tomów kodu źródłowego dla 30 języków i rozmiarów różnych dokumentów papierowych, takich jak wymagania, projekt i podręczniki użytkownika. W tym dziesięcioleciu nastąpił wzrost (i upadek) wielu firm zajmujących się komputerami i oprogramowaniem. Niektóre z nich osiągnęły wybuchy chwały, ale ostatecznie uległy złym technicznym problemom. Niektóre z nazw firm, które prosperowały w tej dekadzie, to Amdahl, Digital Equipment Corporation (DEC), Burroughs, Control Data Corporation (CDC), Wang (pionier w przetwarzaniu tekstu), Data General, Tandem, linia komputerowa RCA, Linia komputerów Honeywell, linia komputerów Bull, linia komputerów Xerox, linia komputerów osobistych AT&T, linia komputerów osobistych ITT (nie w pełni kompatybilna z IBM) i kilka innych. Niektóre firmy, które szybko się rozwijały w tej erze, nadal dobrze prosperują, na przykład Hewlett-Packard. Inne, takie jak Sun, zostały przejęte, w tym przypadku przez Oracle. Powstanie i upadek firm z branży komputerowej i oprogramowania to ciekawa historia. Niektóre z problemów, które spowodowały niepowodzenia biznesowe, obejmowały powstanie IBM, próby zablokowania klientów w zastrzeżonym sprzęcie i oprogramowaniu oraz powszechny brak uznania znaczenia komputerów osobistych jako wydarzenia zmieniającego świat w działalności biznesowej. Na przykład DEC spóźnił się z wprowadzeniem komputera osobistego, a kiedy to się stało, jego komputery nie były w pełni kompatybilne z komputerami IBM, który był wtedy na najlepszej drodze, aby stać się głównym narzędziem milionów pracowników korporacji. Chociaż podstawowa technologia została opracowana w poprzedniej dekadzie, Sony i Philips połączyły siły, aby w 1983 r. Wydać bardzo udaną "pamięć kompaktową tylko do odczytu" (CD-ROM). Pierwszą muzyką nagraną na płycie CD była Alpine Symphony Richarda Straussa z 1981 r. 2. marca 1983 roku w Stanach Zjednoczonych wypuszczono odtwarzacze CD i kilka dysków, co zapoczątkowało boom. Dyski te zostały wkrótce zastosowane w komputerach osobistych, chociaż na krótko konkurowały ze sobą konkurencyjne urządzenia, takie jak Bernouli Box i Iomega Zip Disk, ale wkrótce zostały ominięte przez płyty CD, na których można było zapisywać i czytać. Ogromna pojemność tych dysków CD pozwoliła na dostarczenie całych pakietów oprogramowania, takich jak biuro Microsoft, na jednym dysku, w przeciwieństwie do dziesiątek dyskietek. W następnej dekadzie "uniwersalne dyski cyfrowe" (DVD) o jeszcze większej pojemności stałby się popularny zarówno w przypadku filmów, jak i urządzeń do przechowywania danych o bardzo dużej pojemności. Chociaż nie jest organizacją zajmującą się wyłącznie oprogramowaniem, słynny Project Management Institute (PMI) został założony w 1984 roku. Stał się dobrze znany ze swoich programów certyfikacji w różnych dyscyplinach zarządzania. Stworzyła również dużą bibliotekę książek i artykułów zwanych PMI "body of Knowledge" lub PMBOK.

Firmy powstałe w latach 80

Poniżej przedstawiamy przykładowe firmy, które powstały w latach 80-tych. To jest reprezentatywna próbka, ale daleka od kompletności. Powstały także tysiące lokalnych firm obsługujących jeden obszar geograficzny.

Accenture :1989
Adobe : 1982
Advanced Business Solutions : 1983
Amadeus IT : 1987
America Online (AOL) : 1983
Apollo : 1980
Ashton-Tate : 1980
AutoDesk : 1982
Avira : 1986
BASIS : 1985
BitStream : 1981
BlackBerry : 1984
Borland : 1983
Broderbund : 1980
Capcom : 1983
Central Point : 1980

CGNET : 1983
Cisco Systems : 1984
Cognex : 1981
Compaq : 1982
Computer Aid, Inc. (CAI) : 1982
Cutter Consortium : 1986
Dell : 1984
Digital Consulting Institute (DCI) : 1982
Fox Interactive : 1982
Intuit : 1983
KeySoft : 1989
KPMG : 1987
Leading Edge : 1980
Level 9 : 1983
Logitech : 1981
Lotus : 1982
McAfee : 1987
MicroGraphX : 1982
NeXT : 1985
Pegasus : 1981
PeopleSoft : 1987
Peregrine : 1981
Quest : 1987
Sage : 1981
Sapien : 1986
SciSys : 1980
SEI : 1984
SPR : 1983
Stepstone : 1984
Symantec : 1982
Tata : 1989
Trilogy : 1989
Unisoft : 1981
Vero : 1988
Wind River : 1981
Wolfram : 1987
Wyse : 1981

To tylko próbka przedsiębiorstw, które stały się na tyle duże, że można o nich tu konkretnie wspomnieć. W latach 80. powstały tysiące mniejszych lokalnych firm. W tej dekadzie powstały duże korporacje, takie jak Accenture, Cisco i KPMG. Ale w poprzedniej dekadzie narodzili się najwięksi giganci oprogramowania: Microsoft, Oracle i SAP. Wiele firm powstałych w latach 80. dostarczało produkty i usługi, które wypełniały luki w ofertach takich firm jak IBM i Microsoft. Przyszłe dziesięciolecia przyniosą kolejną falę dużych firm, gdy Internet otworzy nowe możliwości techniczne. Sieć doprowadziłaby do współczesnych gigantów, takich jak Amazon, Google i Facebook. Oddziaływanie komputerów i oprogramowania nastąpiło tak szybko, że wiele firm i produktów, których używamy na co dzień, nie tylko nie istniało 25 lat temu, ale same firmy również nie istniały. Nie istniało też wiele technologii, które te firmy sprzedają. Komputery i oprogramowanie zapoczątkowały nową ważną formę rewolucji przemysłowej, w której zautomatyzowane metody zmieniają nie tylko produkcję i operacje biznesowe, ale także komunikację i dzielenie się wiedzą. Przypomnijmy, że w latach osiemdziesiątych komputery były mniej lub bardziej odizolowane od siebie, z wyjątkiem raczej powolnych i prymitywnych połączeń, takich jak modemy. Później, gdy internet stał się globalnym kanałem komunikacji i wszystkie komputery były połączone, pojawiły się ogromne nowe możliwości biznesowe. Nie wszystkie z tych nowych firm internetowych odniosłyby sukces, co zobaczymy później, kiedy będzie mowa o bańce internetowej. Jest zbyt wiele firm, aby omówić je wszystkie, ale omówione są tutaj te, które miały ciekawe modele biznesowe lub stworzyły nowatorskie produkty.

Accenture

Szybki rozwój branży oprogramowania w tej i poprzedniej dekadzie otworzył nowe możliwości zarówno dla outsourcingu, jak i doradztwa. Duże firmy potrzebowały komputerów i oprogramowania, ale były niedoświadczone i często popełniały błędy. Accenture mogła stać się jedną z największych firm konsultingowych w zakresie oprogramowania na świecie, zapewniając pomoc tysiącom firm w dziesiątkach krajów. Historia firmy Accenture jest długa i zbyt skomplikowana, aby ją w pełni omówić, ale została wykorzystana w wielu studiach przypadków szkół biznesu. Firma Accenture powstała w latach pięćdziesiątych jako skrzydło konsultingowe byłej firmy księgowej Arthur Andersen. W 1989 roku Andersen Consulting oddzielił się od księgowej strony Andersena i stał się odrębną jednostką biznesową, dlatego jest cytowany. Podział między grupami księgowymi i konsultingowymi zaostrzył wewnętrzne problemy polityczne i finansowe między obiema stronami, co ostatecznie doprowadziło do słynnego arbitrażu i całkowitego zbycia organizacji konsultingowej, która stała się oddzielną firmą w 2001 r. W ramach podziału firma konsultingowa musiała zaprzestać używania jakiejkolwiek formy nazwy "Arthur Andersen". W wyniku wewnętrznego konkursu wybrano nazwę "Accenture". Został on przedstawiony przez pracownika z Danii. Również w 2001 r. Accenture przeprowadziło udaną ofertę publiczną. Od tego czasu liczba pracowników wzrosła do ponad 250 000 na całym świecie. Accenture świadczy usługi konsultingowe i outsourcingowe dla prawie 75% firm z listy Fortune 500 w USA i około 90% firm z listy Global Fortune 100. Accenture odnosi sukcesy dzięki powszechnemu wdrażaniu komputerów i oprogramowania przez setki dużych firm, które niekoniecznie mają umiejętności w zakresie komputerów lub oprogramowania. Kiedy złożone technologie, takie jak komputery i oprogramowanie, stają się filarem korporacji i agencji rządowych, istnieje ogromne zapotrzebowanie na konsultantów-ekspertów, którzy mogą pomóc grupom, które mogą nie mieć wystarczającej wewnętrznej wiedzy, aby były skuteczne. To nisza, którą Accenture zdominowała. Oczywiście firma Accenture nie jest sama, ale z pewnością należała do najlepiej znanych prezesów korporacji, dyrektorów finansowych i dyrektorów IT w każdym uprzemysłowionym kraju. Z punktu widzenia społecznego i technicznego, fakt, że pierwotna firma księgowa Arthur Andersen została uznana za winną zarzutów karnych ze względu na sposób, w jaki przeprowadziła audyt ksiąg Enron (firma Enron zbankrutowała w 2001 r. w związku z lawiną dochodzeń karnych). Arthur Andersen dobrowolnie zrezygnował z licencji na prowadzenie księgowości w 2002 r. Chociaż Sąd Najwyższy Stanów Zjednoczonych później unieważnił ustalenie winy, do tego czasu Arthur Andersen stracił reputację oraz większość swoich pracowników i majątku. To było smutne zakończenie dla firmy, której założyciel Arthur Andersen był pionierem zarówno w edukacji księgowej, jak i etyce księgowej. Jako jeden z pierwszych zapewnił szkolenie w miejscu pracy w godzinach pracy. Odegrał także kluczową rolę w tworzeniu standardów rachunkowości i koncepcji ogólnie przyjętych praktyk księgowych. Jego osobiste motto brzmiało "Myśl prosto, mów prosto". Był tak szczery, że odrzucał interesy klientów, którzy chcieli zmagać się ze standardami rachunkowości.

Adobe

Firma Adobe została założona w San Jose w Kalifornii w 1982 roku przez Johna Warnocka i Charlesa Geschke. Obaj byli byłymi pracownikami słynnego laboratorium badawczego Xerox PARC, które wynalazło wiele zaawansowanych tematów, ale nigdy nie odniosło sukcesu w ich sprzedaży. Nazwa firmy pochodzi od Adobe Creek, sezonowego strumienia, który płynął za domami założycieli w Los Altos w Kalifornii. Pierwszym produktem Adobe był język opisu strony PostScript używany w milionach drukarek laserowych. Firma Adobe wprowadziła również rodzinę czcionek do komputerów, ale w tej branży zaczęła konkurować z Apple. Później firma Adobe wypuściła Adobe Illustrator i Photoshop na rynki komputerów osobistych użytkowników końcowych, zarówno na platformach Macintosh, jak i IBM. Wśród ich najbardziej rozpowszechnionych produktów był prawie uniwersalny przenośny format dokumentów, czyli plik PDF, który jest obecnie standardem światowym (norma ISO 3200-1 / 2008). Adobe kontroluje również format graficzny TIFF dla plików skompresowanych. Adobe powoli wchodziło na rynek DTP z własnym produktem, ale dysponowało tak dużymi pieniędzmi, że ostatecznie przejęło konkurentów w tej dziedzinie, takich jak Aldus i Macromedia. W 2010 roku Adobe i Apple toczyły dość publiczny spór z powodu twierdzenia Apple, że Adobe jest niepewny i nie może być używany w kilku produktach Apple. Adobe odparł twierdzeniem, że Apple chciał tylko trzymać Adobe z dala od swoich platform. Akcje Adobe są notowane na NASDAQ od 1996 roku. Pozostaje dużą i innowacyjną firmą z licznymi aplikacjami i produktami skupiającymi się na typografii cyfrowej i grafice. Prawdopodobnie prawie każdy czytelnik tej książki korzysta z jednego lub więcej produktów Adobe, takich jak pliki PDF, pliki TIFF, Photoshop i wiele innych.

America Online (AOL)

Firma AOL została założona w 1983 roku pod nazwą Control Video Corporation. Zmienił nazwę na America Online, a następnie na AOL. Pierwotnym założycielem był Bill Meister. Pierwszym produktem firmy był modem i połączenie z konsolą do gier komputerowych Atari 2600. Później wprowadził nowych liderów technicznych i menedżerskich oraz strategię zmian. Po kilku innych zmianach nazwy i zmianach kierunku oraz odejściu założyciela, nowo nazwana America Online rozpoczęła usługę, która później przyniosła jej sławę: sieć oparta na grafice, łatwa w użyciu i zapewniająca subskrybentom bogatą i zróżnicowaną zawartość. AOL jako korporacja była pionierem zarówno e-maili, jak i grup społecznych później stał się znany jako "sieci społecznościowe". W szczytowym okresie około 1995 roku AOL liczyło około 10 milionów członków. Jednak AOL pobierał opłaty za pocztę e-mail i inne usługi (19,95 USD miesięcznie) w momencie, gdy zaczęły pojawiać się bezpłatne usługi e-mail. Ponadto czas reakcji, a nawet dostęp były często powolne, co prowadziło do niezadowolenia klientów i odejść. AOL miał również nieregularną historię jako korporacja, z wzlotami i upadkami, fuzjami, zbyciami i innymi zmianami korporacyjnymi. W latach 2000-2009 firma AOL była własnością Time Warner Corporation, co najwyraźniej nie satysfakcjonowało żadnej ze stron. Firma AOL została wydzielona w oddzielną spółkę w grudniu 2009 r. Ponieważ inne sieci społecznościowe i usługi poczty elektronicznej osłabiły kluczową działalność AOL, konieczna była zmiana kierunku. Nowa strategia, która do tej pory wydaje się pomagać, polega na skoncentrowaniu się na "treści", a nie na sieci i usługach sieciowych. Na przykład AOL przejął Huffington Post i MapQuest. W kwietniu 2012 r. Huffington Post zdobył nagrodę Pulitzera, stając się pierwszym dziennikiem internetowym, który to zrobił. David Wood był reporterem, który zdobył nagrodę za serię opowiadającą o powojennych doświadczeniach żołnierzy amerykańskich z Afganistanu i Iraku. AOL rozpoczął również nacisk na generowanie przychodów za pośrednictwem reklam internetowych. AOL nadal eksperymentuje z treściami i reklamami, co, miejmy nadzieję, zapewni jej rentowność.

Avira

Avira to odnosząca sukcesy firma antywirusowa, która została założona w Tettnang w Niemczech w 1986 roku. Avira ma obecnie około 100 milionów klientów i jest głównym graczem w branży antywirusowej. Avira to jedna z wielu firm, które mają ciekawy model biznesowy. Avira zapewnia podstawowy pakiet antywirusowy za darmo, ale oferuje również bardziej wyrafinowane wersje za opłatą. Podobnie jak w przypadku wielu wyspecjalizowanych branż niszowych, świat antywirusów często przeprowadza przeglądy i rankingi względnej wydajności. Avira zwykle otrzymuje dobre recenzje. Inni gracze na rynku antywirusowym to AVG, Norton, Trend Micro, McAfee, Kaspersky i wielu innych. Między producentami wirusów a obrońcami oprogramowania antywirusowego trwa gorący wyścig.

Uwaga: dyrektor generalny, Tjark Auerbach, wspiera wiele organizacji charytatywnych i grup artystycznych non-profit poprzez swoją Fundację Auerbach. Sporo osób zarządzających oprogramowaniem jest bardzo zainteresowanych kwestiami społecznymi i charytatywnymi. Inni to Bill Gates z Microsoft i Tony Salvaggio z CAI. Biorąc pod uwagę nagromadzone bogactwo branży oprogramowania, jej wpływ społeczny i charytatywny stał się znaczący.

BlackBerry (Research in Motion lub RIM)>

Produkt BlackBerry to pionierski smartfon. Sama firma została założona w Waterloo w Ontario w 1984 roku przez Mike'a Lazaridisa. Najwyraźniej nazwał firmę Research in Motion (RIM), ponieważ lubił zwrot "poezja w ruchu". Nazwa "BlackBerry" wynika z lekkiego podobieństwa klawiatury komputera do powierzchni rzeczywistego owocu jeżyny. Niektóre rządy stanowe zapewniają fundusze początkowe dla firm programistycznych. Rząd kanadyjski odegrał znaczącą rolę w finansowaniu startupu RIM. W Stanach Zjednoczonych inwestorzy kapitału wysokiego ryzyka zapewniają wszystkie pieniądze zalążkowe, a nie rząd federalny. Prywatni inwestorzy również zapewnili początkowe fundusze dla RIM. Pierwszym produktem firmy RIM w 1998 roku było urządzenie przywoławcze, które konkurowało z Motorolą. Pierwszy smartfon BlackBerry pojawił się w kwietniu 2000 roku. Przez kilka lat smartfony BlackBerry radziły sobie dobrze, a ich sprzedaż, klienci i przychody szybko rosły. Posiadanie BlackBerry było symbolem statusu zarówno wśród dyrektorów, jak i techników technicznych. Jednak w 2007 roku na rynku pojawił się Apple iPhone i prognozy biznesowe RIM uległy pogorszeniu. Model BlackBerry Storm pojawił się w 2008 roku z ekranem dotykowym, ale cierpiał z powodu słabych recenzji i niezadowolonych klientów. Zastrzeżony system operacyjny BlackBerry, QNX, również ucierpiał na konkurencji z Androidem. W pierwszym roku na rynku Android wyprzedził BlackBerry wśród klientów w USA. Rzeczywiście, BlackBerry odnotował spadek netto liczby klientów w USA z powodu konkurencji na Androida. Co gorsza, we wrześniu 2011 r. w sieci BlackBerry wystąpiła poważna awaria sieci, która na kilka dni odłączyła klientów w USA i wywołała ogromne ilości negatywnego rozgłosu. Były to wiadomości na pierwszych stronach gazet, a nawet wspominano o nich w krajowych programach telewizyjnych. Pomimo zwiększonej konkurencji i znacznych zwolnień, BlackBerry nadal jest głównym graczem na rynku smartfonów. Jej najnowsze modele zbierają dobre recenzje. W 2013 roku firma RIM zmieniła nazwę na BlackBerry. Historia RIM i BlackBerry pokazuje, że dobry pomysł i dobry wynalazek nie zapewniają długofalowego sukcesu. Firmy takie jak RIM muszą być na bieżąco z trendami branżowymi i miejmy nadzieję, że będą je wyprzedzać. Muszą również nadążać za jakością i niezawodnością, ponieważ niska jakość zabija rynek.

Borland

Historia firmy Borland to rodzaj mikrokosmosu wielu firm programistycznych z Doliny Krzemowej, z kilkoma unikalnymi czynnikami. Firma Borland została założona w Scotts Valley w Kalifornii w sierpniu 1981 roku. Założycielami byli trzej obywatele Danii: Niels Jensen, Ole Henricsen i Mole Glad. Najsłynniejszy założyciel, Philippe Kahn, połączył później siły z firmą Borland. Kahn był prezesem, prezesem i dyrektorem generalnym od 1983 do 1995 roku, kiedy odszedł. Pierwszym produktem firmy był dodatek CP / M, ale Borland wkrótce wszedł w inną niszę, która odniosła większy sukces. Jej produkty TurboPascal i SideKick z 1983 roku osiągnęły dużą sprzedaż i uczyniły Borland jedną z odnoszących największe sukcesy firm zajmujących się językami programowania. SideKick był prekursorem funkcji, które później pojawiły się na urządzeniach PDA, aby śledzić kalendarze, książki adresowe, numery telefonów i tak dalej. Borland przeprowadził udaną ofertę publiczną w 1989 r. I ponownie w 1991 r. Oba miały nadsubskrypcję i wygenerowały znaczny kapitał. Dzięki połączeniu przejęć i rozwoju wewnętrznego, produkty Borland rozszerzyły się o Turbo C, Quattro Pro, dBASE i Paradoks. Borland wytoczył niezwykły pozew dotyczący praw autorskich Lotus, który oskarżył o naruszenie praw autorskich do arkusza kalkulacyjnego Quattro. Była to jedna z pierwszych spraw o naruszenie przepisów "wygląd i styl". Sprawa została rozstrzygnięta na korzyść firmy Borland przez Pierwszy Okręgowy Sąd Apelacyjny w Bostonie w stanie Massachusetts. To, co stało się później, było niezwykłe. Lotus odwołał się do Sądu Najwyższego Stanów Zjednoczonych. Jeden z dziewięciu sędziów, John Paul Stevens, wycofał się, pozostawiając tylko ośmiu do rozpatrzenia sprawy. Ośmiu sędziów zremisowało 4 do 4 w swojej decyzji, co pozostawiło pierwotną decyzję nienaruszoną. Podobieństwo decyzji w sprawie Sądu Najwyższego jest niezwykle rzadkie. Pod koniec lat dziewięćdziesiątych firma Borland odnotowała spadek sprzedaży i pewne problemy z produktami, które starzeją się i trudno je przenieść na system Windows. Próbował konkurować z Microsoft Office, współpracując z WordPerfect, ale to się nie udało. Borland próbował również, z pewnym sukcesem, zbudować środowiska programistyczne za pomocą produktów takich jak JBuilder i Delphi. Jednak podbranża open source skupiła się na tej samej dziedzinie, oferując darmowe produkty, takie jak Eclipse, i odniosły one znacznie większy sukces. Borland wypróbował również zarządzanie cyklem życia aplikacji (ALM), ale chociaż miał mocne elementy, takie jak StarTeam, Calibre i Segue (który był zestawem narzędzi testowych), integracja elementów była nierówna. W międzyczasie IBM Rational, Microsoft VSTS i HP Mercury przybyły, aby konkurować w tej samej przestrzeni. Pomiędzy szczytem przychodów na początku XXI wieku a ostatecznym przejęciem firmy przez Micro Focus, firma Borland doświadczyła szeregu przychodów i strat i wydawało się, że nie ma żadnej strategii, która mogłaby zmienić sytuację (a przynajmniej takiej, która zadziałała). Po kilku zmianach dyrektorów generalnych i jeszcze większej liczbie zmian kierunku, firma Borland zdecydowała się przejść na aplikacje korporacyjne, a nie osobiste. Doprowadziło to do nieprzemyślanej zmiany nazwy z Borland na Inprise. Zmiana nazwy nie zakończyła się sukcesem. Nikt nie wiedział, co robił Inprise, ponieważ nazwa była nieznana, a wiele osób uważało, że Borland zbankrutował, gdy przestał być wymieniany w reklamach. W 2001 roku firma ponownie zmieniła nazwę na Borland. Po wielu różnych zmianach w kierunku i zarządzaniu, które są bardzo złożone, firma Borland została ostatecznie przejęta przez Micro Focus w 2009 roku. Cena wynosiła około 1,50 USD za akcję, czyli 75 milionów USD. Historia firmy Borland to przestroga dla przedsiębiorców zajmujących się oprogramowaniem. Zmiana kierunku biznesowego jest trudna do osiągnięcia. Zmieniający się kierunek biznesowy prawie co roku dezorientuje klientów, inwestorów i pracowników. Szybka sekwencja przejęć i zbycia również utrudnia posiadanie solidnej podstawowej działalności. Z perspektywy czasu, gdyby firma Borland nadal rozwijała swoje produkty językowe i produkty asystentów osobistych, mogłaby nadal rosnąć. Próba konkurowania z Microsoftem w świecie pakietów biurowych i wejście na rynek baz danych bez pełnego zrozumienia tego nie była drogą do sukcesu. Zmienia się kadra kierownicza i biznesplany tak często, że trudno je śledzić jest również niepokojące. Doświadczenie firmy Borland pokazuje, że lata osiemdziesiąte XX wieku były okresem fragmentacji technicznej, w której wiele firm podążało za "gorącymi" rynkami, takimi jak środowiska programistyczne. Rosnąca konkurencja na rynkach niszowych była jedną z przyczyn upadku firmy Borland.

Computer Aid, Inc. (CAI)

CAI to przede wszystkim średniej wielkości grupa outsourcingu oprogramowania, ale z pewnymi unikalnymi cechami. Została założona przez Tony'ego Salvaggio i Winslow Hill w 1981 roku w Allentown w Pensylwanii. Spośród dwóch założycieli Salvaggio był byłym IBMerem, a Hill pochodził z Bethlehem Steel, które znajdowało się zaledwie kilka mil od Allentown. CAI to jeden z wielu startupów stworzonych przez byłych pracowników IBM (w tym autora tej książki). Inne znane firmy utworzone przez byłych pracowników IBM to Amdahl i Electronic Data Systems (EDS). CAI początkowo rozwijał się dzięki outsourcingowi konserwacji oprogramowania starszych aplikacji. Jest to zadanie, które wielu outsourcerów wykonuje lepiej niż ich klienci, a CAI nie jest wyjątkiem. Podobnie jak w przypadku wielu innych grup outsourcingu, CAI rozwinęło się globalnie i ma duży zespół pracowników oprogramowania zlokalizowanych na Filipinach, a także w Europie i Stanach Zjednoczonych. Kierownictwo CAI, w tym Tony Salvaggio, uznało, że branża oprogramowania potrzebuje więcej i lepszych informacji. CAI utworzyła spółkę zależną będącą w całości własnością Information Technology Metrics and Productivity Institute (ITMPI). Grupa ITMPI zapewniła seminaria, seminaria internetowe, miesięcznik elektroniczny oraz coraz większą bibliotekę artykułów i materiałów referencyjnych. Niektóre kursy są certyfikowane przez PMI. ITMPI to cenne źródło informacji dla branży oprogramowania. Stworzenie organizacji oferującej wysokiej jakości prelegentów i autorów będących guru branży, a nie pracowników korporacji, było odważnym i innowacyjnym krokiem. Brałem udział w wielu wydarzeniach ITMPI i stwierdziłem, że są one bardzo dobrze zarządzane i popularne wśród uczestników i klientów. Biblioteka ITMPI stała się jednym z bogatszych źródeł informacji o oprogramowaniu dla wielu programów korporacyjnych grupy. CAI jest również niezwykłe dla outsourcera, ponieważ opracowało kilka udanych pakietów oprogramowania. Jednym z najnowszych narzędzi programowych jest Automated Project Office (APO), które obsługuje różne funkcje pomiaru, monitorowania i zarządzania projektami i portfelami. Unikalną cechą APO jest możliwość integracji narzędzi programowych innych firm, które nazywane są "kartridżami" i mają służyć jako przydatne wtyczki. Jednym z nich jest kaseta ryzyka. Firma CAI jest przekonana o skuteczności swoich własnych wewnętrznych narzędzi i metod, dlatego oferuje szereg opcji umów o stałej cenie. Biorąc pod uwagę niepewność co do kosztów i harmonogramu w branży oprogramowania, kontrakty ze stałą ceną wymagają lepszych niż przeciętne możliwości i dyscypliny w planowaniu projektów. Innym niezwykłym aspektem CAI jest zainteresowanie i wspieranie szkół publicznych, zwłaszcza śródmiejskich. CAI założyło w Pensylwanii grupę firm, które zapewniają sprzęt i wsparcie szkołom w śródmiejskich szkołach. Niektóre z usług świadczonych przez tę grupę obejmują przekazywanie sprzętu, umożliwianie pracownikom czasu wolnego na korepetycje i mentoring dla studentów, sponsorowanie wycieczek terenowych na uniwersytety, aby pokazać dzieciom, jak wygląda życie w college'u, oraz zapraszanie studentów do biur korporacji, aby zobaczyć, jak wygląda życie biznesowe. . Te programy edukacyjne są realizowane jako usługi publiczne i nie mają na celu zysku. To niezwykłe, że firma demonstruje tego rodzaju świadomość społeczną, a kierownictwu CAI należy pogratulować pomocy w prowadzeniu szkół i edukacji w miastach.

Cisco Systems

Cisco Systems to kolejna legendarna saga z Doliny Krzemowej. Cisco nie jest firmą zajmującą się wyłącznie oprogramowaniem, ale raczej firmą, która wykorzystuje oprogramowanie wbudowane w routery i urządzenia komunikacyjne, aby umożliwić komputerom komunikację, a także tworzyć sieci bezprzewodowe. Jednak firma Cisco prowadzi działalność związaną z "czystym" oprogramowaniem, na przykład dobrze znaną usługą hostingu konferencji internetowych WebEx, która umożliwia prowadzenie seminariów internetowych i spotkań za pośrednictwem sieci WWW. Firma Cisco została założona w 1984 roku w San Jose w Kalifornii przez małżeństwo, które pracowało na Uniwersytecie Stanforda, Leonarda Bosacka i Sandy Lerner. Wkrótce po rozpoczęciu dołączył do nich Richard Troiano. Logo Cisco to abstrakcyjne przedstawienie mostu San Francisco. Sama nazwa firmy to część "cisco" słowa "San Francisco". Firma Cisco weszła na giełdę w lutym 1990 roku. Sukces jej routerów i urządzeń komunikacyjnych był taki, że przez pewien czas Cisco była najbogatszą firmą na świecie z kapitalizacją rynkową około 500 milionów dolarów w 2000 roku (szczyt). Nawet dzisiaj Cisco pozostaje firmą zamożną i odnoszącą sukcesy, mimo że Apple wyprzedza wszystkich innych. Cisco obsługuje zarówno komunikację między komputerami mainframe, jak i klient-serwer, a także komunikację komputerów osobistych z urządzeniami, takimi jak routery Linksys. Działalność związana z komunikacją i routerami jest bardzo złożona i podlega szybkiej ewolucji technicznej. Produkty te są częściowo elektroniczne i zawierają wbudowane oprogramowanie, które umożliwia ich aktualizację w terenie. Bogactwo i sukces Cisco opiera się na fakcie, że komputery i oprogramowanie są używane przez wszystkie firmy i agencje rządowe, a także przez większość prywatnych obywateli. Aby móc komunikować się między wszystkimi tymi różnorodnymi i niejednorodnymi systemami, w każdej instalacji komputerowej potrzebne są produkty takie jak produkty oferowane przez firmę Cisco i jej konkurentów.

Digital Consulting Institute (DCI)

Digital Consulting Institute jest interesującym przykładem efemerycznego rynku, który był silny i rozwijał się na początku dekady, ale który odkrył, że postęp technologiczny stale zmniejszał rozmiar rynku. DCI była firmą szkoleniowo-edukacyjną założoną przez George'a Schussela i jego żonę Sandi w 1982 roku w Andover w stanie Massachusetts. W ciągu tej dekady nastąpił szybki rozwój personelu programistycznego połączony z rosnącym zainteresowaniem rozwojem strukturalnym. Profesjonalne seminaria i kursy były bardzo dynamicznie rozwijającą się gałęzią przemysłu. Wykształcenie akademickie wciąż brakowało dla potrzeb korporacji, więc DCI i kilka innych grup seminaryjnych oferowało dużą liczbę kursów zarówno dla personelu technicznego, jak i kierowniczego. Po około 10 latach rozwoju DCI wskoczyło na większe imprezy wielogłośnikowe, a także zaczęło organizować targi z pokazami dostawców. Te większe wydarzenia przyciągały setki widzów i wymagały większych sal konferencyjnych w głównych hotelach. W szczytowym okresie DCI miało setki czołowych mówców i tysiące klientów, z których wielu pracowało dla firm z listy Fortune 500. Niektórzy mówcy mają znane nazwiska i są cytowani w kilku innych miejscah: Steve Jobs z Apple; Larry Ellison z Oracle; Ted Codd z IBM; Fran Tarkenton, były rozgrywający piłki nożnej; Ed Yourdon, słynny autor oprogramowania; i John Cullinane to próbki czołowych nazwisk w stajni głośników DCI.

Sukcesy DCI i Schussel były na tyle znaczące, że w 1998 r. Schussel został uznany za przedsiębiorcę roku przez IEEE Computer Society. Aby okazać szacunek, jakim był obdarzany, w 1998 roku do innych odbiorców należeli Bill Gates, Paul Allen, Steve Jobs i Steve Wozniak (lista przedsiębiorców z Doliny Krzemowej). Później, w latach 90., Internet zaczął osłabiać biznes seminariów stand-up. Popularne stały się seminaria internetowe, a liczba wydarzeń na żywo spadła. Po atakach terrorystycznych 11 września 2001 r. wiele firm ograniczyło podróże lotnicze, a wielu profesjonalistów było niechętnych do latania. W rzeczywistości podróż samolotem stała się znacznie mniej przyjemna niż była ze względu na zwiększone bezpieczeństwo, które wymagało przybycia na lotniska kilka godzin przed odlotem. Jednak gorsze rzeczy czekały na DCI. W 2004 r. Schussel został oskarżony przez IRS o uchylanie się od płacenia podatków. IRS twierdziło, że około 8 milionów dolarów niezgłoszonego dochodu zostało przekazane do jednostki zależnej na Bermudach, a następnie przelane na inne konta bez zgłaszania ich jako dochód. Chociaż Schussel nie przyznał się, Ron Gomes, który był prezesem DCI, przyznał się do uchylania się od płacenia podatku dochodowego. Były też inne akty oskarżenia. Schussel został ostatecznie uznany za winnego i skazany na trzy i pół roku więzienia federalnego. Po części z powodu tych postępowań karnych, a po części dlatego, że Internet osłabił szkolenia seminaryjne, DCI, po zmianie nazwy, zaprzestał działalności w 2004 r.

Uwaga: Prowadząc DCI, Schussel był kimś w rodzaju filantropa, a jego doświadczenie w więzieniu federalnym pokazało mu, jak trudno było byłym skazanym wrócić do normalnego życia i znaleźć pracę poza więzieniem. W rezultacie Schussel rozpoczął serię blogów i innych działań, aby pomóc byłym więźniom w znalezieniu pracy i nowego miejsca w społeczeństwie.

Kiedy założono DCI, nikt nie zdawał sobie sprawy, jak potężny stanie się internet i jak zmieni normalne szkolenie w klasie i na seminariach. Upadek firmy z powodu zarzutów karnych IRS jest wyjątkowy w tej książce, chociaż bez wątpienia zdarzyło się to wiele razy w wielu branżach.

Huawei

Huawei nie jest firmą amerykańską, ale został uwzględniony, aby zilustrować, że komputery i oprogramowanie stały się globalnymi sektorami biznesowymi w latach 80. Jest również cytowany, ponieważ przemysł telekomunikacyjny był pionierem zarówno w dziedzinie komputerów i oprogramowania, jak i kontroli jakości oprogramowania. Firma Huawei została założona w 1988 roku w Shenzhen w Guandong w Chinach przez byłego oficera wojskowego o nazwisku Ren Zhenfei. Huawei był pierwotnie prywatną firmą należącą do jego pracowników, co w Stanach Zjednoczonych byłoby nietypowym modelem biznesowym. Kolejny nietypowy aspekt biznesu Huawei to to ,że według modelu około 46% z około 140 000 pracowników firmy zajmuje się badaniami i rozwojem. To nawiązuje do czasów świetności Bell Labs, kiedy była to jedna z czołowych organizacji badawczych na świecie, która opracowała wiele używanych obecnie urządzeń, takich jak tranzystory w 1953 r. Huawei posiada obecnie 20 laboratoriów badawczo-rozwojowych zlokalizowanych na całym świecie w wielu krajach, w tym Stany Zjednoczone. Huawei to globalna korporacja produkująca urządzenia komunikacyjne, sprzęt sieciowy, telefony komórkowe i inne produkty. Około 2012 roku Huawei stał się największym na świecie producentem sprzętu telekomunikacyjnego, kiedy wyprzedził firmę Ericsson. Huawei rozpoczął działalność jako firma marketingowa, która sprzedawała systemy przełączające centrali telefonicznej (PBX) opracowane przez firmę z Hongkongu. Po kilku latach Huawei zaczął budować własne przełączniki PBX przeznaczone dla hoteli i korporacji, które potrzebowały własnych systemów telefonicznych. W 1997 roku Huawei rozpoczął ekspansję poza Chiny. W 1999 roku Huawei dołączył do Międzynarodowego Związku Telekomunikacyjnego (ITU), co jest biznesową koniecznością dla globalnych firm telekomunikacyjnych. Globalny biznes Huawei rósł tak szybko, że do 2005 r. globalna sprzedaż była większa niż sprzedaż w Chinach po raz pierwszy. Ponieważ firmy szybko się rozwijają, ich struktury organizacyjne również muszą rosnąć i zachować elastyczność. Aby pomóc w tak szybkim rozwoju, Huawei podpisał umowy z IBM w latach 1998-2003. Huawei zawarł również szereg spółek joint venture z firmami amerykańskimi, takimi jak Motorola i Symantec. Jak wielu czytelników wie, telefony komórkowe stają się głównym celem hakerów i złodzieji tożsamości. Joint venture pomiędzy Huawei i Symantec ma na celu poprawę bezpieczeństwa telefonów komórkowych i innych form komunikacji przed zdalnym hakowaniem i kradzieżą. Ta współpraca doprowadziła do powstania nowej firmy o nazwie Huawei Symantec, Inc. z siedzibą w Chengdu w Chinach. Organizacje korporacyjne w Chinach różnią się od tych w Stanach Zjednoczonych. Huawei jest postrzegany jako kolektyw, a nie korporacja. To rozróżnienie wykracza poza zakres tej książki, ale ma znaczenie społeczne. Dla Huawei, podobnie jak dla wszystkich innych firm telekomunikacyjnych, oprogramowanie jest obecnie krytycznym elementem wszystkich urządzeń i sieci. Telefony komórkowe, modemy, routery i inny sprzęt są kontrolowane przez oprogramowanie wbudowane. Centralne systemy przełączające i centrale PBX są również sterowane przez oprogramowanie. Rozliczenia, administracja i zarządzanie siecią są również kontrolowane przez oprogramowanie, zwykle działające na większych komputerach, a czasem na komputerach niestandardowych. Kontrola jakości w telekomunikacji

Ze względów historycznych branża telekomunikacyjna miała wyrafinowaną kontrolę jakości w czasach przełączników elektromechanicznych. Kiedy komputery i oprogramowanie zaczęły być wykorzystywane w telekomunikacji, branża była jedną z pierwszych, które utworzyły formalne grupy zapewniania jakości oprogramowania. Był również jednym z pierwszych, który zastosował wstępne kontrole wymagań, projektu i kodu źródłowego w celu podniesienia wydajności usuwania defektów (DRE) do 99%. Firmy telekomunikacyjne również wcześnie dostosowały miernik "cyklicznej złożoności" Toma McCabe'a z 1976 r. Do badania złożoności kodu. Szybko przyjęli także różne narzędzia analityczne dotyczące pokrycia kodu, aby pokazać skuteczność testów. Motorola zasłynęła z programu jakości Six Sigma. Wystarczy powiedzieć, że branża telekomunikacyjna należy do czołowych branż w zakresie kontroli jakości oprogramowania. We współczesnym świecie jakość pozostaje głównym przedmiotem zainteresowania światowych firm telekomunikacyjnych, a bezpieczeństwo zostało dodane do zestawu problemów związanych z jakością. Fluawei to dobry przykład ilustrujący techniczny i społeczny wpływ komputerów i oprogramowania na główne gałęzie przemysłu. Przypomnijmy, że na początku telefonów przekierowywanie połączeń od jednego abonenta do drugiego odbywało się w centralnych biurach obsługiwanych przez aktywnych operatorów telefonicznych. Niektóre z nich były tak duże, że przełożeni używali wrotek do przemieszczania się od operatora do operatora, gdy pojawiały się problemy lub prośby wymagające szczególnej uwagi. Nie trzeba dodawać, że te ręczne centrale telefoniczne były bardzo pracochłonne i kosztowne.

Historia telefonu

Historia telefonu jest niejednoznaczna. W Stanach Zjednoczonych Alexander Graham Bell opatentował pierwszy telefon w 1876 roku i jest powszechnie uważany za wynalazcę telefonu. Ale w rzeczywistości około pół tuzina innych osób również twierdzi, że wynalazło telefon: Elisha Gray ze Stanów Zjednoczonych, Antonio Meucci z Włoch i Johan Philip Reis z Niemiec również zbudowali telefony lub urządzenia podobne do telefonów mniej więcej w tym samym czasie jak Bell. Jednak patenty zwykle wygrywają, a Bell był rzeczywiście pierwszym, który opatentował telefon. Ale sam telefon ma niewielką wartość społeczną. Konieczne jest połączenie telefonu abonenta z telefonami innych abonentów. Dlatego komutacja telefoniczna jest krytycznym elementem nowoczesnych sieci telefonicznych. Węgierski inżynier Tivadar Puskas zdawał się być pomysłodawcą centrali telefonicznej, kiedy pracował dla Thomasa Edisona przy centrali telegraficznej. Pierwsza na świecie komercyjna centrala telefoniczna została otwarta 28 stycznia 1878 roku w New Haven w stanie Connecticut z 21 abonentami. Przez ponad dziesięć lat ręczne przełączanie linii telefonicznych przez operatorów na żywo byłoby normą. Pierwszy elektromechaniczny przełącznik telefoniczny, zwany "przełącznikiem stopniowym", został wynaleziony w 1891 roku w Kansas City w stanie Missouri przez Almona Browna Stowgera. Co ciekawe, nie zajmował się telekomunikacją, a faktycznie był przedsiębiorcą pogrzebowym, który prowadził zakład pogrzebowy. Powodem, dla którego Stowger był zainteresowany lepszą metodą przekierowywania połączeń, był fakt, że żona właściciela innego zakładu pogrzebowego była operatorem telefonicznym miasta. Stowger tracił interesy, kiedy ludzie próbowali zadzwonić do jego firmy, ponieważ niektóre rozmowy były połączone z innym domem pogrzebowym. Pomysł automatycznego przełączania telefonów był na tyle ważny, że Stowger wraz z różnymi przyjaciółmi i krewnymi założył Stowger Automatic Telephone Exchange Company. Jego pierwszy przełącznik został zainstalowany w La Porte w stanie Indiana w 1892 roku i miał 75 abonentów. Istotnym interesem społecznym jest fakt, że jedna z największych gałęzi przemysłu na świecie powstała z powodu utraconych klientów, których połączenia były kierowane do konkurenta przez działającego operatora telefonicznego. Współczesny przemysł telekomunikacyjny zatrudnia miliony pracowników w każdym kraju na świecie. Jest to jedna z największych i najbardziej wyrafinowanych branż pod względem wykorzystania komputerów i oprogramowania, a także całkowitego personelu programistycznego. To także branża, w której działa wiele dużych firm w wielu krajach: Alcatel, Apple, AT&T, Bell Northern, Ericsson, GTE, Huawei, HTC, Motorola, Nokia, Samsung i Siemens to tylko kilka przykładów.

Intuit

Intuit to bardzo rzadki przykład małej firmy skutecznie konkurującej z Microsoftem. W rzeczywistości Microsoft nawet wycofał się z rynku finansów osobistych, częściowo z powodu sukcesu Intuit. Niepowodzenie Microsoft Money w konkurowaniu z Intuit Quicken jest bardzo rzadkim przykładem przejmowania udziałów w rynku od firmy Microsoft przez małą firmę. Firma ta została założona w 1983 roku przez Scotta Cooka i Toma Proulta w Palo Alto w Kalifornii, pośrodku Doliny Krzemowej, chociaż z prawnego punktu widzenia jest to korporacja Delaware. Pierwszym produktem Intuit była jej flagowa aplikacja Quicken, która jest osobistym pakietem finansowym, który utrzymuje równowagę w książeczkach czekowych i może obsługiwać inne finanse osobiste, takie jak te generowane przez nieruchomości na wynajem. Wersja na komputery osobiste IBM została napisana w języku BASIC, a wersja dla Apple została napisana w Pascalu. Na początku istniały konkurencyjne produkty, ale w 1988 Quicken był najlepiej sprzedającym się narzędziem do finansów osobistych. W 1991 roku Microsoft zdecydował się konkurować w tej przestrzeni i wypuścił Microsoft Money. Intuit miał udany debiut giełdowy w 1993 roku i zaczął przejmować firmy z powiązanych dziedzin, takich jak przygotowanie podatku dochodowego, w tym dobrze znany TurboTax. W 1994 roku Microsoft zwrócił się do Intuit w sprawie przejęcia, ale Departament Sprawiedliwości wstrzymał fuzję, twierdząc, że może to stworzyć monopol. To pozostawiło Microsoft i Quicken jako czołowych konkurentów w wąskiej niszy. Intuit to przede wszystkim sprzedawca komercyjny w obszarach finansów i podatków. Ma również kilka bezpłatnych usług, z których część otrzymała pozytywne recenzje. Intuit ma internetową aplikację badawczą dotyczącą podatków zwaną Almanach Podatkowy, która została uruchomiona w 2005 roku. Artykuły i materiały są przygotowywane przez specjalistów podatkowych i są dostępne bezpłatnie dla naukowców i innych grup zajmujących się przygotowywaniem podatków, a także dla konsumentów. Almanach został wymieniony jako jedna z bardziej przydatnych witryn dostępnych od 2005 r. Nie każdy aspekt działalności biznesowej Intuit spotyka się z przychylnymi komentarzami. Banki przez lata pobierały dane finansowe konsumentów w formacie QIF, co oznacza Quicken Interface Format. To było dostępne bezpłatnie. Quicken opracował inny zastrzeżony format o nazwie QFX, który był oparty na opłatach, a następnie porzucił obsługę starszego formatu QIF. W rzeczywistości Intuit otrzymał złe recenzje za rezygnację ze wsparcia starszych wersji i wymaganie od klientów zakupu nowych wersji oprogramowania i usług. Intuit wydaje również sporo pieniędzy na lobbing, a niektóre z rzeczy, za które lobbuje, niekoniecznie są dobre dla konsumentów. Lobbował na rzecz wyeliminowania bezpłatnych rozliczeń podatkowych online dla mieszkańców Kalifornii o niskich dochodach i lobbował, aby klienci nie składali zeznań podatkowych bezpośrednio w IRS. Microsoft konkurował z Intuitem w osobistej przestrzeni finansowej, ale w czerwcu 2009 roku Microsoft zaczął się wycofywać z tego rynku. Microsoft stwierdził, że rynek osobistego oprogramowania finansowego spadł, ale Intuit z Quicken nadal odnosi sukcesy na tym rynku. Intuit jest nadal głównym dostawcą oprogramowania do osobistych finansów, a także pakietów księgowych, takich jak QuickBooks, dla różnych rodzajów firm, w tym organizacji non-profit. Jednak posiadanie tylko jednego głównego źródła do dość ważnych zastosowań, takich jak finanse osobiste, zwykle nie jest korzystne dla konsumentów.

KPMG

Wczesna historia KPMG sięga 1870 roku i początków działalności firm księgowych i audytorskich. Ponieważ komputery i oprogramowanie zostały zastosowane w księgowości i finansach niemal natychmiast po ich wynalezieniu, firmy księgowe stały się ekspertami komputerowymi przed większością innych branż. Ta wiedza wkrótce doprowadziła firmy księgowe do utworzenia oddzielnego doradztwa w zakresie zarządzania grupy, aby pomóc klientom w radzeniu sobie z ich własnymi komputerami i oprogramowaniem. KPMG jest wynikiem złożonego zestawu fuzji i przejęć, które są zbyt barokowe, aby można je było omówić. Firma jest cytowana, ponieważ dwie firmy księgowe i finansowe (KMG Group i Peat Marwick) połączyły się, tworząc KPMG w latach 80-tych. Kombinacja została wtedy nazwana KPMG w Stanach Zjednoczonych. Ta firma przeszła wiele zmian w nazwie: w rzeczywistości ponad pół tuzina. Bez dokładnego sprawdzenia KPMG prawdopodobnie zmieniło nazwę częściej niż jakakolwiek inna firma wymieniona tutaj. Obecnie KPMG prowadzi działalność w trzech głównych obszarach: audyt, przygotowanie podatkowe i usługi doradcze. Pierwsze dwa to starsze, tradycyjne rodzaje działalności, które sięgają ery 1870 roku. Usługi doradcze to bardziej nowoczesny biznes oparty na komputerach i oprogramowaniu. Grupy doradcze KPMG świadczą również trzy szerokie zakresy usług: doradztwo w zakresie zarządzania, ocena i zarządzanie ryzykiem oraz restrukturyzacja.

Uwaga: Termin "ryzyko" to ważne słowo, które podlega szybkiej ewolucji. Aż do ery komputerów, około 1970 roku, ryzyko miało charakter finansowy lub prawny. W dzisiejszym świecie hakowania, wirusów i ataków typu "odmowa usługi", ryzyko związane z komputerem i oprogramowaniem jest obecnie kluczowym elementem zarządzania ryzykiem.

KPMG to mikrokosmos historii audytu, księgowości i doradztwa zarządczego. Spółki z tej grupy często się łączą i zmieniają nazwy. Odgrywają ważną rolę w operacjach korporacyjnych, ponieważ coroczny audyt jest kluczowym kamieniem milowym, który jest ważny dla akcjonariuszy i działań biznesowych, takich jak finansowanie venture lub przyszłe fuzje. Czytelnicy powinni przeczytać sekcję dotyczącą Accenture, aby dowiedzieć się, co może się zdarzyć, gdy audyty nie zostaną przeprowadzone dobrze. (Arthur Andersen musiał zrezygnować ze swojej licencji w wyniku audytu Enron). Usługi doradcze KPMG stały się duże i szanowane i służą wielu dużym korporacjom. Jest to organizacja międzynarodowa, ale jej struktura korporacyjna jest skomplikowana i złożona. Grupy KPMG w każdym kraju to odrębne osoby prawne, które są częścią organizacji spółdzielczej z siedzibą w Szwajcarii. Być może powodem tego jest zapewnienie ochrony przed odpowiedzialnością. W każdym razie KPMG to ciekawe studium przypadku dla szkół biznesu.

Lotus

Lotus pokazuje, że Dolina Krzemowa nie była jedynym miejscem dla startupów oprogramowania. Lotus została założona w Westford w stanie Massachusetts w 1982 roku przez Mitcha Kapora i Jonathana Sachsa przy finansowym wsparciu inwestora venture capital, Bena Rosena. Jim Manzi zaczynał jako konsultant i wkrótce dołączył do prezesa Lotus. Mitch Kapor wcześniej pracował nad pionierskim arkuszem kalkulacyjnym VisiCalc w VisiCorp, gdzie był szefem ds. rozwoju (VisiCorp był kolejną pionierską firmą). Gdy interfejsy aplikacji działających w tle ewoluowały od wierszy poleceń do grafiki, zaczęła się pojawiać nowa forma wprowadzania danych, zwana "tym, co widzisz, jest tym, co dostajesz" (WYSIWYG). Pierwszy produkt Lotus miał niezręczną nazwę Lotus 1-2-3. Niezwykła nazwa wynika z tego, że produkt był nie tylko potężnym arkuszem kalkulacyjnym, ale miał również możliwości graficzne i mógł być używany jako baza danych (tj. Były to trzy produkty w jednym). Ten produkt został wydany 26 stycznia 1983 roku. Część nazwy "Lotus" odnosi się do pozycji medytacyjnej zwanej "pozycją lotosu". (Mitch Kapor nauczał medytacji transcendentalnej, chociaż pozycja Lotosu jest powszechna w wielu religiach Wschodu, które używają medytacji). Czas dla Lotosu był doskonały. Komputer osobisty IBM pojawił się w 1981 roku i miał stać się jednym z najlepiej sprzedających się produktów technicznych w historii. Właśnie pojawiły się arkusze kalkulacyjne, które miały umożliwić prawie każdemu posiadanie wyrafinowanych możliwości matematycznych i statystycznych na wyciągnięcie ręki. W wyniku tej synergii Lotus rozszerzył się daleko poza pierwotny plan marketingowy. W rzeczywistości Lotus był przez krótki czas największym niezależnym dostawcą oprogramowania na świecie. Lotus wypuścił inne produkty, takie jak Jazz i Symphony (kontynuując politykę eklektycznych nazw). Udało się to tylko marginalnie. Mieli przeciętne recenzje i nie sprzedawali się dobrze. Jednak pakiet poczty elektronicznej Lotus Notes sprawdził się dobrze i później stał się powodem, dla którego IBM przejął Lotus w 1995 roku. Lotus był także pionierem w sprawach dotyczących praw autorskich, które próbowały rozszerzyć prawa autorskie na nowe kierunki. (Część poświęcona firmie Borland przytacza najciekawszą sprawę dotyczącą wyglądu i dotyku, co było bardzo niezwykłe, ponieważ Sąd Najwyższy Stanów Zjednoczonych miał orzeczenie cztery do czterech, co oznacza, że nie można było rozstrzygnąć sporów po obu stronach. ) Sukces Lotus Notes doprowadził do kolejnej nietypowej sytuacji biznesowej. IBM złożył wrogo nastawioną ofertę przejęcia w 1995 r. Za 60 USD za akcję w czasie, gdy akcje Lotus były sprzedawane po 32 USD za akcję. Po kilku kłótniach IBM przejął Lotus za 54,50 USD za akcję, czyli około 3,5 miliarda USD. Pracownicy Lotus obawiali się bycia częścią IBM ze względu na ich dość znaną kulturę korporacyjną, a także z powodu ich bardzo doskonałego programu świadczeń. Wśród świadczeń oferowanych pracownikom przez Lotus znalazły się przedszkola, świadczenia z tytułu ubezpieczenia dla osób tej samej płci i wiele innych, które nie były powszechne w latach 80-tych.

Uwaga: Historia Lotus przypomina nam, że istnieją tylko dwie powszechne strategie wyjścia dla korporacji programistycznych lub innych korporacji: upadają i wypadają z rynku lub zostają przejęte przez większą firmę. jedne: generują wystarczające dochody, aby wejść na giełdę, lub generują stabilne NeXT

Historia NeXT jest również częścią historii słynnego przedsiębiorcy Steve'a Jobsa, który założył zarówno Apple, jak i NeXT. Doskonała biografia Steve'a Jobsa autorstwa Waltera Isaacsona zawiera szczegółowe informacje o tym, jak Jobs został zmuszony do opuszczenia Apple i rozpoczął NeXT. Chociaż polityka odchodzenia Jobsa z Apple jest fascynująca, to, co zrobił w NeXT, jest tematem tej sekcji: głównie oprogramowanie NeXT i w mniejszym stopniu sprzęt. Jobs był zainteresowany koncepcją wyspecjalizowanych stacji roboczych do edukacji i profesjonalnej pracy naukowej, ponieważ zwykłe komputery Apple, Mac i IBM nie były wystarczająco szybkie i brakowało im wysokiej jakości grafiki. Po wyrzuceniu z Apple w 1985 roku Steve Jobs założył NeXT w Redwood City w Kalifornii w tym samym roku. Udało mu się również zachęcić kilku swoich byłych kolegów z Apple do dołączenia do niego. (Apple miał nietypową umowę o pracę, która zezwalała pracownikom na posiadanie części oprogramowania, które opracowali w Apple, chyba że zostało wydane. Fakt ten byłby przydatny w NeXT.) Jednak odejście kilku kluczowych graczy Apple dla NeXT postawiło załamanie w najbliższych planach, gdy Apple pozwał. Pozew został ostatecznie rozstrzygnięty poza sądem, a byłym pracownikom Apple pozwolono kontynuować prace projektowe dla NeXT. Prestiż Jobsa i jego dotychczasowe sukcesy sprawiły, że inni przedsiębiorcy mieli do niego zaufanie. Na przykład Ross Perot, założyciel EDS, zainwestował 20 milionów dolarów w NeXT i nabył 16% jej akcji. Pierwszy komputer NeXT pojawił się w 1988 roku i został nazwany "kostką" ze względu na swoje wymiary fizyczne. Obudowa była w rzeczywistości kostką wykonaną z magnezu i miała wymiary 12 cali z każdej strony. Chociaż był elegancki, miał pewne problemy z wyglądem i wydajnością. NeXT wprowadził jako swój niezwykły napęd magneto-optyczny firmy Canon jako podstawowy nośnik danych wejściowych i pamięci. To było wolniejsze niż dysk twardy. Co gorsza, w NeXT był tylko jeden dysk, więc nie było możliwości przeniesienia plików z NeXT na inny komputer bez sieci, ponieważ do uruchomienia oprogramowania potrzebny był jeden dysk. Ponieważ NeXT miało być profesjonalną stacją roboczą z najwyższej półki, technicznie i społecznie ważne jest, aby została faktycznie wykorzystana do kilku ważnych wynalazków. Tim Berners-Lee użył komputera NeXT do zbudowania swojej pierwszej przeglądarki internetowej w 1991 roku, więc NeXT odegrał kluczową rolę w budowaniu sieci WWW. Ponadto projektant gier John Carmack użył komputera NeXT do dwóch gier, których realistyczna grafika należała do najlepszych w tamtych czasach: Doom i Wolfenstein 3D. Sprzęt NeXT był elegancki i innowacyjny, ale to oprogramowanie przetrwało po zamknięciu produkcji sprzętu w 1993 r. (Z powodu zwolnień kilkuset pracowników). Steve Jobs nabył język Objective-C w Apple i został użyty w NeXT do stworzenia systemu operacyjnego NeXTStep. Wariant tego, nazwany OpenStep, został wykonany w Sun. W tym czasie Apple rozważał zastąpienie swojego starzejącego się systemu operacyjnego Mac. Po wielu przemyśleniach i należytej staranności Apple doszedł do wniosku, że NeXTStep może być najlepszym wyborem do stworzenia nowego systemu operacyjnego. Zamiast licencjonować oprogramowanie, Apple zdecydowało się na nabycie NeXT. Ciekawe pod względem finansowym jest to, że podczas gdy inni akcjonariusze NeXT otrzymali 429 milionów dolarów w gotówce, Steve Jobs otrzymał 1,5 miliona akcji Apple. Przejęcie NeXT przez Apple miało miejsce w 1996 roku. Po 12-letniej przerwie Steve Jobs powrócił do Apple początkowo jako konsultant, następnie jako tymczasowy dyrektor generalny, a następnie jako formalny dyrektor generalny w 2000 roku. System operacyjny NeXTStep stał się zalążkiem późniejsza generacja systemów operacyjnych Apple. Objective-C nadal był głównym językiem programowania, a koncepcja obiektowa kwitła. Chociaż NeXT nie odniósł komercyjnego sukcesu ze swoimi produktami sprzętowymi, był technicznie wyrafinowany i służył jako model dla innych zaawansowanych stacji roboczych. Oprogramowanie stworzone przez NeXT przetrwało długo po tym, jak większość stacji roboczych NeXT została przeniesiona do muzeów lub poddana recyklingowi w celu uzyskania magnezowych obudów.

PeopleSoft

Pojawienie się komputerów i oprogramowania doprowadziło do powstania wielu specjalistycznych zastosowań niszowych. Jedną z tych nisz są systemy zarządzania zasobami ludzkimi (HRMS), które obejmują różnorodne rejestry personelu. PeopleSoft, jak sama nazwa wskazuje, był pionierem w dziedzinie HRMS. Została założona w 1984 roku w Walnut Creek w Kalifornii przez Dave'a Duffielda i Kena Morrisa. Początkowo PeopleSoft koncentrował się na aplikacjach HR, ale ewoluował w firmę zajmującą się planowaniem zasobów przedsiębiorstwa (ERP) po fuzji z konkurentem JD Edwards w 2003 roku. PeopleSoft jest nieco wyjątkowy, ponieważ stworzył zastrzeżoną metodologię tworzenia oprogramowania o nazwie PeopleTools, a nawet zastrzeżony język programowania o nazwie PeopleCode. Jak to często bywa w branży oprogramowania, sukces PeopleSoft przyciągnął uwagę większego konkurenta, w tym przypadku Oracle. Począwszy od 2003 roku Oracle próbował wrogo przejąć PeopleSoft za około 13 milionów dolarów, ale oferta została odrzucona. Amerykański Departament Sprawiedliwości wkroczył i stwierdził, że jeśli Oracle przejmie PeopleSoft, może to doprowadzić do monopolu. Jednak roszczenie to zostało odrzucone przez sędziego federalnego USA. Po serii negocjacji Oracle nabyło PeopleSoft w 2004 roku za około 10,3 miliona dolarów. Wkrótce po przejęciu Oracle zwolnił około 6 000 pracowników z 11 000, którzy pracowali w PeopleSoft. Firma Oracle zdecydowała, że nazwa JD Edwards jest bardziej popularna niż nazwa PeopleSoft, dlatego kilka produktów PeopleSoft zostało przemianowanych na produkty JD Edwards.

Uwaga: Historia PeopleSoft pokazuje, że wrogie przejęcia są powszechnym zjawiskiem społecznym w branży oprogramowania. Niektóre z tych przejęć wynikają z tego, że technologia jest cenna i dobrze sobie radzi. Niektóre wrogie przejęcia mają na celu wyeliminowanie konkurencji i usunięcie konkurencyjnych technologii z rynku. Oracle nieustannie usprawnia i utrzymuje wiele aplikacji PeopleSoft.

Chociaż nazwa PeopleSoft jest marką w ramach Oracle, nowsze produkty są połączeniem technologii PeopleSoft, JD Edwards i samej Oracle. W rzeczywistości nazwa "Aplikacje Fusion" to nazwa produktu lub produktów. Fuzje między konkurentami czasami kończą się sukcesem, a czasem nie. Ale fuzje są faktem w branży oprogramowania.

Rational

Rational jest teraz częścią IBM, ale zanim został przejęty, miał bogatą historię. Firma Rational została założona w 1981 roku przez Paula Levy'ego i Mike'a Devlina w Westford w stanie Massachusetts. W chwili powstania nazywał się Rational Machines i faktycznie Rational posiadał zarówno sprzęt, jak i oprogramowanie. Pierwotny biznesplan dla Rational zakładał poprawę praktyk tworzenia oprogramowania, koncentrując się na nowym języku programowania Ada w połączeniu z metodą iteracji . Ale sam kod nie jest jedyną rzeczą, którą trzeba dobrze wykonać, więc Rational zajął się również architekturą, wymaganiami, projektem, kontrolą jakości i testowaniem oraz wprowadził użyteczne innowacje we wszystkich tych odmiennych dziedzinach. Miał też rodzaj metajęzyka Ada zwanego DIANA, który oznaczał opisową pośrednią przypisaną notację dla Ady (z pewnością na krótkiej liście skomplikowanych nazw). Początkowe środowisko Rational było połączeniem pakietu oprogramowania .narzędzia i niestandardową stacją roboczą o nazwie R1000. Przypomnijmy, że na początku lat 80. nie pojawiły się jeszcze komercyjne stacje robocze z najwyższej półki. Kiedy Rational zaczął przenosić swoje narzędzia i metody na inne platformy i bagatelizować własny niestandardowy sprzęt, firma zmieniła nazwę na po prostu Rational i porzuciła część "Maszyny". Pod parasolem Rational istniały różne koncepcje i narzędzia, ale połączyły się one w potężny zestaw metod i oprogramowania pomocniczego o nazwie Rational Unified Process (RUP). Niektóre koncepcje RUP powstały w starszym narzędziu o nazwie Objectory autorstwa dr Ivara Jacobsena, który później dołączył do Rational kiedy jego firma połączyła się w 1995 roku. RUP miał pragmatyczne i empiryczne podstawy, że konieczne było skoncentrowanie się na ograniczaniu ryzyka i kontroli jakości (historycznie słaba jak na oprogramowanie). Koncepcje RUP skodyfikowały wiele zasad iteracyjnego i ustrukturyzowanego programowania i otoczyły je narzędziami do analizy wymagań, projektowania, kodowania, testowania i zarządzania. Chociaż RUP został opracowany w latach 90. XX wieku, nadal zajmuje czołowe miejsce w dzisiejszych czasach, gdy jakość i produktywność są dokładnie mierzone. W przypadku głównych aplikacji większych niż 1000 punktów funkcyjnych, RUP jest jedną z najlepszych metodologii, nawet w porównaniu z Agile, która stała się najpopularniejszą metodą obecnej dekady. Agile zwykle kończy się, gdy aplikacja ma więcej niż 100 użytkowników i jest większa niż 1000 punktów funkcyjnych. Przy setkach lub tysiącach użytkowników żaden pojedynczy wbudowany użytkownik nie jest w stanie zrozumieć wszystkich wymagań. W przypadku dużych systemów nikt nie rozumie więcej niż około 10% tego, co zrobi system. Dlatego bardziej formalna architektura i metody wymagań które łączą myśli wielu decydentów są potrzebne, a RUP ma zarówno metody, jak i narzędzia do konsolidacji różnorodnych wymagań dla głównych pakietów oprogramowania. Wśród koncepcji zawartych w RUP jest metoda reprezentacji projektu zwana ujednoliconym językiem modelowania (UML), który jest najczęściej stosowanym zestawem wymagań i podejść projektowych. Techniczna i społeczna historia UML to ciekawa historia sama w sobie. UML łączy wkład trzech badaczy, którzy mieli podobne cele. Każdy z nich opracował nowe formy reprezentacji architektury oprogramowania, wymagań i projektu. Trzej byli James Rumbaugh, Grady Booch i Ivar Jacobsen. Kiedy wszyscy trzej zaczęli współpracować przy UML, stali się znani w literaturze oprogramowania jako "trzej amigos" po komedii Steve'a Martina.

Modelowanie dynamiczne

Jedną ze skutecznych funkcji UML było modelowanie wizualne. Oczywiście, reprezentacje graficzne są lepsze od tekstu w przypadku złożonych i abstrakcyjnych pojęć, takich jak główne aplikacje. Moim zdaniem UML można by rozszerzyć w dzisiejszym świecie, tak aby obejmował dynamiczne modele 3D w pełnym kolorze, które mogą pokazywać dwie formy zmian, które nie są uwzględnione w dzisiejszym UML. Jeden formularz reprezentowałby i modelował aplikację podczas wykonywania oraz pokazywał dynamikę danych wejściowych, wyjściowych i przetwarzania w formie wizualnej. Względne prędkości byłyby realistyczne, ale oczywiście spowolnione z korzyścią dla ludzkich obserwatorów. Modele dynamiczne pomogłyby wyeliminować wąskie gardła wydajności, a także ujawnić luki w zabezpieczeniach. Druga forma dynamizmu wskazywałaby na ciągły wzrost wymagań w trakcie rozwoju i po wydaniu. Wymagania programistyczne zmieniają się średnio o około 2% w ciągu miesiąca kalendarzowego i zwykle powodują bałagan. Dostarczone oprogramowanie nadal się zmienia, o ile istnieją aktywni użytkownicy. Po wydaniu zmienia się średnio od 8% do 14% rocznie po wydaniu, czasami przez ponad 20 lat. Zmiany wymagań zwykle nie są dobrze zdefiniowane i mają tendencję do degradacji struktury architektury oprogramowania w miarę ich gromadzenia. Branża potrzebuje lepszych i bardziej dynamicznych wizualnych przedstawień oprogramowania w ruchu. Aplikacje to oczywiście najszybciej zmieniające się produkty, jakie kiedykolwiek zbudowano, a także stale ewoluują przez wiele lat. Innym zastosowaniem modeli dynamicznych byłaby symulacja różnego rodzaju ataków wirusów i innych cyberzagrożeń, które oczywiście występują tylko wtedy, gdy oprogramowanie jest uruchomione. Można również zidentyfikować tylne drzwi. Wraz z rozwojem i ewolucją Rational przejął kilka firm, które dołączyły do stosu technologii Rational. Jednak najważniejsza zmiana nastąpiła w lutym 2003 r., Kiedy Rational został przejęty przez IBM i stał się znany jako IBM Rational. Niektóre przejęcia dużych firm przynoszą korzyści obu, a inne nie. W przypadku produktów Rational i IBM wydaje się, że istnieje użyteczna synergia. Rational nadal dodaje nowe narzędzia i metody, a IBM odniósł korzyści ze stosu technologii Rational. Rational skorzystał również na skuteczności mechanizmów marketingowych i sprzedażowych IBM. Endemicznym problemem branży oprogramowania jest wizja tunelu zbyt wielu firm i konsultantów, którzy oferują "rozwiązania" problemów związanych z oprogramowaniem. Na przykład firmy zajmujące się analizą statyczną koncentrują się wyłącznie na analizie statycznej. Firmy zajmujące się automatycznymi narzędziami testującymi myślą tylko o testowaniu. Trenerzy Agile myślą tylko o Agile. Rational dysponuje prawdopodobnie najszerszą gamą narzędzi i metod spośród wszystkich firm, które koncentrują się na doskonaleniu rozwoju oprogramowania. Mają narzędzia i metody wymagań, architekturę, projekt, kod, analizy statyczne zarówno dokumentów tekstowych, jak i kodu, integrację, śledzenie defektów i wiele innych. Odświeża widok grupy, która zdaje sobie sprawę, że dobre oprogramowanie wymaga połączenia wielu częściowych rozwiązań, a nie jakiejś srebrnej kuli. Jeśli rozwiązania są spójne i dobrze ze sobą współpracują, to jeszcze lepiej.

SEI

W latach 80. Departament Obrony (DoD) nadal był największym na świecie użytkownikiem komputerów i oprogramowania. Departament Obrony i służby wojskowe stworzyły również bardzo duże aplikacje, z których niektóre miały ponad 100 000 punktów funkcyjnych lub ponad 10 milionów instrukcji kodu źródłowego. Te duże systemy miały niepokojącą tendencję do spóźniania się i niedziałania dobrze po dostarczeniu. Aby pomóc ulepszyć technologie inżynierii oprogramowania, Agencja Zaawansowanych Projektów Badawczych Obrony (DARPA) sfinansowała utworzenie SEI w 1984 roku. SEI znajdowało się częściowo na kampusie Carnegie Mellon University w Pittsburghu w Pensylwanii. SEI nie była zwykłą spółką typu venture lub funduszem kapitałowym, ale raczej ośrodkiem badawczo-rozwojowym finansowanym ze środków federalnych. SEI stała się ważną grupą zajmującą się badaniami oprogramowania, obsługującą początkowo DoD i wykonawców wojskowych, ale ostatecznie rozszerzyła się na inne branże oprogramowania poza obronnością. Najbardziej znanym podejściem do oprogramowania SEI był szeroko stosowany model dojrzałości zdolności, pierwotnie nazywany inicjałami (CMM), a później dodanie słowa "zintegrowany", aby stać się CMMI po rozszerzeniu o system inżynierii. CMMI to metoda oceny możliwości organizacji oprogramowania za pomocą formalnego kwestionariusza badającego kluczowe obszary procesów (KPA). CMM opiera się na metodach używanych przez IBM w laboratoriach na Wschodnim Wybrzeżu, co nie jest zaskakujące, ponieważ były dyrektor inżynierii oprogramowania IBM, Watts Humphrey, przeniósł się do SEI i opracował wiele ich koncepcji w miarę jak programy badawcze SEI nabrały tempa, oceny SEI rozszerzyły zakres rozważanych tematów, a dr. Bill Curtis i jego współpracownicy opracowali "CMM ludzi" zajmujący się czynnikami kadrowymi i opublikowani przez SEI w 1993 r. Istnieją również inne badania naukowe. przeprowadzone przez personel SEI. Jedno z ostatnich badań dotyczyło szacowania. Główną grupą badawczą zajmującą się bezpieczeństwem komputerowym zwany Zespołem Reagowania na Awarie Komputerowe (CERT). Kiedy SEI zostało stworzone po raz pierwszy, nie było pewne, czy przyniesie namacalne efekty lub będzie po prostu kolejnym rządowym think tankiem, który publikował raporty, ale miał niewielki praktyczny wpływ na codzienne czynności. Na szczęście dla branży oprogramowania metody opracowane przez SEI miały podstawę pragmatyczną, a korporacje, które przeszły na poziomy CMM i CMMI z poziomu 1 do poziomu 3, również poprawiały jakość i produktywność. Ponad 30 000 osób zostało przeszkolonych jako asesorzy SEI i pracują oni na całym świecie. Personel badawczy SEI opublikował ponad 50 książek za pośrednictwem Addison-Wesley, z których wiele zawiera cenny wkład. SEI ma teraz międzynarodowe filie i właśnie utworzyła komercyjną spółkę zależną, która rozszerzy podstawowe koncepcje na szerszy zakres gałęzi przemysłu niż obronność. Pojawią się również inne źródła finansowania pozarządowego. Ogólnie rzecz biorąc, SEI przyniosła korzyści społeczności oprogramowania i była doskonałym przykładem dobrze zarządzanego ośrodka badawczego finansowanego przez rząd, w którym osiągnięto praktyczne rezultaty.

Software Productivity Research (SPR)

Software Productivity Research założył Casper Jones z żoną Eileen w 1984 roku w Acton w stanie Massachusetts. Zaprojektował dwa pierwsze narzędzia do szacowania oprogramowania IBM w 1973 i 1974 r., A później trzy narzędzia do szacowania oprogramowania dla ITT. Kiedy firma ITT Corporation sprzedała swoją działalność telekomunikacyjną i zamknęła laboratoria badawcze, zdecydował się zostać przedsiębiorcą. SPR był klasycznym startupem typu "sweat equity", który rozpoczął się w domu. Wraz z rozwojem firmy przeniosła się do biur w Cambridge w stanie Massachusetts, a następnie do większych biur w Burlington w stanie Massachusetts. W szczytowym okresie SPR miało biura w Burlington, Londynie, San Francisco i Chicago.

Uwaga: Oryginalne biura w Cambridge znajdowały się w budynku Henderson Carriage, w którym niegdyś mieściła się faktyczna fabryka powozów. działająca replika rzymskiego rydwanu miała widoczne miejsce w holu.

Po zaprojektowaniu własnych narzędzi do szacowania oprogramowania dla IBM i ITT, wydało się dobrym pomysłem biznesowym wprowadzenie zaawansowanego narzędzia do szacowania oprogramowania komercyjnego. Al Albrecht i jego koledzy z IBM w White Plains opracowali metryki punktów funkcyjnych w połowie lat siedemdziesiątych, a IBM umieścił je w domenie publicznej w 1979 roku. Dzięki metrykom punktów funkcyjnych zadania niekodujące, takie jak wymagania, projekt i dokumentacja użytkownika można było zmierzyć i oszacować. Pierwsze komercyjne narzędzie do szacowania opracowane przez SPR nosiło nazwę SPQR / 20. Nazwa oznaczała produktywność, jakość i niezawodność oprogramowania, a liczba 20 to liczba pytań wejściowych potrzebnych do wygenerowania szacunków. SPQR / 20 był pierwszym komercyjnym narzędziem do oceny oprogramowania opartym na punktach funkcyjnych. Jako pierwszy uwzględniał rozmiar kodu źródłowego i dokumentów tekstowych. Jako pierwszy zawierał prognozy dotyczące jakości i niezawodności i jako pierwszy przewidział 5 lat konserwacji po wydaniu. SPQR / 20 może przewidywać rozmiar kodu źródłowego dla 30 języków programowania, począwszy od podstawowego asemblera, poprzez PL / I i Ada, aż po generatory aplikacji. SPR był bliski pozyskania venture capital, ale grupa venture podjęła próbę zmiany warunków umowy dzień przed planowaną datą podpisania. Zmienione warunki były nie do przyjęcia, więc, odrzucono warunki przedsięwzięcia. Jako alternatywę dla finansowania typu venture, SPR otworzył dochodową praktykę konsultingową, która łączyła ocenę procesu tworzenia oprogramowania z gromadzeniem danych wzorcowych oprogramowania. Jest społecznie i technicznie interesujące, że SPR przeprowadzała formalną ocenę procesu tworzenia oprogramowania na rok przed włączeniem SEI. Po przejściu na emeryturę z IBM, Albrecht, wynalazca punktów funkcyjnych, rozpoczął pracę w SPR w 1986 roku. Wskaźniki punktów funkcyjnych dopiero zaczynały swoją ekspansję, a IFPUG właśnie przeniósł się z Kanady do Stanów Zjednoczonych. SPR wykorzystywał metryki punktów funkcyjnych zarówno do szacowania, jak i testów porównawczych oprogramowania, z dużym powodzeniem w obu dziedzinach. Pracując w SPR, Albrecht opracował pierwszy egzamin certyfikacyjny dla analityków punktów funkcyjnych IFPUG. Ten egzamin został oczywiście zaktualizowany, ponieważ zmieniły się zasady liczenia, ale nadal jest w użyciu. SPR nadal była firmą hybrydową z grupą konsultingową i szacunkową grupą badawczo-rozwojową. Dane zebrane podczas konsultacji ostatecznie doprowadziły do powstania trzeciej firmy: wykonywania zadań biegłych w sprawach sądowych o naruszenie umów lub w sprawach dotyczących opodatkowania aktywów oprogramowania. Na przykład poważna sprawa podatkowa dotyczyła wartości portfela oprogramowania EDS w momencie nabycia go przez General Motors. Poważne naruszenie umowy miało miejsce między stanem Kalifornia a Tockheed w związku z systemem, który miał śledzić płatności dla dzieci pozostających na utrzymaniu. Jeszcze inny interesujący przypadek miał miejsce między Accenture a rządem Kanady w sprawie wzrostu wymagań, co doprowadziło do sporu o płatność. Punkty funkcyjne wykorzystano w tym przypadku, aby udowodnić, że dodatkowe funkcje zostały faktycznie zamówione przez klienta i że koszty rzeczywiście wykraczały poza zakres pierwotnej umowy. Charles Douglis został dyrektorem finansowym SPR i wkrótce został prezesem , co zaowocowało dziesięcioma latami rentownego wzrostu, których kulminacją była sprzedaż SPR firmie Artemis Management Systems w 1998 r. SPR jest dość typowe dla setek startupów, które rozwijają się z dochodów własnych założyciela, a nie z zewnętrznego finansowania przedsięwzięcia. Przyjaciele i koledzy, którzy założyli firmy wspierane przez venture capital w tym samym roku, w którym powstała SPR, ostatecznie odeszli, a ich firmy ogłosiły upadłość częściowo z powodu wątpliwych decyzji podjętych przez grupy venture. Niektóre firmy wspierane przez venture capital odnoszą sukcesy i rosną, by stać się dużymi korporacjami, ale wiele innych jest pchanych zbyt szybko w złym kierunku i kończy się niepowodzeniem. Firma nadal dobrze sobie radzi i rozszerza się na Amerykę Południową. Obecne komercyjne narzędzie do szacowania SPR nosi nazwę KnowledgePLAN i obejmuje bardzo szczegółowe oszacowanie na podstawie działań i zadań. Niezwykłym aspektem SPR po sprzedaży firmie Artemis jest to, że kiedy sama Artemis napotkała spowolnienie biznesowe, pracownicy SPR przejęli firmę, a Doug Brindley to obecny prezes. Doug był korporacyjnym partnerem GM w sporze podatkowym dotyczącym EDS, więc znał technologię SPR. Działalność doradcza w zakresie oceny i benchmarkingu, która rozpoczęła się w SPR, odniosła tak duży sukces, że dwóch byłych wiceprezesów SPR Consulting założyło własne firmy i kontynuuje działalność w obszarach analizy punktów funkcyjnych i zbierania danych wzorcowych. Te dwie firmy to David's Consulting Group i Quality / Productivity Management Group.

Stepstone Corporation


Stepstone Corporation została założona w 1983 roku w Newtown w stanie Connecticut przez dr. Toma Love i dr. Brada Coxa wraz z innymi kolegami, którzy pracowali w Centrum Technologii Programowania ITT Corporation w pobliskim Stratford w stanie Connecticut. Początkowo nosił nazwę Productivity Products International (PPI) . Głównym produktem Stepstone Corporation był potężny zorientowany obiektowo język programowania o nazwie Objective-C. Pomysły na ten język zrodziły się w ITT i zostały pobudzone przez wydanie Byte Magazine z sierpnia 1981 roku, poświęcone Smalltalk. Brad Cox dostrzegł możliwość rozwinięcia języka programowania C w oparciu o przeczytanie tego magazynu. Jego praca ITT została opublikowana w 1983 r. W dokumencie SigPlan Notices zatytułowanym "The Object-Oriented Precompiler: Programming Smalltalk - 80 Methods in C Language". Ten oryginalny język był określany jako OOPC. Druga generacja języka została zbudowana od podstaw w firmie Schlumberger Research, a następnie trzeci język został zbudowany od podstaw w firmie założonej przez Toma Love i Brada Coxa o nazwie Productivity Products w czerwcu 1983 roku. Język Objective-C stał się jednym z najważniejszych języków w branży oprogramowania, kiedy Steve Jobs i jego personel techniczny postanowili uczynić Objective-C podstawowym językiem dla wszystkich produktów oprogramowania Apple (co stało się, ponieważ Steve Jobs wybrał Objective-C dla komputer NeXT i jego system operacyjny, jak omówiono w części poświęconej NeXT). Można by pomyśleć, że wybranie przez Apple (i NeXT) języka jako kluczowego narzędzia dla wszystkich przyszłych produktów, takich jak system operacyjny Macintosh, iPad, iPhone i inne, wystarczyłoby, aby katapultować Stepstone do statusu Fortune 500. Mogłoby się tak stać, gdyby pierwotna umowa między NeXT a Stepstone Corporation pozostała w mocy, ponieważ wymagała zapłaty 5 USD na rzecz Stepstone za każde urządzenie Apple lub stację roboczą, które zawierały kod Objective-C. Jednak Stepstone otrzymał fundusze venture capital, a kontrakty nie były już w rękach założycieli, ale raczej w rękach dyektorów wybranych przez inwestorów venture capital. Z powodów, które nie mają żadnego sensu biznesowego, NeXT nabył pełne prawa do Objective-C za jednorazową płatność mniejszą niż 100 000 USD. Według źródła, które analizuje użycie języka programowania w Internecie, język Objective-C jest obecnie trzecim najczęściej używanym językiem programowania na świecie.

Symantec

Firma Symantec jest obecnie głównym dostawcą pakietów zabezpieczających do ochrony komputerów osobistych. Została założona w 1982 roku przez Gary'ego Hendrixa w Mountain View w Kalifornii, która jest jedną z centralnych społeczności Doliny Krzemowej. Firma Symantec została sfinansowana z grantu National Science Foundation (NSF). Początkowo firma Symantec stworzyła narzędzia sztucznej inteligencji i aplikację bazodanową języka naturalnego, która działała na komputerach DEC. Okazało się, że trudno było je przenieść na komputery osobiste, więc Symantec mniej więcej nie miał żadnego produktu, ale nadal posiadał interesującą i cenną własność intelektualną. Symantec został przejęty przez inną firmę o nazwie C&E Software, założoną przez przedsiębiorców Dennisa Colemana i Gordona Eubanksa. Postanowili zachować nazwę Symantec dla połączonej firmy. Ich produkty obejmowały przetwarzanie tekstu, zarządzanie plikami oraz narzędzie do zapytań w języku naturalnym o nazwie Inteligentny Asystent, które było pionierem w zakresie zapytań do baz danych i generowania raportów. Ich połączona baza danych i narzędzie do edycji tekstu nosiły nazwę Q&A w celu uzyskania odpowiedzi "pytania i odpowiedzi". Aby zwiększyć sprzedaż, firma Symantec uruchomiła bardzo nietypowy program sprzedaży zwany sześciopakiem. Każdy pracownik miał pracować 6 dni w tygodniu, odwiedzać sześć salonów dziennie i szkolić sześciu przedstawicieli handlowych w każdym sklepie. Aby utrzymać niskie koszty, poproszono ich o pozostanie z przyjaciółmi lub użycie Motelu 6 zgodnie z sześciopakiem. Przez pewien czas przychody firmy Symantec były tak niskie, że prezes i dyrektor generalny otrzymywali zero pensji, pensje wiceprezesów obniżono o 50%, a pensje pozostałych pracowników o 15%. W 1986 r. Symantec utworzył oddział o nazwie Turner Hall, który zajmował się sprzedażą oprogramowania innych firm oraz dodatków obsługujących inne produkty, takie jak Lotus. Wraz ze wzrostem przychodów firma Symantec przejęła Breakthrough Software, twórcę narzędzia do zarządzania projektami TimeLine. W 1989 r. Firma Symantec przeprowadziła udaną ofertę publiczną. W wyniku fuzji oraz spółki zależnej Turner Hall, Symantec miał trzy dość autonomiczne jednostki biznesowe, które wydawały się pasować do kultury korporacyjnej i modelu biznesowego wzrostu poprzez przejęcia. Jednym z ważnych przejęć była firma Peter Norton Computing w 1990 roku. Norton Utilities była dobrze ocenianym zestawem aplikacji, które dostrajają komputery osobiste i eliminują śmieci. Firma Symantec opracowała oprogramowanie antywirusowe dla platformy Mac przed przejęciem firmy Norton. Jednak nazwa Norton była tak wysoko ceniona w branży, że firma Symantec wydała swój pakiet antywirusowy dla komputerów PC pod nazwą Norton AntiVirus, mimo że został opracowany wewnętrznie w firmie Symantec. Ponieważ ochrona antywirusowa jest zaawansowana technicznie i musi radzić sobie z ruchomymi celami, firma Symantec utworzyła formalną grupę badawczą ds. antywirusów, która zatrudnia około 400 pracowników. Chociaż pakiety antywirusowe dla konsumentów są prawdopodobnie najbardziej znane, firma Symantec oferuje również pakiety zabezpieczeń korporacyjnych i korporacyjnych w wyniku przejęcia firmy Veritas. Symantec i chińska firma telekomunikacyjna Huawei utworzyły również wspólną firmę zajmującą się badaniami i analizami cyberbezpieczeństwa o nazwie Huawei Symantec. Symantec to dobra firma na studia przypadków w szkołach biznesowych, ponieważ kilkakrotnie zmieniała kierunki. Wyjątkowy program sprzedaży "sześciopaków", w który zaangażowany był prawie każdy pracownik, jest również nowatorskim podejściem, które zasługuje na uwagę szkół biznesu. Nie wszystkie recenzje firmy Symantec były pozytywne. Na przykład podczas ataku w oprogramowaniu i sieci New York Times tylko kilka zagrożeń zostało wykrytych przez narzędzia firmy Symantec. Sam Symantec został zhakowany w 2012 roku, co jest żenujące dla firmy zajmującej się bezpieczeństwem. Firma Symantec przejęła firmę VeriSign, która rzekomo weryfikowała witryny internetowe i wystawiała certyfikaty bezpieczeństwa. Po włamaniu do VeriSign i kradzieży niektórych danych w 2010 roku, ważność tych usług została zakwestionowana. Firma VeriSign była również krytykowana za opóźnienia w zgłaszaniu włamania. Ostatnim problemem związanym z firmą Symantec jest to, że firma Symantec nie otrzymała bardzo dobrych recenzji od konsumentów ani czasopism poświęconych obsłudze klienta. Niektóre ataki bezpieczeństwa i problemy przeciwko firmie Symantec ilustrują ważną kwestię. Hakerzy i wirusy komputerowe stają się coraz bardziej wyrafinowani, dlatego firmy antywirusowe muszą ciężko pracować, aby wyprzedzić konkurencję.

TechSoup Global

TechSoup Global jest organizacją non-profit na mocy przepisów 501 (c) (3). Został zapoczątkowany w 1987 roku w San Francisco w Kalifornii przez Daniela Ben-Horina pod nazwą The ComputerMentor Project. Organizacja zmieniła nazwę na TechSoup Global w 2008 r., Stając się kolejną z setek firm i organizacji zajmujących się oprogramowaniem i pomocą techniczną, które w miarę rozwoju miały wiele nazw. Ta organizacja sama w sobie jest organizacją non-profit, a jej misją jest wspieranie innych organizacji non-profit i charytatywnych poprzez przekazywanie darowizn w postaci oprogramowania, komputerów i innych technologii, pobierając jedynie niewielką opłatę administracyjną. Organizacja TechSoup obsługuje również biblioteki. Wiele organizacji charytatywnych zatrudnia wolontariuszy i dysponuje niewielkimi budżetami na zasoby komputerowe i oprogramowanie, ale mają one kluczowe znaczenie dla ich działalności.

Organizacje non-profit w dziedzinie informatyki i oprogramowania

Eileen Jones jest głucha, ale ma implanty ślimakowe, które przywróciły jej słuch. Założyła fundację non-profit o nazwie Gift of Hearing Foundation (GOHF), aby pomóc w udostępnianiu implantów ślimakowych osobom bez ubezpieczenia, zwłaszcza małym dzieciom. Cały zarząd działa na zasadzie wolontariatu. Znaczna część pracy GOHF obejmuje bazy danych klientów, szpitali, chirurgów, audiologów, towarzystw ubezpieczeniowych i innych stowarzyszeń pomagających osobom niesłyszącym i niedosłyszącym. Aby pomóc nieubezpieczonemu pacjentowi w otrzymaniu implantu ślimakowego, należy skontaktować się z co najmniej kilkunastoma grupami i uzgodnić współpracę. tutaj jest wiele formularzy, wniosków i innych dokumentów, których to dotyczy. Bez komputerów i oprogramowania praca ręczna poświęcona papierkowej robocie może kosztować prawie tyle samo, co sam implant ślimakowy. Oryginalna nazwa ComputerMentor była trafna, ponieważ założyciel i jego współpracownicy zapewniali mentoring i szkolenia personelowi non-profit, który potrzebował komputerów i oprogramowania, ale nie był przeszkolony w zakresie inżynierii oprogramowania ani umiejętności technicznych. Chociaż TechSoup rozpoczął swoją działalność jako lokalna organizacja w Kalifornii, rozwijał się i rozwijał, dzięki czemu w bieżącej dekadzie obsługuje organizacje non-profit i organizacje charytatywne w 190 krajach. Duże firmy programistyczne stworzyły olbrzymie bogactwo i sporo z nich zdecydowało się przeznaczyć część tego majątku na projekty charytatywne i publiczne. W celu dostarczenia oprogramowania i sprzętu dla grup charytatywnych po cenach niższych niż detaliczne, główni sprzedawcy muszą udostępniać swoje produkty poprzez darowizny na cele charytatywne. Wiele dużych firm uczestniczy wraz z TechSoup we wspieraniu organizacji charytatywnych poprzez darowizny. Wśród firm wspierających organizacje charytatywne są Microsoft, Cisco, Symantec, Sun i Adobe. TechSoup Global ma teraz sieć grup partnerskich w 40 krajach i oferuje szereg usług, w tym komputery z odzysku i odnowione, szkolenia, podręczniki i inną pomoc, a wszystko to przeznaczone specjalnie dla innych organizacji non-profit i charytatywnych. Tak jak komputery i oprogramowanie stały się głównymi narzędziami operacyjnymi w biznesie i administracji, są również niezbędne dla organizacji charytatywnych. Na przykład każda organizacja charytatywna potrzebuje bazy danych klientów, których wspiera, oraz darczyńców, którzy przekazują darowizny. Wszystkie organizacje charytatywne muszą prowadzić normalną dokumentację finansową, która pod wieloma względami jest bardziej uciążliwa niż dokumentacja finansowa firm nastawionych na zysk. Opodatkowanie organizacji non-profit jest niezwykle skomplikowane. (Intuit ma specjalną wersję programu QuickBooks dla grup non-profit). Ogólnie TechSoup Global udzielił pomocy ponad 197 000 organizacjom charytatywnym i non-profit, których łączna wartość detaliczna oprogramowania i komputerów zbliża się do 3,5 miliarda dolarów. Bez darowizn i pomocy TechSoup i innych charytatywnych grup wsparcia, takich jak Freelanthropy, wiele organizacji charytatywnych i non-profit prawdopodobnie by nie być w stanie wspierać tak wiele osób, jak oni, ponieważ ręczne metody prowadzenia dokumentacji byłyby niewystarczające. Grupy charytatywne i organizacje non-profit potrzebują oprogramowania i komputerów tak samo jak firmy z listy Fortune 500, ale generalnie mają bardzo małe budżety i polegają na oprogramowaniu wolontariuszy i personelu pomocniczym. TechSoup Global świadczy również specjalistyczne usługi dużym organizacjom, które zapewniają dotacje i fundusze organizacjom charytatywnym i non-profit.Wiele z nich znajduje się w innych krajach, a TechSoup pomaga w ustaleniu, czy ich status prawny jest równoważny z organizacjami non-profit w Stanach Zjednoczonych. Nazywa się to określeniem równoważności. Nie trzeba dodawać, że grupy oferujące dotacje, sprzedawcy, którzy przekazują oprogramowanie i komputery oraz organy podatkowe, takie jak IRS, chcą mieć pewność że odbiorcami grantów, podarowanego oprogramowania i podarowanych komputerów są autentyczne organizacje charytatywne i non-profit. TechSoup Global zajmuje bardzo interesującą niszę rynkową, która wymaga znacznie więcej badań, niż zwykle znajduje się w literaturze dotyczącej oprogramowania akademickiego. W rzeczywistości szkoły biznesu powinny rozważyć studia przypadków dotyczące korzyści i wpływu komputerów i oprogramowania w organizacjach charytatywnych.

Wolfram Research

Wolfram Research została założona przez matematyka Stephena Wolframa w 1987 roku w Champaign w stanie Illinois. Dwa główne produkty tej firmy są ważne, pionierskie i potężne. Jednym z produktów jest Mathematica, który jest zaawansowanym pakietem matematycznym, szeroko stosowanym przez astronomów, fizyków, chemików, biologów i innych badaczy, którzy muszą wykonywać zaawansowane obliczenia matematyczne. Jest również używany przez wielu studentów i zasadniczo każdego, kto potrzebuje większej mocy matematycznej niż może zapewnić arkusz kalkulacyjny lub kalkulator naukowy. Drugim głównym produktem jest Wolfram Alpha, który jest pionierskim inteligentnym agentem, który skanuje sieć i zwraca z analizą wyników, a nie tylko listami stron internetowych zawierających informacje. Oprócz tych dwóch istnieją inne produkty, takie jak Wolfram System Modeler i Wolfram Workbench. Firma opracowała również Computable Document Format (CDF), który jest podobny do formatu PDF, ale jest używany tylko do dokumentów interaktywnych. Wielu założycieli systemów oprogramowania ma interesujące pochodzenie i osobowości, a Stephen Wolfram nie jest wyjątkiem. Był czymś w rodzaju cudownego dziecka i był znany z odrabiania zadań domowych z matematyki dla swoich kolegów za opłatą. Uzyskał naukę w kilku głównych szkołach, w tym w Eton, Oxford i Cal Tech, gdzie uzyskał stopień doktora. ukończył fizykę w wieku 20 lat. Wcześniej, będąc jeszcze nastolatkiem, opublikował wiele wysoko cenionych prac na tematy fizyczne, np. takie jak ciężkie kwarki.

Uwaga: Stephen Wolfram jest także konsultantem Numb3rs, telewizyjnego tajemniczego programu o wykorzystaniu matematyki do rozwiązywania spraw karnych.

Warto przypomnieć, że potrzeba przyspieszenia obliczeń matematycznych była impulsem, który doprowadził do powstania dziesiątek mechanicznych urządzeń liczących, a wreszcie komputerów analogowych i cyfrowych. Wolfram's Mathematica jest jednym z najbardziej zaawansowanych pakietów matematycznych w historii i pokazuje prawie wszystko, co komputery mogą zrobić dla matematyki. Pionierskim narzędziem jest również wyszukiwarka Wolfram Alpha. Kiedy użytkownik zadaje pytanie, w którym możliwe są rzeczowe odpowiedzi, Wolfram Alpha podaje przydatny zwrot. Na przykład pytanie typu "Ile protonów znajduje się w atomie wodoru? "Da odpowiedź" 1. " To nie jest tylko wskaźnik do dokumentu lub strony internetowej, ale prawdziwa odpowiedź. Udzielane są również odpowiedzi na bardziej wyrafinowane pytania. Na przykład witryna o Wolfram Alpha zawierała przykładowe pytanie "Opowiedz mi o żywieniu Big Maca", co oznacza hamburgera sprzedawanego przez McDonald's. Odpowiedzią na to pytanie jest szczegółowa lista składników oraz informacje o kaloriach, tłuszczach nasyconych, tłuszczach wielonienasyconych, białkach, węglowodanach i w zasadzie o wszystkim innym. Wolfram prowadzi ciągłe badania nad przechwytywaniem wiedzy, taksonomiami klasyfikacji wiedzy i innymi zaawansowanymi tematami badawczymi. Pomysły stojące za Wolfram Alpha mogą stać się głównym nowym obszarem badań intelektualnych, a także badań inżynierii oprogramowania. Potencjalnie Wolfram Alpha może stać się rodzajem ogólnoświatowej sieci wiedzy, która syntetyzuje fakty i zamienia je w przydatne i czytelne informacje. Nie trzeba dodawać, że technologia Wolfram Alpha ma znaczenie dla systemów wojskowych, obronnych i bezpieczeństwa, a także dla biznesu i nauki. Ciekawych informacji powinno dostarczyć pytanie wojskowe, takie jak "Opowiedz mi o zdolnościach obrony powietrznej Korei Północnej". Kolejna interesująca kwestia może brzmieć "Powiedz mi, które kraje inicjują najwięcej cyberataków na Stany Zjednoczone". Przeszukiwanie sieci i znajdowanie faktycznych informacji jest dość łatwe. Jednak syntetyzowanie faktycznych informacji z setek źródeł i sporządzenie uzasadnionej analizy jest znacznie trudniejszym przedsięwzięciem. Wolfram Alpha jest prawdziwym pionierem w dziedzinie, która może mieć globalny wpływ. Istnieje wiele pytań biznesowych, na które inteligentny agent, taki jak Wolfram Alpha, może wkrótce być w stanie odpowiedzieć. Wśród nich znalazłoby się "Którzy klienci z listy Fortune 500 korzystają z pakietu Oracle ERP? "Lub" Ile kopii narzędzia do szacowania parametrycznego KnowledgePLAN jest zainstalowanych w Ameryce Południowej? " Wolfram Research pozostaje firmą prywatną, która nie weszła na giełdę ani nie miała pierwszej oferty publicznej. Jednak wartość własności intelektualnej Wolfram Research wydaje się ogromna. Bez wątpienia wiele dużych korporacji, takich jak Google czy IBM, które posiadają laboratoria badawcze, uznałoby Wolfram Research za bardzo atrakcyjny cel przejęcia. Firmy cytowane w tej dekadzie to tylko próbki. W latach 80. powstało również wiele innych firm. W tej dekadzie komputery i oprogramowanie stały się niemal powszechne jako kluczowe narzędzia biznesowe wszystkich głównych firm i agencji rządowych. Wykorzystanie komputerów osobistych jako narzędzi prywatnych również szybko wzrosło dzięki komputerowi IBM PC (i jego wielu klonom) oraz komputerowi Apple.

Wyniki dla 1000 punktów funkcyjnych około 1985 roku

Wyniki takiego samego zastosowania 1000 punktów funkcyjnych byłyby następujące:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 58182 instrukcji kodu logicznego
•  Język programowania: COBOL i SQL
•  Procent ponownego wykorzystania: od 0% do 15%
•  Metodologia: iteracyjny i ustrukturyzowany rozwój
•  Wydajność: 7,0 punktów funkcyjnych na pracownika miesięcznie
•  Potencjał defektów: 4,5 defektu na punkt funkcyjny
•  Skuteczność usuwania defektów (DRE): 87%
•  Dostarczone wady: 0,58 usterek na punkt funkcjonalny
•  Stosunek personelu programistycznego do utrzymania:
•  Rozwój: 70%
•  Konserwacja: 30%
Poniżej przedstawiono podstawowe dane za rok 1985:
•  Średni poziom języka: 5,50
•  Liczba języków programowania: 750
•  Instrukcje logiczne na punkt funkcyjny: 58
•  Średnia wielkość aplikacji: 1100 punktów funkcyjnych
o Średnia wielkość aplikacji: 63 800

W tej erze rozmiary aplikacji gwałtownie wzrosły. Przed tą erą tylko kilka aplikacji, takich jak systemy operacyjne mainframe, miało więcej niż 10 000 punktów funkcyjnych. W latach 80. wiele głównych zastosowań obronnych i systemów cywilnych zaczęło przekraczać 100 000 punktów funkcyjnych. Zwiększenie rozmiaru aplikacji doprowadziło do niepokojącego problemu, który nadal istnieje: około 35% głównych aplikacji zawierających więcej niż 10 000 punktów funkcyjnych jest anulowanych bez ukończenia. Dzieje się tak, ponieważ niska jakość prowadzi do tak dużych kosztów i przekroczeń harmonogramu, że zwrot z inwestycji staje się ujemny.

Podsumowanie

Na początku dekady oprogramowanie i komputery w wielu firmach były nadal nieco eksperymentalne. Pod koniec dekady oprogramowanie i komputery były na dobrej drodze, aby stać się głównymi narzędziami biznesowymi każdej firmy i agencji rządowej na świecie, która zatrudnia więcej niż kilku pracowników. Wzrost wykorzystania komputerów i oprogramowania przez firmy, które mogą nie mieć wystarczającej liczby wykwalifikowanych pracowników, doprowadził do szybkiego rozwoju kilku branż pomocniczych, takich jak doradztwo w zarządzaniu, wydawanie książek z oprogramowaniem, seminaria i komercyjne sklepy edukacyjne, takie jak Digital Consulting. Jeszcze innymi dynamicznie rozwijającymi się podgrupami tej dekady były grupy doradztwa w zakresie zarządzania, takie jak Accenture, oraz grupy outsourcingowe, takie jak CAI. W tym dziesięcioleciu nastąpił również szybki wzrost komercyjnego COTS i pojawienie się niektórych pakietów open source. To była ostatnia dekada, zanim internet i sieć World Wide Web zmieniły fundamentalną naturę komunikacji międzyludzkiej i interakcji społecznych. W latach osiemdziesiątych ludzie nadal mieli więcej żywych przyjaciół niż przyjaciół zdalnych, znanych tylko dzięki kontaktom internetowym. Nadal częściej używali telefonów do rozmów niż do wysyłania SMS-ów. Smartfony to wciąż przyszłość.


Powrót

1990-1999: Ekspansja sieci World Wide Web i wzrost popularności Dot-Comów



W latach dziewięćdziesiątych gwałtowny rozwój Internetu i sieci WWW na zawsze zmienił komunikację międzyludzką i życie społeczne. Zaczęły się pojawiać nowe firmy i tworzyć nowe rodzaje rynków, sprzedając produkty zdalnie przez Internet. Żywiołowość i podekscytowanie rozległymi nowymi światowymi rynkami opartymi na Internecie doprowadziły do ogromnej eksplozji firm i produktów sprzedawanych w Internecie przez firmy zwane dot-coms. Były znane jako dot-coms, ponieważ ich adresy internetowe kończyły się kropką, po której następował termin "com", który był oficjalnym terminem internetowym określającym handel. Na początku następnej dekady bańka dot-comów pękła, a wiele z tych nowych firm zbankrutowało, ale w latach 90. XX wieku nastąpiła ogromna globalna ekspansja komunikacji i handlu zdalnego. W tym dziesięcioleciu pojawiła się również bankowość internetowa i nowe sposoby zdalnego kupowania artykułów. Była to również owocna dekada dla gier komputerowych, których liczba i złożoność wzrosła i zaczęły oferować realistyczne tła i grafikę w wysokiej rozdzielczości. W 1999 roku pojawiła się nowa waluta euro i rozpoczęła się jej obieg. Spowodowało to zmiany w tysiącach aplikacji bankowych i finansowych, ponieważ były one aktualizowane w celu odzwierciedlenia nowej waluty. Euro stało się oficjalne 1 stycznia 1999 r., Chociaż banknoty i monety weszły do obiegu dopiero w 2002 r. W ostatniej połowie tej dekady pojawił się problem "roku 2000" i skierował znaczne zasoby oprogramowania na konwersję dwucyfrowych dat, takich jak " 99 "na czterocyfrowe daty, takie jak" 1999 ". Powodem było to, że kiedy pojawił się rok 2000, format "00" zniszczyłby sekwencje sortowania dla wrażliwych czasowo informacji, takich jak podatki i dochody przedsiębiorstw. Pod koniec dekady, niektóre aplikacje zbliżały się do 20 lat użytkowania, więc "utrzymanie" zaczęło zastępować nowy rozwój jako dominujący program. Starsze aplikacje wymagające opieki geriatrycznej były głównymi elementami problemów euro i roku 2000.

Pojawienie się sieci WWW

Rozwój samego internetu został omówiony w poprzedniej części. Przypomnij sobie, że internet to sieć i narzędzia sieciowe, które umożliwiają komputerom i innym sieciom komunikowanie się ze sobą. Sieć WWW to nie to samo, co internet. Sieć to zbiór narzędzi i usług korzystających z internetu, ale skupiających się na udostępnianiu dokumentów i informacji. Centralnym narzędziem w sieci jest hipertekst, który pozwala zaznaczonym frazom w dokumencie kierować użytkowników na inne strony i inne witryny internetowe. W 1990 roku Tim Berners-Lee ukuł termin "World Wide Web". Bardzo wpłynął na jej rozwój i stworzył kilka wynalazków, w tym słynny język znaczników hipertekstowych (HTML), protokół przesyłania hipertekstu (HTTP), pierwszą przeglądarkę internetową i kilka innych wynalazków. Prawdopodobnie każdy czytelnik na co dzień używa liter "HTTP" jako integralnej części adresów internetowych. Niewielu czytelników wie, że jest to stosunkowo nowy wynalazek. Ponieważ sieć internetowa składa się z milionów stron hipertekstowych, wynalezienie HTML jest głównym wynalazkiem ludzkim w dziedzinie komunikacji. Na stronie hipertekstowej wybrane frazy są "aktywne" i przenoszą komputer na inną stronę i inną witrynę internetową. Każdy, kto korzysta z Wikipedii lub innych dokumentów internetowych, zauważy, że wyrażenia na żywo są zwykle w kolorze niebieskim lub podkreślone, aby wyróżniały się od normalnego czarnego tekstu. Kiedy Tim Berners-Lee opracował pierwszą przeglądarkę internetową, komputer, którego używał, był komputerem NeXT zaprojektowanym przez Steve′a Jobsa, który został omówiony wześniej. Przeglądarka internetowa jest niezwykle ważnym wynalazkiem, ponieważ pomogła przekształcić sieć w najważniejsze narzędzie badawcze w historii. Historia przeglądarek i tak zwanych wojen przeglądarek byłaby ciekawą książką - prawdopodobnie thrillerem. Tim Berners-Lee opublikował podsumowanie projektu World Wide Web 6 sierpnia 1991 r. Zwykle uważa się, że jest to data narodzin World Wide Web. Senator Al Gore, który później został wiceprezydentem, był sponsorem ważnej ustawy zwanej Ustawą o wysokiej wydajności obliczeniowej i komunikacyjnej z 1991 r., Która była również określana jako "ustawa Gore'a". Ustawa ta została przyjęta i podpisana przez prezydenta George'a W. Busha. Rachunek Gore'a przeznaczał 600 000 dolarów na utworzenie Krajowej Sieci Badawczo-Edukacyjnej. Gore jest również uznawany za wymyślenie terminu "autostrada informacyjna". Gore był na tyle obeznany z obsługą komputera, że opublikował artykuł w specjalnym wydaniu magazynu "Scientific American" we wrześniu 1991 r. zatytułowanym "Komunikacja, komputery i sieci". Scientific American był i pozostaje prestiżowym czasopismem naukowym. Przeglądarka internetowa Mosaic pojawiła się po raz pierwszy w 1993 roku. Nie była to pierwsza przeglądarka internetowa, ale przez kilka lat była najpopularniejsza. Mosaic został opracowany w National Center for Supercomputing Applications (NCSA) na kampusie University of Illinois w Urbana-Champaign. Mosaic obsługiwał kilka starszych protokołów internetowych, miała przyjemny interfejs i dobrą kosmetykę i działał na komputerach osobistych IBM. Zasadniczo sprawiła, że internet był dość łatwy w użyciu dla konsumentów zamiast sieci używanej przez specjalistów technicznych. Ale wkrótce pojawi się o wiele więcej przeglądarek. Niektórzy programiści Mosaic pracowali także nad przeglądarką Netscape, która była kolejnym popularnym narzędziem do surfowania po sieci. Fraza "surfowanie po sieci" została stworzona w 1992 roku przez bibliotekarza Jean Armor Polly z Liverpoolu w stanie Nowy Jork. Użyła wyrażenia w artykule zatytułowanym "Surfing the Internet". Komputery i oprogramowanie wprowadziły istotne zmiany w naszym codziennym słownictwie. Setki nowych terminów lub nowych definicji starszych terminów powstały pod wpływem komputerów i oprogramowania. Kilka przykładów obejmuje aplikację, duże zbiory danych, powiązanie, przeglądarkę, botnet, błąd, komputer (urządzenie), cyberprzestępczość, bazę danych, zakleszczenie, punkt funkcyjny, google (jako czasownik), hipertekst, hiperwizor, interfejs, internet, złośliwe oprogramowanie, obiekt, obiektowy, łatka, program, programista, relacyjna baza danych, oprogramowanie, adres URL, wirtualny, wirus, stacja robocza i robak. Specjalne słownictwo techniczne związane z dziedziną naukową lub techniczną nazywa się argot. Argot inżynierii oprogramowania jest jednym z największych do tej pory i nadal szybko rośnie. Nowe terminy są tworzone prawdopodobnie co tydzień. Wystarczy powiedzieć, że istniała duża konkurencja i ostatecznie spory sądowe w ważnej dziedzinie przeglądania sieci, w tym ostra konkurencja między Netscape i Windows Explorer. Z biegiem czasu powstało wiele potężnych przeglądarek, w tym Google Chrome, Lirefox, Opera, Safari i Windows Explorer. "Wojny przeglądarek" trwały przez całą dekadę i zostały ostatecznie rozwiązane dopiero w następnej dekadzie, dopóki nie zostały wdrożone wyniki procesu antymonopolowego przeciwko Microsoftowi. W dniu 18 maja 1998 r. Departament Sprawiedliwości wytoczył firmie Microsoft pozew antymonopolowy. Pozew ten twierdził, że skoro Internet Explorer był dołączony do każdej kopii systemu Windows, ta metoda dystrybucji była antykonkurencyjna. To był bardzo chaotyczny przypadek, z silnymi opiniami po obu stronach. Decyzja sędziego Thomasa Penfielda Jacksona mogła podzielić Microsoft na dwie firmy. Jednak po odwołaniu podział nie był wymagany. Firma Microsoft była zobowiązana do opublikowania interfejsów aplikacji (API) i zezwolenia niektórym aplikacjom innych firm na łączenie się z systemem Windows. Sama sprawa była kontrowersyjna, niektórzy twierdzą, że w wyniku apelacji Microsoft uzyskał uprawnienia monopolistyczne. Pozew Microsoftu był na pierwszych stronach gazet pod koniec dekady i w następnym dziesięcioleciu. Bill Gates zeznawał i najwyraźniej nie robił dobrego wrażenia ze względu na liczne zapomnienia, przez co nie mógł odpowiedzieć na konkretne pytania. Cała sprawa była bardzo chaotyczna i prawie wszyscy, którzy w niej uczestniczyli, mieli nadszarpniętą reputację. W rezultacie oprogramowanie open source było w stanie skutecznie konkurować z przeglądarkami dużych firm, takich jak Microsoft i Apple. Na przykład Firefox i Google Chrome są teraz bardzo skutecznymi konkurentami w stosunku do Internet Explorera. Inne innowacje lat 90-tych Kolejną innowacją w tej dekadzie był rozwój systemu operacyjnego Linux typu open source przez Linusa Torvaldsa i współpracowników. Linux był ważną technologią, a także służył jako użyteczny model do tworzenia oprogramowania typu open source. Jednym z głównych wynalazków, który znacznie rozszerzył wykorzystanie komputerów do badań, był rozwój wyszukiwarki Google przez Larry'ego Page'a i Sergeya Brina w 1997 roku. Wyszukiwarki umożliwiły znalezienie informacji na każdy możliwy temat w sieci w ciągu kilku sekund. Rok 1993 był świadkiem tego, że Windows 3.1, który odszedł od starszych wersji, nie był budowany na starszym dyskowym systemie operacyjnym (DOS), ale raczej na nowym jądrze. Pierwszą z "modemowych" wersji systemu Microsoft Windows był Windows 95, który został wydany w 1995 roku, jak sama nazwa wskazuje. Jednak wkrótce pojawiło się wiele innych wydań i wersji. W 1995 roku połączenie firm elektronicznych - Philips, Sony, Toshiba i Panasonic - stworzyło wysokowydajne optyczne urządzenie magazynujące zwane cyfrowym dyskiem uniwersalnym lub cyfrowym dyskiem wideo (powszechnie nazywane DVD). Miały one znacznie większą pojemność niż starsze dyski kompaktowe (CD) z poprzedniej generacji. Format DVD doprowadziłby do powstania podgrupy sprzętu kina domowego, który obejmowałby odtwarzacz DVD i wysokiej klasy system audio z pięcioma lub siedmioma kanałami dźwięku. Format DVD zawierał tak wiele informacji, że nie ograniczał się już do zwykłego dźwięku stereo. Te kina domowe były wypełnione oprogramowaniem wbudowanym i prawdopodobnie nie mogłyby działać skutecznie bez oprogramowania wbudowanego. Napędy DVD pojawiły się również na komputerach, ale w kontekście komputera starsze napędy CD nadal były normą. W 1997 roku International Software Benchmark Standards Group (ISBSG) powstała w Australii. ISBSG jest jednym z najwygodniejszych źródeł danych porównawczych oprogramowania i jest również dość niedrogi. Zbiór danych ponad 6000 projektów oprogramowania jest szeroko stosowany w każdym większym kraju. Około roku 1997 firma Electronic Arts zleciła przeprowadzenie badań wykorzystujących satelity GPS do mapowania wielu pól golfowych. To mapowanie doprowadziło zarówno do symulowanych komputerowych gier golfowych, takich jak Links, a później do możliwości pobierania bardzo dokładnych map GPS tysięcy pól golfowych na urządzenia podręczne, a nawet urządzenia wielkości zegarka.

Technologia zmienia sport golfa

Golf to sport, który został znacząco zmieniony za sprawą oprogramowania i mikrokomputerów. Komputery i oprogramowanie doprowadziły również do opracowania pakietów do projektowania pól golfowych, które umożliwiają zarówno amatorom, jak i profesjonalistom modelowanie wysoce realistycznych pól golfowych. Często są to dodatki do skomputeryzowanych gier golfowych, ale są również używane do projektowania prawdziwych pól golfowych. W dzisiejszym świecie golfiści mogą kupić różne małe urządzenia GPS, w tym kilka noszonych jako zegarki na rękę. Zapewniają one przydatne informacje, takie jak dokładna odległość od dowolnego punktu do następnego tee. Niektórzy ostrzegają również przed niebezpieczeństwami i przeszkodami, a nawet prowadzą wyniki. Pod koniec tego wieku po raz pierwszy użyto wyrażenia "duże zbiory danych", które odnosi się do możliwości analizowania dużych baz danych zawierających miliony, a nawet miliardy rekordów. W tej dekadzie nastąpił szybki wzrost wyższych poziomów CMM 3, 4 i 5. Było to również świadkiem rozwoju Rational Unified Process (RUP) oraz zwiększonego wykorzystania wspólnego projektowania aplikacji (JAD) i ujednoliconego języka modelowania (UML). . Aplikacje internetowe eksplodowały w liczbach. Wirusy i cyberataki również zaczęły eksplodować częstotliwością. Kradzież tożsamości stała się problemem narodowym. Liczba języków programowania przekroczyła 1750, a najbardziej znane stały się Java, Visual Basic, PHP, JavaScript i Ruby. Globalny outsourcing eksplodował w tej dekadzie, a Indie, Chiny, Rosja, Filipiny i inne kraje o niskich kosztach pochłonęły amerykańskie projekty oprogramowania. Gotowe komercyjne oprogramowanie (COTS) zaczęło stanowić około 50% portfeli korporacyjnych. Do portfeli dodano masowe aplikacje do planowania zasobów przedsiębiorstwa (ERP), ponieważ starsze aplikacje nie mogły w łatwy sposób udostępniać danych korporacyjnych. W ostatnich latach dekady przyniosły dwa interesujące problemy, które spowodowały zmiany w milionach aplikacji na całym świecie: wprowadzenie euro w 1999 r. I problem roku 2000 pod koniec stulecia, kiedy kalendarz zmienił się z 1999 r. aa 2000 r. skróty cyfrowe od lat nie będą już poprawnie sortowane.

Firmy powstałe w latach 90-tych

Agilent 1999
Akamai 1998
Amazon 1994
The Analysis Group 1990
Apache 1999
AVG Anti-Virus 1991
CAST Software 1993 Cognizant 1994
Digital Playground 1993
eBay 1995
Expedia 1995
Geek Squad 1994
GoDaddy 1997
Google 1998
Hasbro Interactive 1995
Heartland Payment Systems 1997
Insight Venture Capital 1995
ISBSG 1997
ITT Technical Institute 1994
Macromedia 1992
MCC 1992
Monster.com 1999
Mosaic 1993
NetBank 1996
Netscape 1994
PALM 1992
PayPal 1998
Priceline 1997
R Systems 1993
Red Hat Software 1993
Red Storm Entertainment 1996
Sapiens 1990
SegaSoft 1995
SilverLake 1999
Sirius Satellite Radio 1990
Starfish 1994
Symbian 1998
Taligent 1992
ThoughtWorks 1993
Visio 1990
VMware 1998

Wykaz jest interesujący, ponieważ pokazuje ewolucję oprogramowania i wykorzystania komputera. Wiele firm w poprzednich dekadach, takich jak Microsoft i Apple, tworzyło nowe języki i nowe narzędzia do tworzenia oprogramowania. Chociaż w latach 90-tych. powstały firmy zajmujące się narzędziami i oprogramowaniem, większość z nich utworzyła komputery i oprogramowanie do tworzenia nowych rodzajów działalności. Na przykład Amazon jest odnoszącym sukcesy pionierem marketingu internetowego, PayPal i NetBank były pionierami w zdalnych transakcjach finansowych, Google był pionierem w technologii wyszukiwarek, a Sirius był pionierem w internetowych audycjach radiowych z satelitów. W latach dziewięćdziesiątych komputery i oprogramowanie stały się już uniwersalnymi narzędziami do prowadzenia firm, agencji rządowych i tradycyjnych sklepów detalicznych. W tej dekadzie zaczęły kwitnąć i rozszerzać się nowe formy internetowych modeli biznesowych. Niektóre z nich, takie jak Amazon, do dziś odnoszą sukcesy, ale wiele z nich nie przekroczyło bańki internetowej z 2000 roku. Oprócz tych przedstawionych tutaj powstało wiele innych firm. Na przykład powstało co najmniej kilkanaście firm zajmujących się grami. Jednak firmy zajmujące się grami mają zwykle własną kulturę i rzadko zlecają badania jakości lub produktywności, więc dostępnych jest bardzo niewiele danych, innych niż przychody. Omówiono niektóre firmy o nietypowych lub interesujących modelach biznesowych, które powstały w latach 90-tych XX wieku.

Akamai
Firma Akamai została założona w 1998 roku w Cambridge w stanie Massachusetts przez absolwenta MIT Daniela Fewina i profesora MIT Toma Feightona. (Niestety, Fewin był jednym z pasażerów samolotu American Airlines Flight 11 i zginął podczas ataków terrorystycznych 11 września 2001 r.). To interesująca firma niszowa. Przyspiesza przeglądanie stron internetowych poprzez tworzenie kopii lustrzanych witryn i treści internetowych na bardzo szybkich serwerach. Istnieje wiele serwerów, a jedną z dodatkowych funkcji Akamai jest zestaw algorytmów matematycznych do optymalizacji ruchu. (Obaj założyciele byli matematykami). Akamai ma ponad 100 000 serwerów w 78 krajach. Chociaż Akamai świadczy usługi użytkownikom, ich klientami są duże korporacje, które chcą dostarczać swoim klientom szybkie i bezpieczne treści.

Amazon

Firma Amazon została założona w Seattle w stanie Waszyngton w 1994 roku przez przedsiębiorcę Jeffa Bezosa. W 1996 roku wszedł na giełdę. Amazon jest obecnie największym na świecie sklepem internetowym. Ta firma, podobnie jak Apple, powstała w garażu założyciela. Nazwa pochodzi od Amazonki i została wybrana, ponieważ Jeff Bezos chciał, aby firma miała literę "A" jako pierwszą inicjał, tak aby pojawiała się na początku katalogów i książek telefonicznych. Amazon zaczynał jako księgarnia i oczywiście konkurował z tysiącami sklepów stacjonarnych w całym kraju. Zaletą Amazon było to , że oferuje więcej treści niż lokalne sklepy. Koszty były niskie, ponieważ nie było fizycznego magazynu. Nie było też podatków od sprzedaży, ale ta przewaga jest zaciekle atakowana przez liczne rządy stanowe. Biznesplan Amazona zakładał powolny wzrost i faktycznie firma traciła pieniądze od momentu powstania do czwartego kwartału 2001 r. Jednak stabilne wolumeny sprzedaży i niskie koszty operacyjne sprawiły, że firma pozostawała na rynku po pęknięciu bańki internetowej w 2000 r. Amazon później został rozszerzony z książek na inne rodzaje produktów. Amazon przypomina teraz starsze katalogi Sears Roebucks z lat pięćdziesiątych, kiedy Sears sprzedawał szeroką gamę produktów. Dziś Amazon sprzedaje komputery, aparaty fotograficzne, wszelkiego rodzaju elektronikę, płyty DVD, perfumy i oczywiście książki i e-booki. Różnorodność i sukces marketingowy Amazona sprawiły, że Time Magazine przyznał Jeffowi Bezosowi tytuł osoby roku w wydaniu specjalnym z 1999 roku. W ostatnich latach Amazon był pionierem w wydawaniu e-booków, a także wprowadził linię czytników e-booków o nazwie Kindles, które konkurują z Apple i innymi producentami tabletów. Jedną z przydatnych funkcji Amazon jest system rankingowy, w którym klienci mogą klasyfikować produkty, a także dostawców produktów. Rankingi używają systemu gwiazdkowego, przy czym pięć gwiazdek to najwyższa pozycja. Jest to tak przydatna funkcja przy kupowaniu takich przedmiotów, jak książki i płyty DVD, że zaskakujące jest to, że tradycyjne sklepy stacjonarne nie robią tego samego. Jednak rankingi są czasami podejrzane i mogą zostać wypaczone i podniesione przez korzystne oceny wystawiane przez znajomych lub pracowników, a nawet przez wymyślone recenzje. Amazon jest również hostem internetowym dla wielu innych firm, ponieważ jego farma serwerów jest tak duża. Amazon stoi obecnie w obliczu wielu wyzwań ze strony rządów stanowych, ponieważ w wielu stanach od towarów sprzedawanych przez Internet nie są pobierane żadne podatki od sprzedaży. Powodem tego jest to, że Amazon nie jest fizycznie obecny, a zatem nie podlega opodatkowaniu. Ta kwestia nie zniknie, ponieważ wiele stanów bezmyślnie przyznało pracownikom związkowym ogromne emerytury i niemożliwe do utrzymania świadczenia, co teraz prowadzi stany do bankructwa. Nie trzeba dodawać, że stany traktują opodatkowanie sprzedaży internetowej jako metodę zapewniania nowych dochodów. Kiedy stan Rhode Island próbował opodatkować sprzedaż Amazon, odpowiedzią ze strony Amazon było zerwanie więzi biznesowych z lokalnymi firmami, które były partnerami. Konsumenci indywidualni nadal mogliby dokonywać zakupów w Amazon. Jak dotąd podejmowane przez rządy stanowe próby opodatkowania Amazona i innych firm internetowych nie zakończyły się pełnym sukcesem i wydaje się, że przyniosły lokalnym firmom więcej szkody niż pożytku.

Apache

Obecnie większość użytkowników komputerów korzysta z serwerów Apache, ale niewielu o tym wie. Pochodzenie nazwy jest niejednoznaczne i albo jest hołdem dla rdzennych Amerykanów Apaczów, albo wywodzi się od terminu "niejednolity", ponieważ pierwszy produkt został stworzony przez naszywki do starszego produktu. Firma została założona mniej więcej w 1994 roku przez Roberta McCoola. Pracował nad protokołami HTTP w NCSA. Kiedy odszedł, kilka sugerowanych poprawek rozesłano w formie e-maili. W miarę ich wdrażania grupa tworząca kod stopniowo stała się znana jako grupa Apache. Grupa Apache utworzyła później w 1999 roku fundację non-profit o nazwie Apache Software Foundation. Posiadanie oprogramowania stworzonego i oferowanego przez fundację non-profit jest interesującym zjawiskiem społecznym ery oprogramowania. Oprogramowanie stworzone przez fundację jest bezpłatne i typu open source, ale jest kontrolowane przez licencję fundacji Apache. Apache Software Foundation ma radę dyrektorów, ale nie ma rzeczywistych pracowników. Zamiast tego oprogramowanie jest opracowywane przez sieć ponad 2600 wolontariuszy. To ciekawy model biznesowy, który zasługuje na naukę w szkołach biznesu. Głównymi produktami Apache Software Foundation są systemy do kontroli serwerów WWW. W 2009 roku farma serwerów Apache jako pierwsza hostowała ponad 100 milionów witryn internetowych. Do końca 2012 roku prawie 64% globalnych stron internetowych działało na serwerach Apache. Internet wyewoluował fascynującą historię społeczną, a także interesującą historię techniczną. Trudno wyobrazić sobie jakąkolwiek inną dziedzinę, w której usługi o kluczowym znaczeniu są świadczone ponad 100 milionom użytkowników przez nieopłacanych wolontariuszy.

Craigslist

Craigslist to ciekawa opowieść o przedsiębiorcy, który w ramach hobby na pół etatu tworzy firmę, która odniosła sukces. Firma została założona jako rozrywka w 1995 roku w San Francisco w Kalifornii przez Craiga Newmarka. Tak się składa, że był wówczas programistą komputerowym. Był nowy w San Francisco i pomyślał, że lista lokalnych wydarzeń to dobry sposób na badanie interesujących lokalnych tematów i być może poznawanie nowych znajomych. Założył listę e-mailową do przyjaciół i współpracowników dotyczącą lokalnych wydarzeń i interesujących tematów w rejonie Zatoki San Francisco. Później przeniósł listę do sieci. W1999, Craigslist została zarejestrowana w Kalifornii jako firma nastawiona na zysk. Chociaż Craigslist początkowo służył jako źródło lokalnych wydarzeń, wkrótce przekształcił się w gospodarza ogłoszeń o pracę, sprzedaży samochodów i innych produktów, a nawet serwisu randkowego. (W rzeczywistości wystąpiły problemy z obraźliwymi materiałami i reklamami dla dorosłych).

Uwaga: słynna sprawa morderstwa dotyczyła studenta medycyny imieniem Philip Markoff, który zamieścił fałszywe ogłoszenie o pracę na Craigslist, aby zwabić ofiary. Zamordował Julissę Brisman, która odpowiedziała na ogłoszenie, i stał się znany w mediach jako "zabójca z listy oszustów". Markoff popełnił później samobójstwo w więzieniu w oczekiwaniu na proces.

W 2000 roku Jim Buckmaster dołączył do Craigslist jako główny programista i CTO. Wprowadził szereg zmian technicznych, takich jak samodzielne publikowanie ogłoszeń, sprawdzanie w poszukiwaniu obraźliwych materiałów i ulepszenia interfejsu. W 2004 r. EBay kupił 25% udziałów w Craigslist, ale transakcja najwyraźniej nie była udana, ponieważ eBay i Craigslist weszły w spór w 2008 r. Craigslist jest obecnie na dziesiątej najczęściej odwiedzanej stronie internetowej z około 50 milionami odwiedzających miesięcznie. Dochód pochodzi z opłat za różnego rodzaju ogłoszenia, na przykład 75 USD za ogłoszenie o pracę w regionie San Francisco. Sukces Craigslist w przeciwieństwie do reklam w lokalnych gazetach pokazuje społeczny wpływ sieci na współczesny handel. Załóżmy, że mieszkasz w małym miasteczku liczącym około 20 000 mieszkańców i chcesz sprzedać luksusowy samochód, taki jak Lexus. Lokalna gazeta i lokalne broszury reklamowe dotrą tylko do kilkudziesięciu potencjalnych nabywców, głównie w Twojej lokalnej społeczności. Tak prowadzi się biznes od ponad 200 lat. Z drugiej strony reklama na craigslist dotrze również do mieszkańców okolicznych miast, a nawet sąsiednich stanów. Zamiast kilkudziesięciu potencjalnych lokalnych nabywców, craigslist może dotrzeć do kilkuset potencjalnych nabywców w promieniu 75 mil. Sieć i firmy takie jak Craigslist rozszerzały dawne usługi sąsiedzkie na usługi rozległe.

Digital Playground

Digital Playground zostało założone w 1996 roku w Van Nuys w Kalifornii przez filmowca dla dorosłych o nazwisku "Joone". Jedną z nieoczekiwanych branż związanych z komputerami i oprogramowaniem było pojawienie się pornografii internetowej, która stała się głównym biznesem. Chociaż Digital Playground tworzy filmy dla dorosłych, jest także pionierem w wielu kwestiach technicznych. Na przykład Digital Playground był pionierem w dziedzinie holografii i filmowania 3D. Byli również wśród firm, które wybrały format Blu-ray jako swój wybór do filmów o wysokiej rozdzielczości. Byli również pionierami interaktywnych filmów, w których widz mógł pozornie komunikować się z aktorką. Technologia oprogramowania Digital Playground i innych firm internetowych dla dorosłych jest zaskakująco wyrafinowana. Firma została przejęta w 2012 roku przez Manwin, większą firmę zajmującą się filmami dla dorosłych z siedzibą w Luksemburgu. Przemysł pornograficzny jest obecnie głównym przemysłem komputerowym w skali globalnej, z dziesiątkami firm i tysiącami pracowników technicznych, a także tysiącami aktorów i aktorek. Branża ma swoją własną kulturę, a nawet corocznie przyznaje nagrody dla najlepszego filmu, najlepszego aktora, najlepszej aktorki i w innych kategoriach. Ta gałąź przemysłu jest rzadko omawiana w głównych czasopismach i książkach poświęconych inżynierii oprogramowania, ale każda branża oprogramowania, która zatrudnia tysiące pracowników i generuje miliardy dochodów, jest znacząca.

eBay

eBay jest doskonałym przykładem historii sukcesu w Dolinie Krzemowej, w której zasadniczo przez przypadek rozsądny pomysł został przekształcony w firmę wartą miliard dolarów. Został on zapoczątkowany w San Jose w Kalifornii 5 września 1995 r. przez urodzonego we Francji programistę o nazwisku Pierre Omidyar, którego rodzina pochodziła z Iranu. Pierwotna nazwa firmy w momencie jej powstania brzmiała Auction. W 1997 roku stał się eBay. Ciekawym zjawiskiem społecznym jest to, że wiele firm typu start-up zmienia później swoje nazwy z tego czy innego powodu. Bez dokładnego wyliczenia ponad 25% firm cytowanych tu ma więcej niż jedną nazwę. eBay zaczynał jako internetowy dom aukcyjny. Jest to doskonały przykład tego, jak tradycyjna firma, taka jak aukcje, przekształciła się w znacznie większą firmę internetową w wyniku uzyskania dostępu do milionów potencjalnych klientów. Historia internetowa serwisu eBay zawiera ciekawą opowieść o jednym z pierwszych sprzedanych produktów: zepsutym wskaźniku laserowym, który został sprzedany za 14,83 USD. Założyciel serwisu eBay, Pierre Omidyar, wysłał kupującemu wiadomość e-mail, aby upewnić się, że zrozumiał, że wskaźnik jest uszkodzony i nie działa. Odpowiedź brzmiała: "Zbieram uszkodzone wskaźniki laserowe". W tym momencie Omidyar zdał sobie sprawę, że na aukcjach internetowych można sprzedać prawie wszystko. Początkowo eBay sprzedawał fizyczne przedmioty, ale później rozszerzył się na usługi sprzedaży, takie jak bilety lotnicze. W dzisiejszym świecie sprzedaje dziesiątki usług i tysiące produktów. eBay przeprowadził pierwszą ofertę publiczną (IPO) w dniu 28 września 1998 r., a jej założyciel stał się miliarderem wraz z Meg Whitman, która została zatrudniona jako prezes. eBay również urósł dzięki przejęciu i, między innymi, przejął komputerową konferencję telefoniczną Skype oraz firmę PayPal do obsługi płatności online. Kiedy PayPal został przejęty i stał się częścią eBay, firma zaczęła traktować PayPal jako jedyne źródło płatności, co wyeliminowało karty kredytowe z wielu produktów. (PayPal zostanie omówiony w dalszej części). Chociaż eBay sprzedaje szeroką gamę produktów, nie sprzedaje wszystkiego. Ze względów prawnych, biznesowych i etycznych serwis eBay nie sprzedaje napojów alkoholowych, wyrobów tytoniowych, broni palnej, narkotyków, lekarstw, nielegalnych lub skradzionych produktów, produktów szkodliwych, losów na loterie i wielu innych. Interesującą cechą serwisu eBay jest możliwość oceniania sprzedawców przez klientów za pomocą pięciopunktowego systemu gwiazdek. W odwróceniu ról sam eBay został porównany i zaliczony do zestawu 15 dostawców internetowych. Inną niezwykłą cechą serwisu eBay jest to, że przekazuje określony procent dochodów organizacjom charytatywnym. W rzeczywistości użytkownicy i klienci mogą wskazać konkretne organizacje charytatywne dla darowizn. To niezwykły aspekt biznesplanu, ale godny pochwały. Inne bogate firmy programistyczne mogą postępować według tego samego schematu.

Uwaga: Wielu przedsiębiorców zajmujących się oprogramowaniem jest filantropami i przekazuje fundusze, wsparcie korporacyjne i energię na wartościowe organizacje charytatywne. Fundacja Billa i Melindy Gatesów jest prawdopodobnie największą organizacją charytatywną założoną przez przedsiębiorcę oprogramowania. źródła finansowania organizacji charytatywnych non-profit, co ma znaczenie zarówno społeczne, jak i historyczne.

Podobnie jak inne organizacje zajmujące się sprzedażą i usługami w Internecie, eBay jest w centrum uwagi, jeśli chodzi o niepobranie podatków w lokalizacjach, w których nie jest fizycznie obecny. Wiele rządów stanowych próbuje obejść to ograniczenie. Ostatnim interesującym aspektem eBay jest to, że jego nowe biuro w San Jose zostało zaprojektowane tak, aby było przyjazne dla środowiska. Panele słoneczne na dachu zapewniają prawie 20% mocy do zasilania komputerów i sprzętu biurowego w budynku. System oświetlenia również wykrywa i reaguje na światło otoczenia. Zamiast stałego strumienia świetlnego, budynek dostosowuje jasność w oparciu o światło zewnętrzne. Serwis eBay stał się zróżnicowaną firmą z wieloma partnerami biznesowymi i wieloma formami działalności. Bez wątpienia jest to firma kluczowa dla studiów przypadku w szkołach biznesowych. Serwis eBay demonstruje również moc komputerów, oprogramowania i internetu w wykuwaniu nowych rodzajów zdalnych firm z tradycji starszych firm, takich jak domy aukcyjne.

GoDaddy

GoDaddy to interesująca firma niszowa, która opiera się na istnieniu sieci World Wide Web i fakcie, że adresy internetowe muszą być niepowtarzalne. Firma została założona w 1997 roku w Phoenix w Arizonie przez przedsiębiorcę Boba Parsonsa. Pierwotna nazwa przy założeniu brzmiała Jomax Technologies. Tutaj również zmiany nazw są bardzo powszechne wśród start-upów oprogramowania. Pierwotnie była to firma prywatna, która prawie miała debiut giełdowy w 2006 roku, ale zdecydowała się tego nie robić. W 2011 roku około 65% firmy zostało sprzedane grupie inwestorów venture capital za kwotę około 2,25 miliarda dolarów. Bob Parsons był już odnoszącym sukcesy przedsiębiorcą we wcześniejszej firmieł Parsons Technology, którą sprzedał Intuit, a następnie przeszedł na emeryturę. GoDaddy powstał, gdy porzucił emeryturę, aby po raz drugi zostać przedsiębiorcą. W branży zamieszkanej przez młodych przedsiębiorców, takich jak Steve Jobs, Sergey Brin i Mark Zuckerberg, interesujące jest to, że firma GoDaddy została założona przez byłego żołnierza piechoty morskiej, który sprzedał już jedną firmę i przeszedł na emeryturę, aby założyć nową. Nazwa "GoDaddy" najwyraźniej została wybrana podczas nieformalnego spotkania z pracownikami, którzy z jakiegoś powodu nie byli zadowoleni z poprzedniej nazwy Jomax. Zaproponowano podobną nazwę, Big Daddy, ale była już używana. (Gdyby była to firma ze Wschodniego Wybrzeża, nazwa mogłaby brzmieć "Big Papi" po graczu Red Sox, Davidzie Ortizie.) Główna działalność GoDaddy jest całkowicie zależna od istnienia Internetu i sieci WWW. Bez nich nie mogłaby istnieć. Po utworzeniu sieci i rozpoczęciu tworzenia witryn przez firmy szybko stało się oczywiste, że każda witryna potrzebuje unikalnej nazwy. W tym celu konieczne było utworzenie formalnego rejestru nazw, które nazywane są nazwami domen. Alfabetyczne lub alfanumeryczne nazwy domen to tylko powierzchnia. Są one mapowane na matematyczny i numeryczny adres protokołu internetowego (IP), który umożliwia automatyczne przechodzenie z jednej domeny do drugiej. Przychodzi mi na myśl analogia między nazwiskami ludzi w książce telefonicznej a ich numerycznymi numerami telefonów.

Uwaga: Oryginalny system nazw domen (DNS) został opracowany w 1983 r. Przez Paula Mockapetrisa.

Na początku dekady rejestr nazw domen był prowadzony przez National Science Foundation (NSF). W 1993 roku NSF zdecydował o sprywatyzowaniu rejestracji domen. GoDaddy nie była pierwszą firmą, która zapewniła rejestrację nazwy: to była firma Network Solutions. Firma zajmująca się nazwami domen ma teraz wiele firm, które współużytkują rejestr główny i konkurują ze sobą. GoDaddy to jeden z większych konkurentów, mający w rejestrze około 50 milionów nazw. Nazewnictwo i kontrola DNS to krytyczne aspekty Internetu i sieci WWW. Dość powiedzieć, że śledzenie miliardów stron internetowych nie jest trywialne, a matematyka jest złożona. GoDaddy zyskał swego rodzaju społeczną sławę dzięki nieco ryzykownym reklamom. GoDaddy zatrudnił wiele atrakcyjnych modelek, które stały się znane jako "dziewczyny GoDaddy". Jedną z nich jest słynna kierowca wyścigowy Danica Patrick. GoDaddy zebrał również sporo komentarzy społecznych ze względu na dość niekonwencjonalne reklamy umieszczane podczas różnych Super Bowls. Aby firma była wystarczająco duża, aby reklamować się podczas Super Bowl, musi być rzeczywiście duża i dochodowa. GoDaddy sponsorował także popsezonowu puchar piłkarski w college′u zwaną GoDaddy Bowl. Chociaż strategia reklamowa GoDaddy może wydawać się ekscentryczna, firma zyskała dobrą reputację. Została wymieniona na liście 100 najlepszych firm, dla których warto pracować w 2012 roku magazynu Fortune. Podobną nagrodę za to, że znalazła się wśród najlepszych firm w Phoenix, przyznała Phoenix Business Journal w 2011 roku. GoDaddy udziela również wielu znaczących datków na cele charytatywne. Wśród wspieranych przez nią organizacji charytatywnych są te pomagające dzieciom niepełnosprawnym; unikanie przemocy domowej; oraz poszukiwanie rozwiązań w walce z chorobą Parkinsona, bezdomnością i rakiem piersi. GoDaddy wspiera także Toys for Tots, lokalne Towarzystwo Humanistyczne i Szpital Dziecięcy w Phoenix. GoDaddy wspiera wiele firm i zachęca pracowników do udziału w pracach charytatywnych.

Google

Historia Google to klasyczna legenda przedsiębiorczości. Dwóch absolwentów opracowało interesującą matematyczną metodę przeszukiwania sieci, a kilka lat później przekształciło ją w wielomiliardową korporację. Oprócz reputacji Doliny Krzemowej jako inkubatora start-upów firma Google została założona przez Larry'ego Page'a i Sergeya Brina 4 września 1998 r. w garażu znajomego w Menlo Park w Kalifornii. Menlo Park znajduje się w pobliżu epicentrum Doliny Krzemowej.

Uwaga: nazwa "Google" pochodzi od matematycznego terminu "googol". Termin ten został stworzony w 1938 roku przez dziewięcioletniego chłopca o imieniu Milton Sirota. Googol został zdefiniowany przez Sirotę jako moc 10100. Ale Milton Sirota zaproponował również większą liczbę zwaną googolplex. Zostało to po raz pierwszy zdefiniowane przez Sirotę jako "jedynka, po której następują zera, aż się zmęczysz". Sirota był siostrzeńcem znanego matematyka Edwarda Kasnera, który zawęził wartość googolplex do 10 ^ 10 ^ 100. Bez względu na to, jak są zdefiniowane, googole i googolplexes to bardzo duże liczby.

W 1996 roku Page i Brin byli absolwentami Uniwersytetu Stanforda w Menlo Park. Pracowali nad interesującym projektem o nazwie Stanford Digital Library Project. Celem projektu było stworzenie zintegrowanej uniwersalnej biblioteki cyfrowej. W ramach badań prowadzonych w ramach projektu biblioteki Stanforda, Page i Brin zbadali łącza internetowe i opracowali interesujące i wydajne algorytmy wyszukiwania w sieci oparte na odsyłaczach wstecznych. Nie byli sami w tej dziedzinie, ponieważ inny badacz, Robin Li, wpadł na podobny pomysł. Później Li opatentował swoje algorytmy i stworzył Baidu, własną firmę i wyszukiwarkę w Chinach. Oprócz Google istniały inne i konkurencyjne metody wyszukiwania w sieci, ale Google zwykle szybko zapewniało dobre wyniki i zyskało na znaczeniu. Google również zaczął generować poważne przychody, zezwalając na reklamy związane z wyszukiwanymi słowami kluczowymi. Chociaż Brin i Page początkowo sprzeciwiali się reklamom, ostatecznie zdecydowali, że przychody są potrzebne, a reklamy są najskuteczniejszym sposobem ich uzyskania. Google miał kilka rund finansowania prywatnego i wysokiego ryzyka przed wejściem na giełdę w ramach pierwszej oferty publicznej. Większość pracowników Google była również akcjonariuszami, więc wymagania dotyczące raportowania dla Google były już dość uciążliwe. 19 sierpnia 2004 r. firma Google przeprowadziła udaną ofertę publiczną i sprzedała ponad 19 milionów akcji po 85 USD za akcję. Google był na najlepszej drodze, aby stać się gigantem oprogramowania. Pod koniec 2004 r. Google i jego partnerzy przetwarzali prawie 85% wszystkich wyszukiwań w sieci. Byli konkurenci, tacy jak Yahoo, ale Google był słoniem w pokoju. Później Microsoft utworzył własną wyszukiwarkę Bing. Pojawiają się jeszcze inne wyrafinowane formy wyszukiwarek, takie jak Wolfram Alpha. Google nadal szybko się rozwijał, zarówno dzięki przejęciom, jak i ekspansji na inne dziedziny. Na przykład Google Gmail jest obecnie główną usługą pocztową. Pakiet biurowy Google, Dokumenty Google, konkuruje z pakietem Microsoft Office. Przeglądarka Google Chrome konkuruje z Internet Explorer, Firefox, Opera, Safari i kilkoma innymi. Microsoft stał się zaciekłym konkurentem Google. W rzeczywistości Microsoft pozwał Google, aby powstrzymać swoich kluczowych kierowników przed dołączeniem do Google, twierdząc, że ich znajomość aplikacji Microsoft przyniosłaby Google korzyść i byłaby naruszeniem umów o pracę. Ta sprawa została rozstrzygnięta poza sądem. Google zasłynął z nieco dziwacznej kultury korporacyjnej i tendencja do bycia bardzo eklektycznym, zamiast podążania tylko jedną ścieżką biznesową. Jej strategia biznesowa jest często trudna do oszacowania, ponieważ wydaje się, że przechodzi ona zygzakiem od jednej technologii do drugiej. Podobnie jak wiele innych firm programistycznych, Google ma duże skrzydło filantropijne non-profit i zaczęło się od finansowania w wysokości miliarda dolarów. Google wspiera wiele organizacji charytatywnych i non-profit w obszarach związanych z walką z ubóstwem, zmianami klimatycznymi i różnymi programami zdrowia publicznego. To kolejny przykład przedsiębiorcy programistycznego ze świadomością społeczną, który część swoich dużych zysków przeznacza na cele charytatywne. Na szczęście nie jest to rzadkie w branży oprogramowania. Pozostawanie w czołówce badań w zakresie inżynierii oprogramowania i badań sprzętu to jeden z głównych obszarów zainteresowania Google. Nowa koncepcja okularów Google Glass z wbudowanym komputerem zbiera dobre i złe recenzje. Rozwój hybrydowego pojazdu elektrycznego przez Google jest daleki od konwencjonalnego oprogramowania, ale technicznie interesujący. Niektóre produkty Google, takie jak Sky Map i Google Maps, należą obecnie do najczęściej używanych aplikacji w smartfonach. Niedawna klapa spowodowana przez Apple próbę zastąpienia Map Google własnym błędnym programem do mapowania była przez kilka tygodni na pierwszych stronach gazet.Wydaje się, że szybko wypuszcza nowe wynalazki i produkty. Wiele z nich jest użytecznych i ekscytujących, ale nie wszystkie. W każdym razie Google dodał wiele emocji do inżynierii oprogramowania i popycha oprogramowanie w wielu interesujących nowych kierunkach. Wśród nich są badania Google dotyczące bezpiecznych języków programowania i lepszych sposobów zapobiegania cyberatakom.

Heartland Payment Systems

Firma Heartland Payment Systems została założona w 1997 roku w Princeton w stanie New Jersey przez Roberta O. Carra. Jej głównym przedmiotem działalności jest przetwarzanie płatności kartą kredytową. Karty kredytowe były oparte na pasku magnetycznym IBM, który można było wkleić na karty plastikowe. Wkrótce po wynalezieniu paska w 1960 roku, Visa, MasterCard, American Express i inni uczyniły zakupy kartami kredytowymi uniwersalnymi. Heartland jest jedną z kilku firm, których główna działalność polega na przetwarzaniu płatności kartą od tysięcy sprzedawców i małych organizacji detalicznych. Firmy te są mniej lub bardziej niewidoczne dla konsumentów, ale zapewniają "silniki", które czynią karty kredytowe użytecznymi. Wszyscy używają oprogramowania i potężnych komputerów, ponieważ przetwarzają miliony transakcji dziennie. Obecnie Heartland przetwarza dane kart kredytowych dla około 250 000 firm, które generują około 120 miliardów dolarów rocznie z płatności kartą kredytową. W 2009 r. Heartland trafił na pierwsze strony gazet z powodu masowego cyberataku, który wykradł dane kart kredytowych z pasków magnetycznych tysięcy kart kredytowych klientów indywidualnych. Rzeczywista kradzież miała miejsce w 2008 roku. Mężczyzna o nazwisku Albert Gonzalez został aresztowany i postawiony w stan oskarżenia, a później skazany na 20 lat więzienia federalnego. Atak najwyraźniej opierał się na wstrzyknięciach SQL, które wprowadziły pułapki typu back-door, które przekierowywały dane użytkownika na fałszywe adresy, aby można było wyodrębnić informacje. Po kradzieży danych można je magnetycznie zakodować na fałszywych kartach. Podobne ataki i inne akty oskarżenia wydano w związku z atakami na sklep detaliczny T. J. Maxx oraz sieć restauracji Dave and Buster. Cyberatak Heartland to przestroga, że we współczesnym świecie dane przechowywane na komputerach są cenniejsze, a czasem łatwiejsze do kradzieży, niż złoto. W następstwie ataku firma Heartland wprowadziła nowe i ulepszone metody bezpieczeństwa, które obejmują pełne szyfrowanie wszystkich danych.

Insight Venture Partners

Jak widać po liczbie wielomiliardowych firm programistycznych, o których mowa, przemysł oprogramowania wygenerował ogromne bogactwo. To bogactwo często powstaje, gdy startupy odnoszą sukcesy. Insight Venture Partners specjalizuje się w finansowaniu start-upów oprogramowania. Firma została założona w 1995 roku w Nowym Jorku przez Jeffa Horinga i Jerry'ego Murdocka. W sumie Insight zainwestował w około 170 firm programistycznych, w tym kilka znanych, takich jak Twitter, Tumblr i Quest Software. Insight zainwestowało około 5 miliardów dolarów. Insight Venture Partners sama w sobie nie jest firmą programistyczną, ale dostarczyła początkowe pieniądze dla wielu start-upów oprogramowania, z których 21 stało się później wystarczająco duże, aby mieć IPO. Społeczne i historyczne znaczenie ma to, że ogromne bogactwo, jakie przemysł oprogramowania stworzył, było potrzebne do rozpoczęcia działalności. Bez funduszy venture z takich grup jak Insight Venture Partners, wiele firm wymienionych w tej książce nie miałoby szans na rozpoczęcie działalności.

ISBSG

ISBSG to interesująca firma niszowa, która powstała jako luźna kooperacja organizacji metrycznych w pięciu krajach. Została założona przez Terry'ego Wrighta w 1994 roku, a trzy lata później Peter Hill dołączył jako prezes i zarejestrował firmę w Melbourne w Australii. ISBSG jest zorganizowana jako grupa non-profit i zapewnia bardzo przydatne usługi dla społeczności oprogramowania. ISBSG zbiera dane porównawcze dotyczące produktywności i jakości oprogramowania. Obecnie liczba dostępnych testów porównawczych przekracza 6000 projektów, a co roku przychodzą setki kolejnych. Testy ISBSG obejmują różne typy oprogramowania z różnych branż. Do tej pory ponad 20 krajów dostarczyło dane porównawcze. Wszystkie benchmarki w repozytorium ISBSG wykorzystują metryki funkcjonalne. Reprezentowane są zarówno punkty funkcyjne Międzynarodowej Grupy Użytkowników Punktów Funkcyjnych (IFPUG), jak i punkty funkcyjne COSMIC. Uwzględniono również niektóre inne metryki funkcjonalne, takie jak NESMA i FISMA

Punkty funkcyjne i inne wskaźniki

Mnogość wariantów punktów funkcyjnych nie jest tak naprawdę pomocna w zrozumieniu ekonomii. Rywalizujące twierdzenia wśród wariantów punktów funkcyjnych, że są "dokładniejsze", również nie są pomocne. Punkty funkcyjne są liczone przy użyciu złożonego zestawu reguł, a nawet przez certyfikowany personel liczący są rozbieżności. Nie ma "atomu cezu" ani absolutnego wzorca, z którym można porównać dokładność wzorcową. Jednak punkty funkcyjne są jedyną dostępną miarą, która dostarcza użytecznych danych ekonomicznych i może z powodzeniem normalizować wyniki. Starsze linie metryki kodu penalizują współczesne języki programowania i sprawiają, że wymagania i projekt są niewidoczne. Powszechnie stosowany miernik kosztu na defekt narusza standardowe założenia ekonomiczne, a także obniża jakość, osiągając najniższy koszt na defekt dla najbardziej wadliwego oprogramowania. Inne wskaźniki, takie jak punkty fabularne projektów zwinnych, nie są ustandaryzowane i różnią się tak bardzo w zależności od grupy, że analiza statystyczna nie ma sensu. Punkty przypadków użycia są bardziej stabilne (chociaż nie znormalizowane), ale nadają się tylko do projektów, które faktycznie projektują oprogramowanie z wykorzystaniem przypadków użycia. Nie mają wartości dla porównań między metodami. Punkty funkcyjne we wszystkich odmianach to najlepsze i najbardziej wiarygodne wskaźniki, jakie zostały dotychczas opracowane dla testów porównawczych oprogramowania i badań ekonomicznych oprogramowania. ISBSG jest głównym źródłem danych wykorzystujących metryki funkcjonalne. Jedynym zastrzeżeniem dotyczącym metryk funkcjonalnych jest to, że ręczne liczenie jest tak powolne i kosztowne, że metryki funkcjonalne są rzadko używane w systemach większych niż około 10 000 punktów funkcyjnych. Ręczne zliczanie punktów funkcyjnych wynosi średnio około 500 punktów funkcyjnych dziennie dla certyfikowanych liczników. Koszty ręcznej liczby punktów funkcyjnych mieszczą się w zakresie od około 2,50 USD do 5,00 USD za zliczony punkt funkcyjny. Duże systemy w zakresie 100 000 punktów funkcyjnych (takie jak systemy operacyjne, systemy obronne i pakiety ERP) prawie nigdy nie są liczone za pomocą punktów funkcyjnych i dlatego nie są uwzględniane w repozytorium ISBSG. Istnieje technika matematyczna zwana backfiring, która umożliwia konwersję liczby instrukcji kodu logicznego na równoważne liczby punktów funkcji, ale ta metoda nie jest dokładna ze względu na duże różnice w poszczególnych stylach programowania. Backfiring został po raz pierwszy opracowany w IBM przez Ala Albrechta i jego zespół, którzy na początku lat 70. wymyślili punkty funkcyjne w siedzibie IBM w White Plains w stanie Nowy Jork. Istnieje również nowoczesna i opatentowana metoda szybkiego określania rozmiaru oparta na dopasowywaniu wzorców, która umożliwia określanie rozmiaru aplikacji w czasie krótszym niż dwie minuty, niezależnie od ich rozmiaru nominalnego, ale ta metoda jest tak nowa, że w repozytorium ISBSG nie ma żadnych danych, które z niej korzystają. Ta metoda jest własnością firmy Namcook Analytics LLC. Kolejna nowa metoda automatycznego punktu funkcyjnego została ogłoszona jako standard przez Object Management Group (OMG), ale nie są jeszcze dostępne żadne dane przy użyciu tego podejścia. IFPUG wydał nowy miernik rozmiaru w 2012 r., który mierzy wymagania niefunkcjonalne. Przykładem wymagania niefunkcjonalnego mogą być specjalne funkcje, które poprawiają bezpieczeństwo lub wydajność, ale nie są liczone przy użyciu analizy punktów funkcyjnych. To nowe podejście nazywa się metrykami SNAP. Ponieważ jest tak nowy, dane empiryczne i wyniki pomiarów dopiero zaczynają się pojawiać w 2013 roku. Bez wątpienia dane te zostaną dodane do repozytorium ISBSG w przyszłości, gdy staną się dostępne. Metoda zbierania danych ISBSG wykorzystuje stosunkowo wyrafinowany kwestionariusz, który zawiera przydatne informacje o metodologiach oprogramowania, językach programowania i innych czynnikach, które mają wpływ na wyniki projektów programistycznych. Model biznesowy ISBSG udostępnia kwestionariusz wejściowy dla wszystkich klientów bezpłatnie, więc nie ma żadnych opłat za przesyłanie danych do repozytorium ISBSG. Za wyodrębnianie danych z repozytorium pobierane są opłaty, ale nie są one wygórowane. Dane ISBSG można sortować i wybierać, aby pokazać szereg interesujących podtematów. Na przykład istnieją dane dotyczące nowych projektów oraz konserwacji i ulepszeń; istnieją dane o dużych systemach i małych aplikacjach; istnieją dane o projektach Agile i wodospadach; są dane o aplikacjach COBOL i aplikacjach CLL. ISBSG zapewnia szereg przydatnych filtrów, dzięki którym klienci mogą wyodrębniać określone dane. Dane mogą być również przedstawiane według branż, takich jak bankowość, ubezpieczenia, telekomunikacja, produkcja i inne. Zdarza się, że dane zgłaszane przez klientów nie zawsze są w 100% dokładne. Wycieki i błędy danych nie są rzadkością wśród firm, które dostarczyły dane do repozytorium ISBSG. Kilka firm konsultingowych, które udają się na miejsce i wywiady z zespołami programistów, może mieć dokładniejsze dane, ale za gromadzenie danych na miejscu pobierane są znaczne opłaty za konsultacje, podczas gdy dane ISBSG są gromadzone bezpłatnie. Ponadto firmy konsultingowe pobierają znacznie więcej za swoje dane niż ISBSG. Ogólnie rzecz biorąc, repozytorium testów porównawczych ISBSG jest cennym źródłem informacji dla branży oprogramowania. Dane są szeroko wykorzystywane przez wiele firm do kalibracji szacunków i porównywania metodologii. Dane ISBSG są również publikowane w różnych artykułach i książkach. Istnieją również specjalne raporty, które mogą np. obejmują dogłębne badanie dużego banku. Branża oprogramowania potrzebuje danych, które dostarcza ISBSG, a organizacja ta stała się cennym źródłem informacji dla naukowców akademickich, korporacyjnych i rządowych.

Monster.com

Niewiele firm omówionych tu jest lepszymi przykładami wpływu internetu i sieci na ludzkie życie niż Monster.com. Monster.com stał się największą witryną z ofertami pracy na świecie, z ponad 1 milionem CV przesyłanych do niego i prawie 65 milionami odwiedzających poszukujących pracy miesięcznie. Taka firma nie mogłaby istnieć 20 lat temu, ponieważ technologie internetu, sieci, baz danych i logiki wyszukiwania kombinatorycznego są niezbędne, aby to działało. Sukces Monster.com jest jedną z najważniejszych ewolucji w zakresie poszukiwania pracy i ogłoszeń o pracę w historii ludzkości. Monster.com powstał w 1999 roku, ale powstał w wyniku fuzji, a nie jako samodzielny start-up. Dwie pionierskie strony z ofertami pracy, które się połączyły, to Monster Board (TMB) i On-Line Career Center (OLC). Jeff Taylor był założycielem i dyrektorem generalnym Monster Board. Organizacja powstała we Framingham w stanie Massachusetts, ale przeniosła się do Maynard w stanie Massachusetts, gdzie zajmowała powierzchnię w dawnym kompleksie biurowym Digital Equipment Corporation (DEC). Wczesna historia jest złożona i obejmuje wiele fuzji i przejęć. Zaczęło się od starszej firmy o nazwie Telephone Marketing Programs (TMP) Worldwide, która została założona w 1967 roku i rozpoczęła się jako firma drukowana zajmująca się "żółtymi stronami". W 1993 roku TMP uruchomił dział rekrutacji. W 1995 roku przejął Monster Board i On-Line Career Center, dwie firmy, które później się połączyły. Sama witryna Monster.com jest własnością Monster Worldwide, Inc. Monster był pionierem w wyszukiwaniu ofert pracy za pośrednictwem Internetu i miał jedną z pierwszych witryn z ofertami pracy w 1994 r., Niedługo po tym, jak sieć zaczęła działać na arenie międzynarodowej. Chociaż Monster.com jest bardzo popularny wśród osób poszukujących pracy i firm poszukujących nowych pracowników, nie wszystko poszło gładko w miarę rozwoju firmy. W 2007 roku Monster.com został zhakowany, a dane osobowe tysięcy kandydatów poszukujących pracy zostały skradzione z jego baz danych. Chociaż Monster powiedział, że poprawi to bezpieczeństwo, w 2009 roku miał miejsce kolejny hack w brytyjskim centrum danych Monster, w wyniku którego mogło dojść do kradzieży nawet 4,5 miliona rekordów. W 2006 r. Biuro prokuratora generalnego stanu Nowy Jork rozpoczęło dochodzenie w sprawie twierdzeń dotyczących datowanych wcześniej opcji na akcje. Firma Monster rozpoczęła własne dochodzenie wewnętrzne i zgłosiła pewne nieprawidłowości, które doprowadziły do ponownego ustalenia dochodów z lat 1997-2005. Doszło również do zwolnień personelu. Spółka macierzysta TMP Worldwide weszła na giełdę w 1996 roku i jest notowana na NASDAQ. Pomimo hacków i problemów prawnych Monster.com pozostaje pionierem w wyszukiwaniu zatrudnienia i ogłoszeniach o pracę online, a także jest firmą, która stworzyła wiele innowacji w systemach personalnych.

Netscape Communications

Netscape był pionierem wśród przeglądarek internetowych, a także jednym z walczących w słynnych "wojnach przeglądarek", konkurując z Microsoftem. Firma została założona 4 kwietnia 1994 roku w Mountain View w Kalifornii przez Jima Clarka i słynnego przedsiębiorcę z Doliny Krzemowej Marca Andreesena. Pierwotnie firma była Mosaic Communications Corporation, ale podobnie jak w przypadku wielu start-upów oprogramowania, nazwa firmy uległa zmianie. Wiele osób, które tworzyły oryginalną przeglądarkę internetową Mosaic, również pracowało nad rozwojem przeglądarki internetowej Netscape, ale ich kod źródłowy był inny. Firma Netscape stworzyła również słynny język programowania JavaScript i zapoczątkowała protokół Secure Sockets Layer (SSL). W szczytowym okresie Netscape miał około 90% rynku przeglądarek, ale ostatecznie stracił udział w rynku na rzecz przeglądarki Microsoft Internet Explorer. Doprowadziło to do pozwu antymonopolowego przeciwko firmie Microsoft w 1998 r., Ponieważ Internet Explorer był dostarczany jako część systemu Windows i nie był sprzedawany oddzielnie. Firma Netscape została przejęta przez America Online (AOL) w 1999 roku za akcje i udziały o wartości około 10 miliardów dolarów. Podczas pierwszej wojny przeglądarek Internet Explorer zajął dominujące miejsce, podczas gdy wykorzystanie Netscape spadło. Jednak Netscape zdecydował się uczynić kod źródłowy swojej przeglądarki platformą open source, co pomogło w stworzeniu Mozilla Foundation. Późniejsza przeglądarka Firefox firmy Mozilla jest potomkiem oryginalnej przeglądarki Netscape. Uwaga: Wojny przeglądarek trwają do dziś, a do walki dołączyli nowi gracze. Obecne przeglądarki to Apple Safari, Google Chrome, Internet Explorer, Mozilla Firefox, Opera, OmniWeb, Shira i wiele innych. We współczesnym świecie przeglądarki działają również na smartfonach i tabletach, a także na komputerach. Historia i technologia przeglądarek internetowych należą do najbardziej złożonych, ale interesujących tematów w szerszej historii inżynierii oprogramowania.

Wojny przeglądarek prowadzą do szybkiego wzrostu możliwości i funkcji przeglądarek, ponieważ różne firmy zajmujące się przeglądarkami starają się wyprzedzić swoich rywali. Sama Netscape przeszła od niezależnej firmy do AOL i została zamknięta przez AOL w 2003 roku. Jednak nazwa "Netscape" nadal istnieje, podobnie jak przeglądarka. Wyszukiwanie "Netscape" w sieci WWW prowadzi do witryny dostawcy usług internetowych (ISP).

Priceline

Firma Priceline została założona w 1997 r. w Norwalk w stanie Connecticut przez przedsiębiorcę oprogramowania J. S. Walkera. Model biznesowy Priceline jest ciekawy i nietypowy. Priceline jest kanałem dystrybucji różnych produktów i usług, takich jak bilety lotnicze, pokoje hotelowe i pakiety wakacyjne. Użytkownicy określają przedział cenowy, a Priceline następnie raportuje, które firmy mogą dopasować cenę podaną przez użytkownika. Faktyczne nazwy hoteli lub linii lotniczych są ukrywane przed klientami, dopóki nie zawrą umowy zakupu bez zwrotu pieniędzy. Priceline otrzymuje część kosztów od sprzedawców usług, które zostały sprzedane. Firma Priceline dodała teraz bardziej tradycyjny model biznesowy, w którym nazwy dostawców są wyświetlane przed zakupem. Firma Priceline zasłynęła dzięki reklamom z udziałem byłego aktora Star Trek, Williama Shatnera. W późniejszych reklamach pojawił się także Leonard Nimoy, który grał pana Spocka. Shatner otrzymał udziały w Priceline w zamian za swoją obecność w reklamach. Priceline jest dobrym przykładem firmy i modelu biznesowego opartego w całości na komputerach, oprogramowaniu, Internecie i sieci WWW. Wszystko to jest potrzebne, aby dopasować żądania milionów konsumentów do tysięcy produktów i usług. Firma Priceline nie mogła powstać przed 1990 rokiem, ponieważ wszystkie jej technologie wspomagające są częścią ery internetu.

Red Hat Software

Red Hat Software jest interesujący, ponieważ jego model biznesowy koncentruje się na oprogramowaniu open source, które jest ważnym zjawiskiem w świecie inżynierii oprogramowania. Firma została założona w 1995 roku w Raleigh w Północnej Karolinie przez Boba Younga i Marka Ewinga, którzy połączyli dwie firmy działające na Linuksie i Uniksie, aby stworzyć Red Hat. Nazwa "Red Hat" pochodzi od czapki z lacrosse Uniwersytetu Cornell, którą Bob Young otrzymał od dziadka, chociaż on sam uczęszczał do Carnegie Uniwersytet Mellon. Red Hat jest największym dostawcą jądra Linuksa i udziela licencji na inne oprogramowanie w ramach umowy licencyjnej GNU open source. Red Hat Enterprise Linux jest jedną z najczęściej używanych wersji Linuksa. Podobnie jak wiele firm open-source, Red Hat oferuje samo oprogramowanie za darmo, ale pobiera opłaty za konsultacje, szkolenia i wsparcie. Firma otrzymuje również dobrowolne darowizny od zadowolonych użytkowników. Chociaż wyrażenie "open source" nasuwa obraz nerdowskich hakerów pracujących samotnie, w rzeczywistości spora część rozwoju oprogramowania typu open source jest wykonywana przez profesjonalny personel i korzysta z profesjonalnego zapewnienia jakości. Na przykład Red Hat zatrudnia ponad 600 pracowników w Północnej Karolinie. Projekty open source wypadają korzystnie w porównaniu ze zwykłym komercyjnym oprogramowaniem. W rzeczywistości programiści open source byli pionierami w stosowaniu narzędzi do analizy statycznej. Model biznesowy typu open source jest wart studiów przypadku w szkołach biznesowych, ponieważ jest popularny i wydaje się odnosić sukcesy. Red Hat pokazuje, że całkiem sporo pieniędzy można zarobić na modelu open source. Red Hat zadebiutował na giełdzie 11 sierpnia 1999 roku, co było ósmym co do wielkości zyskiem pierwszego dnia w całej historii Wall Street! (Ich akcje są sprzedawane na NASDAQ.) W 2005 roku CIO Insight Magazine umieścił Red Hat na pierwszym miejscu pod względem wartości sprzedaży. 27 lipca 2009 r. Firma Red Hat zastąpiła CIT Group na giełdzie Standard and Poor′s 500. To pierwsze rozwiązanie dla firmy z otwartym kodem źródłowym. Ponadto w 2012 r. Red Hat stał się pierwszą firmą open source, która osiągnęła 1 miliard dolarów przychodów, uzyskując w tym roku około 1,25 miliarda dolarów. Od czasu debiutu giełdowego Red Hat przejął szereg innych firm i usług, a także otworzył nowe biura i obiekty w innych krajach, takich jak Indie. Red Hat jest dowodem na to, że zjawisko open source może być skutecznym sposobem na prowadzenie biznesu programistycznego.

Red Storm Entertainment

Red Storm Entertainment to firma zajmująca się grami komputerowymi założona w 1996 roku przez Toma Clancy'ego i Douga Littlejohnsów w Morrisville w Północnej Karolinie. Tom Clancy jest słynnym powieściopisarzem przygodowym i wojskowym, a Doug Littlejohns był kapitanem łodzi podwodnej w brytyjskiej marynarce wojennej. Firma ta jest dobrym przykładem rosnącego wyrafinowania gier komputerowych i rozwoju całej branży gier komputerowych. Gry komputerowe powstały jako dość proste gry, takie jak Pong. Później przekształciły się w bardziej wyrafinowane gry RPG, symulacje gier planszowych, takich jak szachy, gry sportowe, takie jak tenis i piłka nożna, i wreszcie, masowe gry RPG online (MMORPG), w których tysiące uczestników wędrują jak awatary przez sztuczne światy. W niektórych grach można nawet budować budynki, nabywać nieruchomości i symulować rzeczywisty rozwój miast. Gry Red Storm koncentrują się na książkach i koncepcjach, które powstały w powieściach Toma Clancy'ego. Niektóre z gier Red Storm to Rainbow Six, Eagle Watch, Ghost Recon i Rogue Spear. W 2000 roku Red Storm został przejęty przez większą firmę zajmującą się grami, Ubisoft. Gry komputerowe mogą wydawać się nieważne, ale w rzeczywistości często znajdują się w czołówce technologii komputerowych i oprogramowania. Silniki renderujące realistyczne tła rozszerzyły się z gier na inne formy działalności, takie jak filmy animowane.

Gry komputerowe jako główny przemysł

Branża gier komputerowych całkowicie zależy od komputerów i oprogramowania i nie mogła istnieć, zanim nie stały się szeroko stosowane i popularne. Współczesne gry rozwinęły się od grania na komputerach do działania na specjalnych konsolach do gier, takich jak Nintendo Wii i Microsoft Xbox, tabletach, specjalnych urządzeniach przenośnych, takich jak Gameboy, i smartfonach. W niektóre gry MMORPG grają setki lub tysiące uczestników, a gry działają 24 godziny na dobę, siedem dni w tygodniu. To jest nowe i ciekawe zjawisko społeczne, które nie wystąpiłoby bez komputerów, oprogramowania i sieci. Gry komputerowe stworzyły również nowe, ważne formy technologii oprogramowania. Niektóre systemy gier, takie jak Wii, mają fizyczne elementy mocujące, które przypominają rakiety tenisowe, kije golfowe i inny sprzęt sportowy. Umożliwiają one dość realistyczne symulacje prawdziwych sportów. Psychologowie i lekarze obawiają się, że brutalne gry komputerowe mogą prowadzić do przemocy w prawdziwym życiu. Wśród lekarzy jest również zaniepokojenie, że gry mogą uzależniać, a nadmierne granie w gry komputerowe może prowadzić do otyłości i braku siły mięśni do biernej postawy fizycznej bez ćwiczeń. Zaawansowanie algorytmów gier komputerowych osiągnęło nowy szczyt 11 maja 1997 r., kiedy superkomputer IBM Deep Blue pokonał mistrza świata w szachach Gary′ego Kasparowa. Mecz był wyrównany, ale Kasparow najwyraźniej popełnił błąd podczas pierwszych ruchów gry szóstej. To był pierwszy raz, kiedy komputer pokonał szachistę mistrza świata. Jednak zwykłe komputerowe gry w szachy na komputerach osobistych grają wystarczająco dobrze, aby być trudnymi konkurentami dla nierankingowych szachistów amatorów, a nawet dla dość poważnych graczy rankingowych.

Sirius Satellite Radio

Sirius Satellite Radio zostało założone w lipcu 1990 roku w Waszyngtonie przez prawniczkę i przedsiębiorcę Martine Rothblatt. Obecnie ma siedzibę w Nowym Jorku. Nie był to zwykły start firmy, ponieważ zanim Rothblatt mogła rozpocząć działalność, musiał złożyć petycję do Federalnej Komisji Łączności (FCC), aby uzyskać zgodę na wykorzystanie części pasma 2300 MHz. Chociaż oprogramowanie wbudowane jest tym, co napędza działanie Sirius, to polityka zakładania firmy jest najbardziej interesująca, a także wyjątkowa. Na szczęście Rothblatt była nie tylko prawnikiem, ale także specjalistką w zakresie prawa komunikacyjnego. W 1992 roku zademonstrowała prototyp nadajników naziemnych do FCC. Uzyskanie zgody rządu na Syriusza nie było trywialnym przedsięwzięciem. Kwestie prawne i porządku publicznego były bardziej skomplikowane niż kwestie technologiczne. Rothblatt nie była nowicjuszem w komunikacji satelitarnej, ponieważ wcześniej założył system nawigacji satelitarnej GeoStar i grupę telewizyjną PanAmSat. Najwyraźniej dużo wiedziała. Rothblatt opuściła Syriusza w 1992 roku z powodu choroby córki i założyła medyczną organizację badawczą. Aby uzyskać zgodę organów regulacyjnych, potrzeba jeszcze pięciu lat lobbingu i polityki. Podążyło za nią dwóch dyrektorów generalnych: Robert Briskman, były inżynier NASA, a następnie David Margolese, który sfinansował Syriusza. Nie trzeba dodawać, że sprzeciw ze strony konwencjonalnych nadawców naziemnych był gwałtowny. Prawdopodobnie polityka zakładania Syriusza jest bardziej złożona niż w przypadku jakiejkolwiek innej firmy wymienionej tutaj. FCC przeszło od przydzielania częstotliwości do sprzedaży ich na aukcji. W 1997 roku Sirius z powodzeniem zaoferował 83 miliony dolarów na uzyskanie dostępu do częstotliwości pierwotnie zamówionych w 1990 roku. FCC sprzedała również licencję konkurentowi, XM Radio. Konieczne było również, aby Sirius zbudował satelitarne odbiorniki radiowe i negocjował z głównymi firmami samochodowymi, aby umieścić radia satelitarne w samochodach, bez którego prawdopodobieństwo odniesienia sukcesu w biznesie było niewielkie. Zanim Syriusz mógł stać się rentowną firmą, potrzebnych było kilka bardziej zniechęcających zadań. Najpierw Syriusz musiał wystrzelić trzy satelity i zbudować sieć nadajników od wybrzeża do wybrzeża. W sumie uruchomienie Sirius Satellite Radio pochłonęło łącznie około 2 miliardy dolarów. Oznaczało to, że był to najdroższy startup cytowany u nas, a także najdroższy startup jakiejkolwiek firmy w historii! Jak to często bywa i często wspominano, po drodze nastąpiło kilka zmian nazw, w tym CD Radio, które nie wzbudziło entuzjazmu. Przed nabyciem XM ostateczną nazwą było Sirius Satellite Radio; teraz nazywa się Sirius XM Radio. Syriusz był startupem, ale w zasadzie wynalazł i założył zupełnie nową branżę. Inżynierowie Sirius musieli zaprojektować niestandardowe satelity, obliczyć optymalne orbity, zaprojektować niestandardowe chipy komputerowe i opracować niestandardowe oprogramowanie. Musieli także lobbować w FCC i Kongresie, a nawet budować niestandardowe studia nadawcze ze szklanymi ścianami. Od pierwszej petycji w lipcu 1990 r. do pierwszej transmisji w Walentynki w 2002 r. potrzeba było prawie 12 lat i ponad 2 miliardy dolarów, aby Syriusz oderwał się od ziemi. Model biznesowy firmy Sirius polegał na oferowaniu odpłatnej muzyki w wysokiej rozdzielczości bez reklam. Są reklamy na Syriuszu i jest ich mnóstwo, ale nie w czasie, gdy gra muzyka. W 2007 roku Sirius nabył konkurencyjne radio satelitarne XM po uzyskaniu zezwoleń Komisji Giełdy Papierów Wartościowych (SEC) i FCC, co wiązało się z innym złożonym procesem politycznym. Syriusz nie tylko nadaje materiały pochodne lub pospolite. Sporo transmisji jest wyjątkowych, a Syriusz nawiązał relacje z artystami, a także z drużynami sportowymi i ligami. Na przykład, Sirius transmituje wiele meczów piłkarskich szkół wyższych i zawodowych dla publiczności krajowej. Jest to jednak ciekawa kwestia prawna, która ogranicza główne ligowe mecze baseballowe tylko do XM, a nie do Syriusza, mimo że oba są teraz połączone. To kwestia prawna wykraczająca poza zakres. Syriusz stworzyłby bardzo interesujące studium przypadku dla szkół biznesu, ponieważ nie tylko stworzył nową branżę, ale także kwestie techniczne były silnie powiązane z kwestiami politycznymi i regulacyjnymi. Chociaż oprogramowanie ma kluczowe znaczenie dla operacji Sirius i XM, to połączenie polityki i technologii sprawia, że historia jest wyjątkowa.

ThoughtWorks

ThoughtWorks to ciekawy przykład firmy programistycznej, której celem jest ulepszanie samego oprogramowania. Firma wyróżnia się także silnym zaangażowaniem społecznym. W latach 80. przedsiębiorca o nazwisku Roy Singham założył firmę konsultingową w zakresie zarządzania w Chicago w stanie Illinois o nazwie Singham Business Services. Jak to często bywa w branży oprogramowania, Singham zmienił nazwę swojej firmy. Singham zarejestrowany pod nazwą ThoughtWorks w 1993 roku, również w Chicago. Nowa firma ThoughtWorks skoncentrowała się na próbach ulepszania oprogramowania metody i praktyki rozwojowe, z pewnością godny pochwały cel. Firma posiada zarówno część konsultingową, jak i część oprogramowania o nazwie ThoughtWorks Studios. ThoughtWorks łączy również aplikacje komercyjne z aplikacjami open source, co jest interesującym i nietypowym modelem biznesowym. Znany inżynier oprogramowania Martin Fowler dołączył do ThoughtWorks w 1999 r. I został jej głównym naukowcem w 2000 r. ThoughtWorks samodzielnie był pionierem kilku interesujących technologii, a także był jednym z pierwszych współautorów metodologii Agile. Rzeczywiście, Martin Fowler był jednym z sygnatariuszy Manifestu Agile z 2001 roku. Works pracuje również nad ciągłym rozwojem i ciągłą integracją lub próbuje przekształcić oprogramowanie z wersji dyskretnych w odstępach kilku miesięcy na rodzaj przepływu kontroli procesów, polegających na szybkich wydaniach nowych funkcji, gdy staną się gotowe. Jednym z bardziej interesujących aspektów ThoughtWorks jest silne zaangażowanie w sprawy społeczne. Jak podaje strona internetowa, misja firmy składa się z trzech kluczowych elementów:

•  Prowadzić zrównoważony biznes
•  Mistrz doskonałości oprogramowania i zrewolucjonizowanie branży IT •  Z pasją opowiadać się za sprawiedliwością społeczną i ekonomiczną

Trzeci element jest jednocześnie niezwykły i godny pochwały. Wsparcie ThoughtWorks w kwestiach społecznych obejmuje udzielanie pomocy technicznej organizacjom non-profit i charytatywnym, które potrzebują pomocy technicznej. ThoughtWorks umożliwia również pracownikom udostępnianie nieodpłatnego czasu grupom charytatywnym. Firma Thought-Works stworzyła również aplikację, która umożliwiła dary ofiarom powodzi w Australii. Innym niezwykłym aspektem programu społecznego ThoughtWorks jest to, że pracownicy mogą wnosić otwarty kod źródłowy, który sami opracowali. To bardzo nietypowa koncepcja i powinna być studiowana przez szkoły biznesu. Obecnie ThoughtWorks zatrudnia ponad 2000 pracowników i ma biura w Chicago; Londyn; Bangalore; Brisbane; Calgary; San Francisco; i Porto Alegre, Brazylia.

Visio

Visio było interesującą firmą niszową, która opracowała wyrafinowany pakiet graficzny wykorzystujący predefiniowane kształty i łącza. Visio obsługiwał różne metody tworzenia diagramów oprogramowania, takie jak schematy blokowe i diagramy UML. Wspierał także inne formy grafiki naukowej i technicznej. Firma ta powstała w Seattle w stanie Waszyngton we wrześniu 1990 roku. Jej założycielami byli Jeremy Jaech, Dave Walker i Ted Johnson. Wszyscy założyciele pracowali razem w Aldus Corporation. Jak to często bywa w przypadku startów oprogramowania, zmieniło się kilka nazw. Visio zaczęło się od nazwy Axon Corporation. W 1992 roku zmienił nazwę na Shapeware. W 1994 roku zmienił nazwę na Visio 1, a kiedy dokonał debiutu giełdowego, nazywał się Visio. Visio zostało przejęte przez Microsoft w 2000 roku. Obecna nazwa firmy to Microsoft Visio. Nabycie miała formę wymiany akcji i wyniosła około 1,5 mld USD. W tamtym czasie było to największe przejęcie firmy Microsoft. Technologia graficzna produktów Visio wykorzystuje grafikę wektorową i zastrzeżony format plików, więc diagramy Visio nie mogą być odczytywane ani otwierane przez wiele innych aplikacji. Jednak Visio może otwierać inne formaty graficzne. (Pakiet Libre Office może otwierać pliki Visio i może być liderem w branży w otwieraniu większej liczby formatów plików niż inne pakiety biurowe). Chociaż Visio jest cytowane w tej książce głównie dlatego, że obsługuje diagramy inżynierii oprogramowania, w rzeczywistości jest to bardzo eklektyczny narzędzie, które może tworzyć diagramy dla wielu dziedzin nauki i inżynierii, w tym elektrotechniki, chemii, a nawet botaniki. Kształty i diagramy są zorganizowane jako wzorniki i szablony, a przewijanie katalogów programu Visio jest dość łatwe. Ponadto dostawcy zewnętrzni oferują niestandardowe wzorniki i szablony dla programu Visio. Na przykład firma sieciowa Cisco posiada bibliotekę szablonów Visio dla różnych rodzajów sieci i produktów, takich jak sieci optyczne, routery, przepływ zabezpieczeń i wiele innych. Visio jest dobrym przykładem "niszowej" firmy produkującej oprogramowanie, która dostarcza specjalnego rodzaju narzędzia do specjalnych celów, ale projektowanie grafiki to dość duża nisza z milionami potencjalnych klientów inżynieryjnych i naukowych. Visio nie jest sam i ma wielu konkurentów, takich jak SmartDraw, a nawet Open Source Libre Office. Jednak Visio ma duży udział w rynku w różnych dyscyplinach naukowych. Dzięki potężnemu silnikowi marketingowemu firmy Microsoft, Visio stał się głównym graczem w branży oprogramowania komputerowego.

Vmware

VMware to kolejna firma, której działalność opiera się wyłącznie na komputerach i oprogramowaniu i bez nich nie mogłoby istnieć. Nazwa to kompresja "maszyny wirtualnej" i to jest interesująca technologia. Firma VMware została założona w 1998 roku w Palo Alto w Kalifornii, w samym sercu Doliny Krzemowej. W gronie założycieli znaleźli się Diane Green, Mendel Rosenblum, Scott Devine, Edward Wang i Edouard Bougnion. Mendel Rosenblum był głównym naukowcem, a Diane Green przewodniczącą. Oprogramowanie działa na określonych komputerach i określonych systemach operacyjnych. Maszyna wirtualna to pakiet oprogramowania imitujący kombinację sprzętu i oprogramowania, dzięki czemu aplikacje mogą być uruchamiane na komputerach i systemach operacyjnych innych niż pierwotnie przeznaczone. Firma VMware została przejęta przez większą korporację EMC w 2004 roku za około 625 milionów dolarów. W 2007 r. EMC przeprowadziło pierwszą ofertę publiczną części akcji VMware, która rozpoczęła się ceną 29 USD za akcję i zakończyła się ceną 51 USD za akcję. W 2007 roku Diane Green została zwolniona przez zarząd, a później Mendel Rosenblum zrezygnował. Sprawy najwyraźniej nie były szczęśliwe w połączeniu VMware / EMC. VMware ma zarówno aplikacje komercyjne, jak i otwarte. To nietypowe połączenie, ale coraz częstsze w branży oprogramowania. Produkty firmy VMware obejmują kilka form hiperwizorów, które pozwalają systemom operacyjnym gościa na działanie na sztucznych, wirtualnych platformach sprzętowych. VMware obsługuje również systemy podwójnego rozruchu lub dwa różne systemy operacyjne na tej samej platformie. Maszyny wirtualne oferują znaczne oszczędności dla komercyjnych firm tworzących oprogramowanie, a także dla dużych użytkowników oprogramowania. Załóżmy, że dostawca oprogramowania tworzył aplikację, która miała zostać wydana w wersjach dla Microsoft Windows, Apple Macintosh i Linux. Bez wirtualizacji dostawca potrzebowałby oddzielnych urządzeń sprzętowych dla każdego. Dzięki wirtualizacji pojedynczy komputer może wyglądać tak, jakby był trzema różnymi maszynami. Oprócz VMware istnieje wiele innych firm działających w sektorze wirtualizacji. To ciekawy przykład nowego rodzaju niszy rynkowej, która istnieje tylko dzięki komputerom i oprogramowaniu. Ogólnie rzecz biorąc, wymienione tutaj firmy programistyczne rozszerzają zastosowania komputerów i oprogramowania w nowych kierunkach. Kilka z wymienionych firm nie mogło istnieć 20 lat wcześniej, ponieważ Internet i sieć WWW były potrzebne do realizacji ich modeli biznesowych.

Masowe aktualizacje i starzenie się starszego oprogramowania

Aplikacje biznesowe i komercyjne zaczęły rosnąć w liczbach od 1975 r. Do połowy lat 90. niektóre aplikacje, takie jak systemy operacyjne IBM, ewoluowały i były używane przez ponad 20 lat. To samo dotyczyło innych branż i aplikacji, które były pierwszymi nabywcami komputerów i oprogramowania: banków, ubezpieczeń, telekomunikacji i wielu innych. Rosnący wiek wielu ważnych pakietów oprogramowania wprowadził nową frazę do inżynierii oprogramowania: "starsze aplikacje". Duża liczba starzejących się starszych aplikacji wkrótce odegra rolę w nowym rodzaju problemu z oprogramowaniem zwanego masowymi aktualizacjami, które wymagają jednoczesnych zmian w tysiącach starszych aplikacji. (Masowe aktualizacje mają miejsce, gdy problemy, takie jak ten, który stwarzał rok 2000, a które dotyczą tysięcy aplikacji, muszą zostać zmienione w tym samym czasie.) Ten rodzaj problemu pozostanie z nami od teraz i będzie się nasilał w przyszłości. . Zadanie utrzymywania starzejących się, starszych aplikacji gwałtownie wzrosłoby i do 2000 r. Konserwacja oprogramowania pochłonęłaby więcej czasu inżynierskiego niż tworzenie oprogramowania. Nie jest to nieoczekiwane i miało miejsce w innych branżach. Do czasu, gdy samochody były używane przez 30 lat, było więcej mechaników, którzy konserwowali samochody, niż pracowników linii montażowych budujących nowe samochody. Rozważmy świat oprogramowania zbliżający się do końca dekady, powiedzmy od 1995 roku. Nowa waluta euro miała zostać wprowadzona w 1999 roku. Słynny problem roku 2000 pojawił się, gdy kalendarz zmienił się z 1999 na 2000 o północy. Żaden z tych problemów nie jest problemem dla nowych aplikacji, ale oba były poważnymi problemami dla ogromnej liczby starzejących się starszych pakietów oprogramowania. Oba te tematy będą miały wpływ na tysiące starszych aplikacji, które działały przez wiele lat. Modyfikacja starzejących się aplikacji wymagałaby zaangażowania tysięcy inżynierów oprogramowania i milionów godzin pracy. Są to jedne z pierwszych przypadków masowych aktualizacji. Masowe aktualizacje nigdy wcześniej nie miały miejsca, ale będą się powtarzać, przy coraz większych kosztach i trudnościach, ponieważ starsze aplikacje nadal rosną szybciej, niż można je zastąpić. Wiele problemów związanych z niewystarczającą liczbą cyfr pojawi się również w ciągu najbliższych 50 lat, ale kiedy te problemy się pojawią, jest nieco nieprzewidywalne. Ciekawy raport dr. Clifforda Kurtzmana zauważa, że populacja Stanów Zjednoczonych przekroczy pojemność unikalnych dziesięciocyfrowych numerów telefonów dla wszystkich dzwoniących przed rokiem 2025, a być może już w 2015 roku, ze względu na ogromny wzrost liczby rodzin wielofonowych spowodowany przez smartfony. Już teraz istnieje potrzeba ponownego przypisania numerów kierunkowych, aby pomóc rozwiązać ten problem. W 2038 r. wewnętrzny zegar uniksowy przepełni się, powodując rodzaj problemu mini-Y2K w systemach uniksowych. Dostępność unikatowych numerów ubezpieczenia społecznego w Stanach Zjednoczonych (każdy o długości dziewięciu cyfr) może zostać przekroczona mniej więcej do połowy stulecia, np. 2050 r. Inne podobne problemy to numery ISBN, które mają obecnie 13 cyfr zamiast tylko 10 cyfr, oraz adresy IP. Skumulowane koszty rozszerzania pól numerycznych w miarę przekraczania ich pojemności spowodują erozję wielu korzyści ekonomicznych wynikających z używania komputerów i oprogramowania. Jest oczywiste, że należy opracować trwalszy schemat ogólny, zanim koszty utrzymania pól numerycznych w starszych aplikacjach staną się poważne. Żadna z tych aktualizacji oprogramowania związanych z liczbami i datami nie doda przydatnych nowych funkcji lub funkcji do aplikacji. Ich głównym celem jest jedynie umożliwienie aplikacjom dalszego działania, gdy daty lub informacje liczbowe przekraczają dostępne rozmiary pól pierwotnie zarezerwowanych do przechowywania informacji. Branża oprogramowania obecnie zajmuje się indywidualnie każdym problemem, zamiast poszukiwać ogólnych rozwiązań podstawowego problemu. Być może nadszedł czas na międzynarodowe sympozjum poświęcone problemowi dat i komputerów, aby zająć się pierwotnymi przyczynami tych problemów. Można przewidzieć cztery możliwe rozwiązania fundamentalnego problemu nieodpowiedniej daty i pól numerycznych:

•  Opracowanie standardowych formatów dat, które nie wygasają w krótkich okresach
•  Opracowanie metod wyszukiwania ukrytych lub pośrednich dat z dużą skutecznością
•  Opracowywanie narzędzi i technologii do masowej aktualizacji, które mogą szybko wprowadzać zmiany
•  Opracowywanie ulepszonych metod testowania, aby zminimalizować ryzyko utraty dat

Niestety obecne międzynarodowe standardy dotyczące dat nie są odpowiednie i nie obsługują dat naukowych ani żadnych długoterminowych obliczeń dat. Nie ma sprawdzonych metod wyszukiwania dat pośrednich lub dat osadzonych w innych polach, takich jak numery części. Wiele prac związanych z wyszukiwaniem i naprawą pól dat wymaga ręcznego i pracochłonnego wysiłku. Co więcej, testowanie oprogramowania nigdy nie było w 100% skuteczne, a testowanie pól dat i pól liczbowych rzadko było wydajniejsze niż 95%, a często gorsze. Patrząc wstecz na problem z 2000 r., prawie jedna trzecia zgłoszonych problemów w 2000 r. wystąpiła w aplikacjach, które zostały naprawione, przetestowane i przywrócone do użytku. Niezgodności międzynarodowych formatów dat Od stuleci sposób przedstawiania dat podczas ich drukowania różni się w zależności od kraju. Te odmiany nie stanowiły żadnego problemu aż do nadejścia ery komputerów. Nawet w przypadku komputerów problemy były dość niewielkie, ale oczywiście konieczne było ustalenie, jaki format daty został użyty, aby zapewnić prawidłowe obliczenia daty. Na przykład w Stanach Zjednoczonych używany jest format miesiąc / dzień / rok, taki jak 10/6/98 dla 6 października 1998 r. W większości krajów Europy ta sama data byłaby drukowana w formacie dzień / miesiąc / rok lub 6/10/98 dla tego samego dnia. Formularz europejski może zostać błędnie zinterpretowany jako 10 czerwca w Stanach Zjednoczonych lub format amerykański może zostać błędnie zinterpretowany jako 10 czerwca w Europie, jeśli oprogramowanie przyjmie złą alternatywę. Aby ułatwić handel międzynarodowy i handel przy użyciu komputerów i oprogramowania, Międzynarodowa Organizacja Normalizacyjna (ISO) zaproponowała standardowy format daty, który rozszerza liczbę cyfr lat z dwóch do czterech. To jest dobrze znana norma ISO 8601: 1988 (E). Ten sam format jest obsługiwany przez American National Standards Institute (ANSI) oraz przez National Institute of Standards and Technology (NIST). Format daty ISO umieszcza najpierw rok, następnie miesiąc, a następnie dzień w formacie rrrr / mm / dd. Zatem data 6 października 1998 r. Byłaby reprezentowana jako 1998/10/06 zgodnie z normą ISO. (Zwróć uwagę, że ukośniki "/" nie są częścią standardu daty, ale są tutaj po prostu używane w celu zwiększenia czytelności na drukowanej stronie.) Niestety, najpopularniejszy format daty używany w Stanach Zjednoczonych działa w przeciwnym kierunku i umieszcza znak rok w zeszłym roku. Jest to domyślna reprezentacja w różnych produktach firmy Microsoft, chociaż produkty firmy Microsoft mogą również obsługiwać format ISO. Tak się składa, że czterocyfrowy standard ISO dla formatów daty nie jest w pełni wystarczający. Zarówno standard ISO, jak i zwykłe przedstawienie daty w USA mają wspólną wadę podczas próby radzenia sobie z datami i komputerami. Oba te formaty dat wykazują nieświadome próby oszczędzenia miejsca, nie zdając sobie sprawy, że powoduje to niepotrzebne problemy. Dodając co najmniej jedną dodatkową cyfrę do formatu daty ISO, można uwzględnić dowolną reprezentację daty, używając dodatkowej cyfry jako klucza (przedstawionego w przykładach jako "x") w celu określenia, czy format daty ISO (x-rrrr-mm -dd) lub domyślny amerykański format daty (x-mm-dd-rrrr). Klucz może również wskazywać inne alternatywy, takie jak normalny europejski format daty (x-dd-mm-rrrr) lub nawet daty juliańskie, które rejestrują liczbę dni od początku roku zaczynając od 1 i kończąc na 365 lub 366 Można było uwzględnić nawet tradycyjne daty japońskie oparte na czasach panowania cesarskiego. Użycie dodatkowej cyfry (lub cyfr) jako klucza sprawiłoby, że określenie, który format daty jest przeznaczony, byłoby o wiele mniej kłopotliwe niż obecnie używane. Dzisiaj ustalenie, który z wielu możliwych formatów dat może być używany w aplikacjach, wymaga albo wcześniejszego powiadomienia programistów i użytkowników, albo wyjątkowo skomplikowanych algorytmów wyznaczania dat, bez absolutnego sposobu, aby dowiedzieć się, czy wybrany format daty jest właściwy bez kontroli lub testowanie. Zastanów się, jak wszechstronna byłaby logika dat, gdyby wykorzystano jedną lub więcej dodatkowych cyfr. Przykłady przedstawione w tabeli 8.2 ilustrują, co można zrobić, używając tylko jednej dodatkowej cyfry. W przypadku wielu celów związanych z datą i czasem może być pożądane uwzględnienie nie tylko informacji o wieku, roku, miesiącu i dniu, ale także tygodni, godzin, minut, sekund, a nawet milisekund. Tak więc, jeśli klucz daty jest używany do identyfikacji używanego formatu, w razie potrzeby można użyć nawet następującego 16-cyfrowego formatu daty: x-rrrr-MM-ww-dd-hh-mm-ss W tym 16-cyfrowym formacie x jest kodem daty; rrrr oznacza rok; MM oznacza miesiąc; ww oznacza tydzień w roku; dd oznacza dzień; hh oznacza godzinę; mm oznacza minutę; a ss reprezentuje sekundę. Nawet 16 cyfr nie jest wystarczającą precyzją dla niektórych zastosowań, więc schemat można rozszerzyć do poziomu nanosekund. Jeśli zajmuje 20 cyfr lub więcej, do schematu może zostać włączony dowolny znany format daty, ale wtedy ochrona przestrzeni nie ma znaczenia. W przypadku uniwersalnego formatu daty mogą istnieć setki, a nawet tysiące wariantów dat, które wymagają określonych kluczy. Dlatego czterocyfrowy klucz, po którym następuje 20 cyfr informacji o dacie, powinien być w stanie pomieścić dowolny znany kalendarz i działać w dowolnie długich okresach czasu. Standardowy format daty ISO nie jest odpowiedni do celów naukowych. Aby poradzić sobie z geologicznymi i astronomicznymi okresami czasu, należy uwzględnić rozpiętości milionów lat, a większość tego czasu przypadałaby na erę p.n.e., a zatem wymagałyby liczb ujemnych. W przypadku czasu astronomicznego trzeba uwzględnić miliardy lat. Rzeczywiście, ze względów astronomicznych kalendarze innych planet, takich jak Mars, mogą ostatecznie wymagać dostosowania. Potrzebujemy skutecznej metody przechowywania dat w komputerach w czasach, w których regułą jest nieograniczona pamięć optyczna. Przechowywanie dat i ich drukowanie lub wyświetlanie to nie to samo. Wiele standardowych formatów dat próbuje używać tego samego formatu zarówno do przechowywania, jak i do przedstawiania daty. Powoduje to nieoczekiwane problemy z komputerami i oprogramowaniem. Jeśli potrafimy opracować skuteczną metodę przechowywania dat i godzin, możemy wyświetlać i drukować informacje w dowolnym wybranym przez nas formacie. Pozwól nam zaprojektować skomputeryzowany format przechowywania daty, który może działać w nieskończoność, obsługiwać naukowe i biznesowe daty i godziny oraz obsługiwać wszystkie starsze warianty formatu daty. W obecnej sytuacji nie ma aktualnych ani proponowanych norm dotyczących dat przez ISO lub kogokolwiek innego, które byłyby w pełni odpowiednie nawet dla biznesu, jeśli są one przetwarzane przez komputery, nie mówiąc już o celach naukowych. W obecnych formatach dat prawie niemożliwe jest wykorzystanie technologii, takich jak eksploracja danych i przetwarzanie analityczne online (OFAP) dla danych naukowych związanych z geologią, archeologią lub astronomią. Dzieje się tak, ponieważ podane daty wykraczają poza zakresy standardowych formatów dat, a w wielu przypadkach przekraczają możliwości normalnego oprogramowania biznesowego, takiego jak arkusze kalkulacyjne i pakiety baz danych. Dodanie dodatkowych cyfr kluczowych do formatów dat w komputerach pozwoliłoby na włączenie dowolnego możliwego formatu daty do ogólnego schematu, tak aby w razie potrzeby można było wykorzystać czas geologiczny i astronomiczny, daty juliańskie, kalendarz chiński, kalendarz żydowski, a nawet kalendarz aztecki . Klucz daty nie musiałby być drukowany ani wyświetlany na ekranie, ale obecność klucza daty umożliwiłaby aplikacjom programowym obsługę obliczeń kalendarza z dużo większą łatwością i elastycznością niż było to kiedykolwiek możliwe, odkąd komputery stały się narzędziami biznesowymi i naukowymi. Należy zauważyć, że ogólne rozwiązanie polegające na wykorzystaniu pola kluczowego do określenia, jaki konkretny format numeryczny lub alfanumeryczny następuje, można zastosować do rozwiązywania innych problemów poza datami. Tej samej metody można użyć do obsługi międzynarodowych różnic w formatach kodów pocztowych lub międzynarodowych zmian stosowanych w numerach ubezpieczenia społecznego (lub ich odpowiednikach) w innych krajach. Rozszerzony format daty wymagałby zmian w aplikacjach i bazach danych i byłby kosztowny do wdrożenia. Ale między problemem Y2K, zmianą daty w systemie UNIX i innymi problemami z datami, już zamierzamy wydać kilka miliardów dolarów na zmiany daty oprogramowania, więc równie dobrze możemy zainwestować w trwałe rozwiązanie. Niektóre z proponowanych nowych dat wymiany mają ten sam rodzaj problemu, co obecne daty. Na przykład nowy format ISO nie ma wystarczającej liczby cyfr do obsługi celów naukowych. Format ISO przepełni się w 10 000 roku i dlatego nie będzie można go używać do celów naukowych. Przechowywanie dat w komputerze jest o wiele ważniejsze niż drukowanie lub wyświetlanie dat. Byłoby niezmiernie cenne, gdyby udało się opracować naprawdę skuteczny standard przechowywania danych. Sednem tej propozycji jest oddzielenie sposobu przechowywania dat od sposobu ich wyświetlania. Sposób wyświetlania dat może być kwestią osobistych lub narodowych preferencji. Ale sposób przechowywania dat w komputerach musi być globalny i odpowiedni zarówno do celów naukowych, jak i biznesowych. Obecnie żaden z obecnych standardowych formatów daty nie przyniesie niczego innego, jak tylko spowoduje więcej długoterminowych problemów dla dostawców oprogramowania i komputerów oraz ciągłą potrzebę skomplikowanych i podatnych na błędy obliczeń dat. Traktowanie dat może być czymś w rodzaju non sequitur w książce historycznej, ale problemy z datami stały się kłopotliwe i kosztowne w przypadku roku 2000 pod koniec lat 90.

Ekspansja outsourcingu

Szybka ekspansja oprogramowania i rosnące ilości starzejących się starszych pakietów oprogramowania skłoniły wiele firm do ponownego przemyślenia, czy opłacalne jest zatrudnianie dużych pracowników przetwarzających dane, skoro ich podstawowa działalność miała niewiele wspólnego z oprogramowaniem. W latach dziewięćdziesiątych XX wieku nastąpił gwałtowny wzrost outsourcingu krajowego i międzynarodowego, w wyniku którego wiele firm zmniejszyło lub wyeliminowało wewnętrzny personel oprogramowania i przekazało swoje projekty oprogramowania zewnętrznym dostawcom. Najczęstszym był outsourcing utrzymania ruchu, ale również outsourcing rozwoju szybko się rozwijał.

Rozwój aplikacji w latach 90

W latach 90. liczba aplikacji nadal rosła, ale tempo wzrostu zaczęło zwalniać, ponieważ tak wiele aplikacji było już używanych. Być może najbardziej interesującą i technicznie ważną zmianą we wzorcach aplikacji w tej dekadzie było pojawienie się aplikacji internetowych, które dopiero zaczynają własną, gwałtowną ścieżkę rozwoju. Pojawienie się aplikacji internetowych doprowadziło do powstania bańki internetowej, w ramach której powstały setki firm finansowanych z kapitałem podwyższonego ryzyka, których plany rynkowe opierały się na sprzedaży internetowej, takich jak Amazon. Bańka pękłaby na początku następnej dekady, a większość z tych firm już nie istnieje. Firma Amazon została założona przez Jeffa Bezosa w 1994 r. i została uruchomiona w 1995 r. Jego pierwotny plan rynkowy zakładał szybkie poszerzenie bazy klientów bez względu na zyski. Rzeczywiście, Amazon przez kilka lat ponosił straty, a jego akcje gwałtownie spadły podczas załamania dot-comów. Jednak Amazon wytrwał i ostatecznie stał się największym placówką handlu detalicznego na świecie.

Wyniki dla 1000 punktów funkcyjnych z około 1995 roku

W latach 90. i następnych dwóch dekadach powstało wiele "klonów" punktów funkcyjnych. Pierwotny punkt funkcyjny IBM został przejęty przez IFPUG w latach 80-tych. Od tego momentu pojawiły się alternatywne metryki funkcjonalne, w tym punkty funkcyjne Mark II, punkty funkcyjne COSMIC, punkty funkcyjne FISMA, punkty funkcyjne NESMA, szybkie punkty funkcyjne, punkty funkcji inżynieryjnych oraz punkty opowieści metryk pseudo-funkcjonalnych i punkty przypadków użycia. Miara punktów funkcyjnych Mark II w Wielkiej Brytanii autorstwa Charlesa Symonsa była pierwszą znaną alternatywą dla punktów funkcyjnych IFPUG. Produktywność i jakość dla tego samego zastosowania z 1000 punktów funkcyjnych byłyby następujące:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 53 333 instrukcji kodu logicznego
•  Język programowania: Java
•  Procent ponownego wykorzystania: od 0% do 25%
•  Metodologia: RUP
•  Wydajność: 8,00 punktów funkcyjnych na miesiąc pracownika
•  Potencjał defektów: 4,0 defektów na punkt funkcyjny
•  Skuteczność usuwania defektów (DRE): 90%
•  Dostarczone wady: 0,40 usterki na punkt funkcyjny
•  Stosunek personelu programistycznego do utrzymania:
•  Rozwój: 60%
•  Konserwacja: 40%

Poniżej przedstawiono podstawowe dane za rok 1995:
•  Średni poziom języka: 6,00
•  Liczba języków programowania: 1600
•  Instrukcje logiczne na punkt funkcyjny: 53
•  Średnia wielkość aplikacji: 950 punktów funkcyjnych
•  Średnia wielkość aplikacji: 50 350 instrukcji kodu logicznego
W tej dekadzie nadal występowało zbyt wiele anulowań i przekroczeń w przypadku dużych aplikacji. Nastąpił również szybki wzrost globalnego outsourcingu.

Podsumowanie

W latach 90. XX wieku nadeszła era dot-comów, kiedy internet i sieć World Wide Web wprowadziły nowe sposoby prowadzenia biznesu poprzez zdalną sprzedaż produktów i usług. Niektóre firmy prosperowały i stworzyły zupełnie nowe formy biznesu. Inni próbowali, ale ponieśli porażkę podczas upadku dot-comów na początku następnej dekady. Pod koniec lat 90. setki aplikacji starzały się i wymagały remontu geriatrycznego. Podwójny wpływ wprowadzenia euro w 1999 r. I problem Y2K pod koniec stulecia pokazały, że masowe aktualizacje starszych aplikacji byłyby kłopotliwe, a wiele przyszłych masowych aktualizacji jest już za horyzontem, kiedy zabraknie unikalnych kombinacji cyfr dla numerów telefonów i numery ubezpieczenia społecznego. Wraz ze starzeniem się aplikacji, konserwacja oprogramowania zaczyna wyprzedzać tworzenie oprogramowania jako główną formę pracy inżynierskiej. Nie jest to zaskakujące, biorąc pod uwagę podobną sytuację, w której jest więcej mechaników naprawiających samochody niż pracowników linii montażowych budujących nowe samochody. To była pierwsza dekada internetu i sieci WWW. W tej dekadzie technologia ta zaczęła zmieniać fundamentalną naturę komunikacji międzyludzkiej i interakcji społecznych. W tym dziesięcioleciu niektórzy ludzie zaczęli bardziej wchodzić w interakcje z odległymi znajomymi niż ze swoimi rodzinami i przyjaciółmi. Sieci społecznościowe rozkwitną w następnej dekadzie, ale już się zaczęły. Rozpoczęła się nowa gałąź przemysłu masowo interaktywnych gier komputerowych, która będzie się rozwijać w następnej dekadzie.


Powrót

2000-2009: wzrost sieci społecznych i kryzysów gospodarczych



W latach 2000-2009 sieci społecznościowe, takie jak Facebook i Twitter, zapisywałyby większość populacji planety do tworzenia największych ludzkich sieci internetowych w historii. Pod koniec tej dekady wiele osób będzie miało więcej wirtualnych przyjaciół w sieciach społecznościowych niż prawdziwych przyjaciół w życiu codziennym. Spędzaliby również więcej czasu na komunikowaniu się z wirtualnymi przyjaciółmi za pośrednictwem sieci społecznościowych i wysyłaniu SMS-ów na smartfony niż w rzeczywistych rozmowach twarzą w twarz lub nawet przez telefon. Była to również ważna dekada dla gier komputerowych, w wyniku której pojawiło się ponad 50 firm zajmujących się grami. W tej dekadzie powstała jedna ciekawa nowa forma badań. Pojawienie się encyklopedii Wikipedii pokazało wartość crowdsourcingu lub skłonienia tysięcy umysłów do zajęcia się typowymi tematami. Wikipedia stała się największą i najczęściej używaną encyklopedią w historii. Wikipedia zawiera ponad 25 milionów artykułów napisanych przez 39 milionów autorów. Żadna inna "książka" w historii nie miała tylu współautorów. W samych Stanach Zjednoczonych każdego miesiąca używa go ponad 80 milionów ludzi. Dwa poważne kryzysy gospodarcze zahamowały rozwój firm technologicznych w tej dekadzie. Pierwszym z nich było pęknięcie bańki internetowej w 2000 roku, co doprowadziło do bankructwa wielu start-upów i zasadniczo zatrzymało na kilka lat przepływ kapitału podwyższonego ryzyka związanego z oprogramowaniem. Drugą była Wielka Recesja 2008 r., W czasie której pękła bańka mieszkaniowa i pojawiła się potrzeba pomocy rządowej wielu banków. Było to poważnym niepowodzeniem dla wielu firm, a personel programistyczny został zwolniony w wielu branżach, co jest niezwykłe, ponieważ personel programistyczny stale rośnie od czterech dekad. Pomimo pęknięcia bańki internetowej i Wielkiej Recesji, start-upy oprogramowania działały w zaskakująco szybkim tempie przez oba kryzysy. Ale zamiast szalenie spekulacyjnych firm internetowych, wiele z tych startupów miało poważne plany biznesowe i dążyło do niewykorzystanych rynków niszowych. Dwa przykłady to Zillow, który dostarcza krajowe dane dotyczące nieruchomości i PerfectMatch, który wykorzystał modele komputerowe do stworzenia internetowego serwisu randkowego. Około 2005 r. Konserwacja i ulepszanie starszych aplikacji wyprzedziło rozwój nowych aplikacji jako główna działalność inżynierów oprogramowania.

Bańka Dot-Com

W latach dziewięćdziesiątych XX wieku rozwój internetu i sieci WWW stworzył coś, co nazywano "nową gospodarką", kiedy firmy wykorzystywały ogromny zasięg sieci, aby sprzedawać produkty i usługi milionom ludzi, zamiast sprzedawać lokalnie w tradycyjnych sklepach. sklepy stacjonarne. Niektóre z tych dot-comów to Amazon, eBay i Priceline, z których wszystkie miały ciekawe i efektywne plany biznesowe. Jednak ekscytacja w sieci doprowadziła do powstania wielu startupów, których biznesplany nie zostały dobrze przemyślane. Istnieje wiele produktów, które nadają się do zdalnego marketingu internetowego, ale inne są najlepiej obsługiwane przez lokalne sklepy. Społeczność venture capital nie jest zbyt wyrafinowana w planowaniu ryzyka i rynku i nierozsądnie inwestowała w spółki, których należyta staranność mogłaby uniknąć. Nieuniknionym skutkiem pędu do sieci była sztuczna bańka start-upów internetowych, z których wiele ma zawyżone wartości rynkowe. Ta bańka zaczęła się rozszerzać w latach 90., ale nie mogła trwać wiecznie. Bańki spekulacyjne są powszechnym zjawiskiem gospodarczym i występowały wielokrotnie na przestrzeni setek lat. Rzeczywiście, druga bańka spekulacyjna, nieruchomości, załamała się później w 2008 roku. Bańka dot-com osiągnęła swój szczyt 10 marca 2000 r., Kiedy akcje NASDAQ osiągnęły szczyt na poziomie 5 132,52. To około dwukrotnie więcej niż rok wcześniej. Wiele firm technologicznych, których ceny akcji rosły, traciło pieniądze, a kilka nie miało żadnych przychodów. Bańka spekulacyjna miała pęknąć. Super Bowl w styczniu 2000 roku zawierało 17 reklam internetowych, z których każda zapłaciła co najmniej 2 miliony dolarów. Było to wyjątkowe zjawisko, ponieważ tak wiele młodych firm miało wystarczająco dużo gotówki, aby zlecać reklamy Super Bowl.

4 kwietnia 2000 r. Ogłoszono decyzję w postępowaniu antymonopolowym firmy Microsoft, a Microsoft został uznany za monopolistę. NASDAQ spadł do najniższego poziomu 3649, ale pod koniec dnia odbił do ponad 4000. Magazyn Barron′s opublikował alarmujący artykuł, w którym stwierdzono, że spośród 371 platform internetowych handlujących na NASDAQ, wiele nigdy nie osiągnęło zysku i prawdopodobnie upadnie, gdy wypalą swoje fundusze venture. Od tego momentu bańka gwałtownie się skurczyła w latach 2000 i 2001 oraz w 2002 roku. Dziesiątki firm internetowych zniknęły, a wiele innych odnotowało gwałtowny spadek ich akcji. Bańka internetowa miała również szkody uboczne. Wiele firm sieciowych i telekomunikacyjnych rozszerzyło swoje własne sieci, aby wspierać przewidywany wzrost z powodu dot-comów. Na przykład WorldCom został nadmiernie rozbudowany i ogłosił bankructwo. Wiele miast i stanów próbowało przyciągnąć firmy z branży zaawansowanych technologii ulgami podatkowymi, parkami biznesowymi i centrami technologicznymi, pozostawiając puste biura i nieużywane audytoria. W sumie pęknięcie bańki internetowej obniżyło wartość akcji technologii o około 5 bilionów dolarów w porównaniu z ich wartością szczytową. Dwa przykłady szkód ubocznych pokazują, że skutki te nadal występują nawet dzisiaj. Pierwszy miał miejsce w 2009 r., kiedy miasto Port St. Lucie na Florydzie zaoferowało znaczne zachęty, aby firma graficzna Digital Domain przeniosła w te okolice laboratorium badawcze. Ogromny kompleks biurowo-studyjny o powierzchni 115 000 stóp kwadratowych został zbudowany po zachodniej stronie Port St. Lucie i na początku 2012 roku był zajmowany przez około 300 pracowników zajmujących się oprogramowaniem i grafiką. Jednak pomimo debiutu giełdowego w 2011 r. Digital Domain wkrótce zadeklarowało upadłość we wrześniu 2012 r. i zamknięcie obiektu w Port St. Lucie, co oznacza utratę setek miejsc pracy. Miasto Port St. Lucie próbuje teraz sprzedać lub wynająć ogromny kompleks biurowy, obecnie bez rezultatów. Jedyną obecnie używaną przestrzenią jest audytorium do nabożeństw. Digital Domain nie był początkującym startupem z niesprawdzonym talentem. Firma macierzysta zdobyła siedem Oscarów za efekty specjalne w filmach, w tym Titanic i What Dreams May Come. Zatrudniał jednych z najlepszych grafików komputerowych i programistycznych na świecie. Po bankructwie nabyto całkiem sporo własności intelektualnej Digital Domain, ale to nie przyniosło korzyści ogromnym pustym biurom w Port St. Lucie, które są obecnie utrzymywane na koszt gminy i mogą popchnąć miasto w kierunku własnego bankructwa. . Drugim przykładem szkód ubocznych było Studio 38, któremu Komisja Rozwoju Gospodarczego Rhode Island w 2005 roku udzieliła pożyczki w wysokości 75 milionów dolarów. Była to firma zajmująca się grami animowanymi, założona przez byłego dzbanka Boston Red Sox, Curta Schillinga. W zamian za pożyczkę firma przeniosła się doProvidence i rozpoczął działalność z około 250 pracownikami. Podobnie jak w przypadku aplikacji o wartości 75 milionów dolarów na start, główny produkt Studio 38 działał z opóźnieniem. Jak to bywa w przypadku start-upów, samej firmie zabrakło funduszy i zalegała z płatnościami na rzecz państwa. Wobec braku świeżego kapitału z kredytów filmowych, inwestorów zewnętrznych, państwa lub innych źródeł, firmie brakowało płac, zabrakło funduszy, zwolniła cały personel, a następnie ogłosiła upadłość. Najważniejsze jest to, że władze miejskie i stanowe niekoniecznie mają kwalifikacje do oceny, czy dana firma rzeczywiście doda miejsca pracy, jak wszyscy obiecują, czy tylko zajmie miejsce, dopóki problemy finansowe ich nie pokonają. Branża oprogramowania i zaawansowanych technologii jest atrakcyjna dla początkujących inwestorów, ponieważ prawdą jest, że wiele z tych firm odniosło ogromny sukces i stało się bogatymi. Ale prawdą jest również, że znacznie większa liczba tych firm upadła i zbankrutowała. Inżynierowie oprogramowania, którzy pracowali dla tych firm, po raz pierwszy w historii oprogramowania stracili pracę i stanęli w obliczu schyłku rynku pracy. Nawet liczba przyjęć do programów nauczania inżynierii oprogramowania na uczelniach i uniwersytetach spadła, gdy stało się oczywiste, że zawody związane z oprogramowaniem nie będą się szybko rozwijać w nieskończoność.

Wielka recesja

Chociaż bańka internetowa była poważnym kryzysem dla firm programistycznych i technologicznych, nie była to jedyna bańka, która pękła w ciągu tej dekady. Począwszy od końca 2007 r. Do 2010 r. Kraj i większość świata napotkały coś, co stało się znane jako Wielka Recesja, która jest echem Wielkiego Kryzysu, który rozpoczął się w 1929 r. Recesja przetoczyła się przez cały gospodarki i wpłynęło na tysiące firm i miliony osób. Jednak pęknięcie bańki mieszkaniowej i poważne obniżki kosztów nieruchomości miały największy wpływ ludzki na zwykłych konsumentów. Bańki na rynku nieruchomości pojawiały się w historii tak wiele razy, że były nawet analizowane statystycznie, ale pęknięcie dużej bańki około 2008 r. Było szczególnie dotkliwe. Po części było to spowodowane spekulacyjnym budowaniem domów do "przerzucania" lub kupowaniem przez inwestorów, a nie przez właścicieli, którzy chcieli mieszkać w domach. W niektórych społecznościach na Florydzie i Nevadzie było tak naprawdę więcej domów na rynku niż ludzi w nich mieszkających. Ogólnie rzecz biorąc, Wielka Recesja była spowodowana bardzo złożonym zestawem powiązanych ze sobą wydarzeń i błędów. W przybliżonej kolejności chronologicznej przebiegają one w następujący sposób:

1995

•  Otwieranie zbyt wielu kredytów hipotecznych typu subprime dla nabywców domów o niskich dochodach. Było to spowodowane apelem rządu USA o zwiększenie liczby posiadanych domów wśród obywateli o niskich dochodach.
•  Oparcie kredytów hipotecznych typu subprime na zmiennych stopach procentowych. Tak więc, gdy stopy procentowe wzrosły, tysiące kredytów hipotecznych subprime stały się niedostępne.
•  Ograniczenie nadzoru nad instytucjami finansowymi ze względu na błędne przekonanie, że rynki finansowe będą samoregulujące. Ten brak nadzoru zaowocował wieloma nowymi i skomplikowanymi transakcjami finansowymi o rosnącym ryzyku.

2000

•  Dzielenie i przepakowywanie kredytów hipotecznych w złożone pakiety finansowe i sprzedaż części. Pakiety te zostały sklasyfikowane jako niskiego ryzyka, co było poważnym błędem z powodu braku nadzoru i nieodpowiednich audytów. Przepakowywanie i odsprzedawanie segmentów kredytów hipotecznych w pakietach sprawia, że renegocjacja kredytów hipotecznych jest bardzo skomplikowana, ponieważ nie ma już relacji jeden do jednego między właścicielami domów a bankami lub firmami hipotecznymi.
•  Przebudowa domów i wspólnot mieszkaniowych z powodu rosnących kosztów nieruchomości. Wiele domów budowano raczej w celu "odwrócenia" niż do zamieszkania, więc Stany Zjednoczone wkrótce osiągnęły nadwyżkę około 500 000 domów więcej niż było ludzi w nich mieszkających. Ta nadwyżka nie była kłopotliwa, gdy ceny rosły, ale gdy pękła bańka, nadwyżka spowodowała szybszy spadek cen, niż mogłoby się to wydarzyć w innym przypadku.

2008

•  Dopuszczenie do upadku Lehman Brothers we wrześniu 2008 r., Co wywołało nagły i wstrząsający globalny kryzys finansowy.
•  Zapewnianie bez nadzoru funduszy programu pomocy w zakresie aktywów zagrożonych (TARP) bankom i instytucjom finansowym. Chociaż celem TARP było przywrócenie elastyczności finansowej konsumentom i właścicielom domów, brak nadzoru skutkował zmniejszeniem akcji kredytowej przez odbiorców TARP, ale brakiem obniżenia premii i odszkodowań dla funkcjonariuszy.

2009

•  Dostarczanie środków na bodźce państwom bez odpowiedniego nadzoru. W rezultacie znaczna część pieniędzy stymulacyjnych została wykorzystana na wypłatę emerytur pracowników na emeryturze i pensje obecnych pracowników, a nie na stworzenie nowych miejsc pracy i usunięcie bezrobotnych obywateli z opieki społecznej.
•  Niezapewnienie naprawdę skutecznej pomocy stymulacyjnej tysiącom właścicieli domów, którym groziło zajęcie nieruchomości, ale którzy nie kwalifikowali się do żadnego z nowych programów.
Skutki tych błędów wkrótce doprowadziły do licznych bankructw biznesowych i osobistych, tysięcy przejęć nieruchomości i tysięcy zwolnień. Doprowadziło to również do ogromnych strat na giełdzie. O Wielkiej Recesji można powiedzieć więcej, ale jej wpływ na firmy produkujące oprogramowanie był spadek wielkości sprzedaży i wzrost zwolnień personelu. Aby zaoszczędzić pieniądze, był także wzrost offshore outsourcingu do krajów o niskich kosztach pracy, takich jak Indie, Chiny, Filipiny i Ukraina. Połączone czynniki Wielkiej Recesji są tym, co fizycy nazywają połączonym systemem oscylacyjnym. Oznacza to, że tak wiele rzeczy jest ze sobą powiązanych, że zmiany w jednej z nich wpływają na wszystkie pozostałe. Oto kilka przykładów:

•  Każde zwolnienie pracownika będącego jednocześnie właścicielem domu do wynajęcia zwiększa możliwość jeszcze jednego wykluczenia.
•  Każde wykluczenie powoduje wprowadzenie na rynek jednego domu więcej i zwiększa nadwyżkę wolnych domów, które stanowiły już ponad 10% wszystkich domów w USA w szczycie recesji w 2010 roku.
•  Każde wykluczenie obniża wartość nieruchomości w okolicznych domach i obniża ceny. Im więcej przypadków egzekucji w mieście lub okolicy, tym większa utrata wartości dla całej społeczności.
•  Wiele przejęć nieruchomości na wynajem ma niezamierzone konsekwencje wyprowadzenia najemców z ulicy, mimo że płacili czynsze na czas.
•  Każde wykluczenie kosztuje banki więcej pieniędzy niż zyskują na zajęciu majątku. W rezultacie egzekucje z nieruchomości również zwiększają ryzyko upadłości banków. Renegocjacja kredytów byłaby dla banków bardziej opłacalna niż przejęcie nieruchomości, ale kredyty hipoteczne są rozproszone po różnych instytucjach, więc proste renegocjacje nie są już możliwe. Wydaje się, że banki nie zrozumiały podstawowej matematyki, że renegocjacje byłyby bardziej opłacalne niż przejęcia nieruchomości.
• ołączenie utraty miejsc pracy i wykluczenia z nieruchomości obniżyło wydatki konsumentów o ponad 25% w porównaniu ze szczytem z 2007 r., Co spowodowało poważne szkody w sklepach detalicznych, sprzedawcach samochodów, restauracjach i innych przedsiębiorstwach.
•  Cięcie w sprzedaży detalicznej spowodowało również cięcia w produkcji, sprzedaży międzynarodowej oraz w transporcie i transporcie. Cięcia te zmniejszyły zyski firm żeglugowych, kolei, linii lotniczych i firm przewozowych.
•  Połączenie utraty miejsc pracy, wykluczeń z rynku i kurczenia się działalności gospodarczej obniżyło notowania giełdowe o bezprecedensowe kwoty, chociaż częściowe ożywienie nastąpiło wiosną 2009 r. Pełne ożywienie nastąpiło dopiero na początku 2013 r.
•  Zmniejszenie sprzedaży detalicznej, produkcji i transportu w połączeniu z utratą miejsc pracy poważnie obniżyło dochody z podatków na szczeblu miejskim, stanowym i krajowym. Prawie każdy stan i większość miast miało poważne deficyty budżetowe w 2009 roku. Niektóre z nich utrzymywały się w 2013 roku, częściowo z powodu nadmiernej wysokości emerytur i opieki zdrowotnej dla emerytowanych pracowników rządowych.
•  Ze względu na wysokie stopy bezrobocia i liczne egzekucje, dochody z podatków stanowych i gminnych nadal spadały od około 2008 do 2011 r., Ale w 2012 r. Odnotowano pewien wzrost.
•  Próby zwiększenia wpływów podatkowych metodami "opodatkowania bogatych" przyniosły skutek odwrotny do skutku i spowodowały zmniejszenie dochodów podatkowych. Bardzo zamożni są bardzo mobilni, posiadają nieruchomości w kilku stanach i mają prawników i księgowych o wiele bardziej wyrafinowanych niż urzędnicy państwowi. Nie było pomyślnego wzrostu dochodów w żadnym stanie, który próbował programów bogatych w opodatkowanie. Pomimo niepowodzenia tej metody, wiele stanów i rząd federalny nadal próbuje przeforsować te programy, nie rozumiejąc, że dochody raczej spadną, a nie wzrosną.
•  Próby opodatkowania sprzedaży internetowej przez poszczególne stany (takie jak Rhode Island) przyniosły skutek odwrotny i zmniejszyły wpływy podatkowe. Dzieje się tak, ponieważ główni dostawcy Internetu, tacy jak Amazon i Overstock, zerwali powiązania z firmami z Rhode Island, podobnie jak większość innych głównych graczy. Rezultatem jest szkoda dla firm z Rhode Island bez odpowiedniego wzrostu w dolarach podatkowych

W przypadku bańki internetowej, Wielkiej Recesji i bańki mieszkaniowej interesujące jest to, że problemy te można było przewidzieć i modelować przy użyciu kombinacji danych historycznych i analiz predykcyjnych. Nie potrzeba naprawdę skomplikowanej matematyki, aby przewidzieć, że jeśli zbuduje się więcej domów, niż osób w nich zamieszka, ceny muszą spaść. Łatwo też przewidzieć, że gdy ceny domów spadną poniżej średniej wartości kredytów hipotecznych, będzie iwiele Foreclosures, ponieważ właściciele domów nie mogą już sprzedawać swoich domów z zyskiem. Rządy gminne i stanowe oraz rząd federalny potrzebują lepszych umiejętności w zakresie badań operacyjnych i modelowania ekonomicznego niż mają obecnie. Połączenie analiz predykcyjnych i inteligentnych agentów, które przywracają odpowiednie dane ze źródeł internetowych, umożliwia tworzenie potężnych narzędzi planowania gospodarczego, które mogą tworzyć wykresy ryzyka dla samorządów miejskich, stanowych, federalnych i korporacji w wielu kluczowych branżach.

Innowacje 2000 roku

Pomijając dwa pękające bąbelki, wracamy teraz do innych interesujących problemów z oprogramowaniem, które miały miejsce w latach 2000-2009. W 2000 roku IBM zaczął wprowadzać na rynek nową metodę pamięci masowej zwaną pendrive'ami. Są to małe urządzenia półprzewodnikowe z trwałą pamięcią, które mogą przechowywać informacje przez czas nieokreślony bez konieczności zasilania elektrycznego. Te urządzenia zwykle podłącza się do portu USB. Wynalezienie pendrive'ów nastąpiło w poprzedniej dekadzie, ale ich komercyjne wejście na rynek nastąpiło w grudniu 2000 roku. Kilka firm i wynalazców twierdzi, że są prawdziwymi wynalazcami, i wniesiono wiele spraw sądowych, z których część jest nadal nierozwiązana. IBM; izraelska firma M-Systems; Trek; i Netac złożyli różne patenty i spory patentowe. Najważniejsze jest to, że pendrive'y są obecnie najpopularniejszą metodą przechowywania informacji na komputerach, ponieważ są łatwiejsze w użyciu niż dyski i znacznie mniejsze. W styczniu 2001 roku wprowadzono nową formę narzędzia badawczego i nową metodę ich tworzenia. W tym miesiącu Wikipedia po raz pierwszy pojawiła się w Internecie. Wcześniejsze badania przeprowadzone przez Ricka Gatesa i Richarda Stallmana miały swój wkład, ale samą Wikipedię zapoczątkowali Jimmy Wales i Larry Sanger, wykorzystując koncepcje zapoczątkowane przez Warda Cunninghama. Mniej więcej ku zaskoczeniu wszystkich Wikipedia stała się największą i najczęściej używaną encyklopedią na świecie. Metoda tworzenia wpisów przez tysiące nieopłacanych wolontariuszy okazała się niezwykle skuteczna i od tego czasu stała się metodą radzenia sobie z innymi rodzajami problemów i spraw. W pierwszych latach tego dziesięciolecia doszło do ostatecznych wyników procesu antymonopolowego przeciwko firmie Microsoft, który został złożony przez Departament Sprawiedliwości, co samo w sobie jest fascynujące. Istotą ostatecznej decyzji było to, że Microsoft nie będzie już sprzedawał Internet Explorera w systemie Windows. Firma Microsoft zgodziła się również udostępnić konkurentom dane interfejsu aplikacji (API) i zaprzestać ingerowania w próby połączenia przeglądarek i oprogramowania innych firm z systemem Windows. Była to poważna decyzja dla konkurentów Microsoftu i dziesiątek komercyjnych dostawców oprogramowania, którzy potrzebowali swoich pakietów do działania w systemie Windows, aby je sprzedawać. Luty 2001 był świadkiem ważnego momentu w historii oprogramowania. Było to spotkanie w Snowbird Todge w Utah, które doprowadziło do publikacji słynnego Manifestu Agile. Wśród 17 uczestników znaleźli się Kent Beck, Mike Beedle, Arie van Benekum, Alastir Cockburn, Ward Cunningham, Martin Fowler, James Grenning, Jim Highsmith, Andrew Hunt, Ron Jeffries, Jon Kern, Bran Marick, Robert C. Martin, Steve Mellor, Ken Schwaber, Jeff Sutherland i Dave Thomas. W tym dziesięcioleciu utworzono Instytut Metryki i Produktywności Informatyki (ITMPI) przez Computer Aid, Inc. ITMPI rozpoczął serię seminariów i seminariów internetowych w celu poszerzenia wiedzy na temat zasad inżynierii oprogramowania. Ostatecznie ITMPI dysponowało stajnią, w której składało się prawdopodobnie 50 najlepszych ekspertów ds. oprogramowania i mówców publicznych, których tematy zostały nagrane do późniejszego wykorzystania. Rok 2004 był świadkiem pojawienia się Facebooka Marka Zuckerberga w sieci, chociaż eksperymentowano z wcześniejszymi wersjami. Facebook zapoczątkował eksplozję sieci społecznościowych, która nadal ma miejsce do dziś, chociaż tak się nie dzieje ,że każda nowa sieć społecznościowa odnosi sukcesy. Film The Social Network z 2010 roku to ciekawa relacja z powstania Facebooka, a także ostrzeżenie o sporach sądowych. W 2006 roku pojawił się w sieci twórca Twittera Jack Dorsey, a do 2012 roku witryna powiększyła się do 500 milionów użytkowników. W 2008 roku brazylijski rząd wydał nowe rozporządzenie, które miało wpływ na wszystkie kontrakty rządowe. Wykonawcy musieli przestać używać "godzin wysiłku" i przejść na formalne wskaźniki. To była dyrektywa IN04. Chociaż w dyrektywie nie określono punktów funkcyjnych, ogólny wpływ rozporządzenia był taki, że punkty funkcyjne Międzynarodowej Grupy Użytkowników Punktów Funkcyjnych (IFPUG) stały się normalnym miernikiem zarówno dla zamówień rządowych, jak i handlowych w Brazylii. Wielu dyrektorów IFPUG pochodziło z Brazylii, w tym były prezydent. Rządy Włoch i Korei Południowej również używają punktów funkcyjnych do kontraktów rządowych i mogą wydawać przepisy podobne do tych stosowanych w Brazylii. Metryki punktów funkcyjnych są zdecydowanie najbardziej niezawodnymi metrykami dla umów dotyczących oprogramowania i celów biznesowych. Metryki punktów funkcyjnych zawierają dane porównawcze z ponad 50 000 projektów oprogramowania. Sama organizacja non-profit International Software Benchmark Standards Group (ISBSG) ma ponad 6000 projektów mierzonych za pomocą wskaźników funkcjonalnych. Dla porównania, suma innych wskaźników, takich jak punkty fabularne, punkty przypadków użycia, obiekty RICE, wiersze kodu itd., To tylko około 1000 projektów. W tej dekadzie rozwinęły się metody Agile, takie jak Scrum i Extreme Programming (XP). Nastąpiło również rozszerzenie procesów oprogramowania zespołowego (TSP) i procesu tworzenia oprogramowania osobistego (PSP) Wattsa Humphreya. Pojawiło się wiele nowych języków programowania. Pod koniec dekady Apple odrodził się na rynku dzięki sukcesowi jego słynnych iPhone'ów i iPadów. Rzeczywiście, Apple stał się firmą o najwyższej wartości rynkowej w Stanach Zjednoczonych, co ograniczyło niezwykłą zmianę. Wydaje się, że Apple wspiera kulturę innowacyjności, a to zaowocowało szeregiem nowych rodzajów produktów, które czasami zmieniają kierunek całego sektora nowoczesnych technologii. Pod koniec dekady problemy z kradzieżą tożsamości, włamaniami i odmową usługi były głównymi problemami międzynarodowymi. Rzeczywiście, "cyberwojna" stawała się globalnym problemem, ponieważ wiele ataków jest przypisywanych obcym rządom. Określenie "cyberwarfare" zaczęło być szeroko używane w połowie dekady. Rzeczywiście, pozorne cyberataki z udziałem rządów krajowych stają się coraz bardziej powszechne, o czym świadczą ataki na Iran i odkrycie ataków hakerskich na amerykańskie obiekty elektroenergetyczne w 2009 r. Wcześniej w 2007 r. firma McAfee zgłosiła dowody na to, że 120 krajów szykuje się do cyberwojny. , przy czym celem z wyboru są systemy finansowe i elektroenergetyczne. Narzędzia do analizy statycznej zostały dodane do arsenału jakości w 2000 roku, z dobrymi wynikami, chociaż podstawowa technologia analizy statycznej pochodzi z lat 80. Jednak zarówno otwarte, jak i komercyjne narzędzia do analizy statycznej zwiększyły się pod względem liczby i złożoności. W tej dekadzie nastąpiła poważna zmiana: ponad 50% populacji programistów w USA pracowało nad utrzymaniem i ulepszaniem starszych aplikacji, a nie nad nowymi programami. Nowe języki obejmowały C# i Visual Basic Net, a pakiet języków firmy Microsoft ewoluował i dodał funkcje. Pod koniec tego dziesięciolecia liczba aplikacji w chmurze i oprogramowania jako usługi (SaaS) zaczęła rosnąć. Ponadto aplikacje na smartfony i tablety weszły na arenę i znajdują się teraz na gwałtownej ścieżce wzrostu. W 2010 r. Liczba języków programowania na świecie przekroczyła 2500. Temat "dużych zbiorów danych" (lub heterogenicznych zbiorów dużych ilości informacji) zacząłby wzbudzać zainteresowanie w tej dekadzie, podobnie jak dziedzina analityki predykcyjnej. W rzeczywistości duże zbiory danych i analizy predykcyjne tworzą synergiczne połączenie.

Firmy powstałe w latach 2000

Pomimo szkód ekonomicznych spowodowanych przez dwie pęknięte bańki w tej dekadzie, powstało wiele nowych firm, w tym Facebook i Twitter, które szybko się rozrosły, zyskując miliony klientów i zarabiając miliardy dolarów.

AbsolutData Research 2001
Aconics 2000
Advice Interactive Group 2008
Agito 2003
Andreesen Horowitz 2009
App Dynamics 2008
Archon Information Systems 2008
BAE Systems 2005
Barracuda 2003
BMI Gaming 2009
The Book Depository 2004
Booker Software 2007
Canonical Ltd. 2004
Charge Smart 2008
Cloud Fire 2009
Coho Software 2006
CoSoSys 2004
Cybertrust 2004
Data Market 2008
DigiCert 2003
Digital Risk 2005
DreamWorks 2000
EHarmony 2000
Etheric Networks 2000
Facebook 2004
Fidelity National Information Services 2006
Freelanthropy 2004
GIANT Company Software 2000
Global Insight 2001
Guidewire 2001
The HIVE Group 2000
Huawei Symantec 2008
IKnowWare 2002
Image Metrics 2000
Intellectual Ventures 2000
The Internet Marketing Association (IMA) 2000
Internet Security Alliance 2001
IT-Block 2001
JIVE Software 2001
Kobo, Inc. 2009
L-l Identity Solutions 2006
Lite Speed Technologies 2002
Matrix Knowledge 2005
MAXUM Games 2001
Meeting Zone 2002
METALOGIC Software 2001
Microsoft Studios 2002
MicroTask 2009
Mind Genius 2008
Moody's Analytics 2007
Moody's Corporation 2000
Mozilla Corporation 2005
My Medical Reports 2008
Natural Insight 2004
Neato Robotics 2009
Open Source Development Labs (OSDL) 2000
Opera Solutions 2004
Oversight Solutions 2003
PerfectMatch 2003
PIER Systems 2000
Point Judith Capital 2001
Rightware 2009
RPX Corporation 2008
ScanSafe 2004
Semantic Web Company 2004
Sirius XM Radio 2008
Skyfire 2007
Skyhook Wireless 2003
SocialLlow 2009
SolvelT Software 2005
SpaceX 2002
SpamCube 2003
Sumtotal Systems 2004
Survey Gizmo 2006
TASC, Inc. 2009
Team and Concepts 2003
Tesla 2003
TrustPort 2008
Twitter 2006
Umbra Software 2007
Verizon Wireless 2000
Vizio 2002
Wiki Spaces 2005
Wikipedia 2001
Working Point 2007
Xbox Live Productions 2008 YouTube 2005
Zillow 2005

Zbierając informacje, odnotowano, że co najmniej 50 firm zajmujących się grami komputerowymi rozpoczęło działalność w ciągu dekady, ale większość z nich nie została uwzględniona w tabeli. Gry to ważna, ale wyspecjalizowana branża. Firmy zajmujące się grami komputerowymi mają tendencję do bycia efemerycznymi i albo łączą się z innymi, albo zmieniają swoje nazwy. W tej książce omówiono tylko kilka firm zajmujących się grami. (Nigdy nie zlecono mi badania wydajności lub jakość w firmach zajmujących się grami lub w działach zajmujących się grami w większych firmach, takich jak Microsoft). Omówiono tutaj niektóre firmy o interesujących lub nietypowych modelach biznesowych, które powstały w tej dekadzie.

AbsolutData Research

AbsolutData Research to interesująca firma, która koncentruje się na wykorzystaniu mocy analiz predykcyjnych, aby pomóc dużym firmom w podejmowaniu decyzji. Ta firma została założona w Indiach, ale ma klientów na całym świecie, w tym wiele firm z listy Fortune 500 z siedzibą w USA. Firma została założona w New Delhi w Indiach w 2001 roku przez Anila Kaula, Suhale Kapoora i Sudeshna Datta. Od momentu powstania AbsolutData Research każdego roku podwajała swoje przychody; otworzyła nową siedzibę w Alameda w Kalifornii, niedaleko San Francisco, a także biura w Nowym Jorku i Los Angeles. Główne laboratorium badawcze znajduje się w Gurgaon w Indiach. W 2012 roku firma Fidelity Growth Partners w Indiach przeznaczyła 20 milionów dolarów na pomoc firmie w ekspansji w dziedzinie analityki dużych zbiorów danych. Firma AbsolutData Research zajmowała wysokie miejsca na różnych listach firm analitycznych, a także na listach szybko rozwijających się firm, takich jak firmy azjatycko-amerykańskie, sporządzone przez Deloitte. Firma zatrudnia około 150 analityków. Dwa z nowszych "gorących tematów", które pojawią się w 2000 roku, to duże zbiory danych i analizy predykcyjne. W rzeczywistości są one silnie powiązane, ponieważ bez analiz predykcyjnych same duże zbiory danych mają niewielką wartość.

Andreesen Horowitz

Przedsiębiorca Marc Andreesen i inwestor venture capital Ben Horowitz byli znani w Dolinie Krzemowej jako prywatni inwestorzy, którzy lubili ciekawe startupy technologiczne. Sam Andreesen jest inżynierem oprogramowania, który opracował niektóre funkcje przeglądarki Mosaic i jest współzałożycielem Netscape. Horowitz był także technologiem i dyrektorem generalnym firmy Opsware, która została sprzedana firmie Hewlett-Packard. W dniu 6 lipca 2009 r. Obie połączyły siły, aby utworzyć spółkę inwestycyjną typu venture capital Andreeson Horowitz w Menlo Park w Kalifornii. To, co odróżnia ich być może od innych inwestorów, to fakt, że obaj są ekspertami w dziedzinie oprogramowania i produktów technologicznych, a tym samym mają przewagę w zrozumieniu rodzajów nowych produktów i firm, które mogą odnieść sukces. W czasie, gdy kapitał wysokiego ryzyka się kurczył, Andreesen Horowitz był w stanie przyciągnąć ponad 1,2 miliarda dolarów na inwestycje technologiczne. Wśród znanych firm, w które zainwestowali, jest wiele czołowych sieci społecznościowych , w tym Skype, Twitter, Facebook i Groupon. Ze względu na techniczne wyrafinowanie założycieli, Andreesen Horowitz nie boi się zajmować się inwestycjami na wczesnym etapie dla prawdziwych start-upów, które dopiero zaczynają. Zainwestowali w 66 startupów i łącznie około 156 firm. Jest to jedna z zalet posiadania sprawdzonych przedsiębiorców zajmujących się oprogramowaniem jako inwestorów kapitału podwyższonego ryzyka. Andreesen Horowitz to interesująca firma niszowa, która pomaga branży oprogramowania, finansując startupy, a także większe inwestycje w firmy w średnim stadium, które chcą szybciej się rozwijać. Bez firm takich jak ta branża oprogramowania byłaby mniejsza i mniej eklektyczna.

Archon Information Systems

Archon Information Systems to interesująca firma niszowa, a niszą, którą zajmuje, jest pobór podatków miejskich. Firma Archon została założona w Nowym Orleanie w Luizjanie w styczniu 2008 roku przez Briana P. Barriosa, Beau L. Buttona i Williama D. Sossamona. Wszyscy trzej pracowali w kancelariach prawnych w Nowym Orleanie, zajmujących się sprawami podatkowymi. Działalność Archon opiera się na oprogramowaniu, a jego pakiety są szeroko stosowane przez samorządy. Jej marką jest CivicSource, w skład której wchodzi obecnie CivicSource Administrator ds. Podatków od nieruchomości oraz CivicSource Auctioneer obsługujący gminne aukcje przejętych nieruchomości, które odnotowały niepokojący wzrost częstotliwości w związku z Wielką Recesją i pęknięciem bańki na rynku nieruchomości. Trzecim komponentem są usługi CivicSource, które obsługują rutynowe sprawy miejskich urzędów skarbowych. Ta firma ilustruje fakt, że oprogramowanie wkracza w każdy aspekt działalności korporacyjnej i rządowej. Wraz z rozwojem oprogramowania, coraz więcej nisz, takich jak opodatkowanie nieruchomości, otwiera się dla przedsiębiorców zajmujących się oprogramowaniem. Ta dekada jest wypełniona nowymi firmami niszowymi i nowymi niszami.

Canonical, Ltd.

Canonical to kolejna niszowa firma, a jej szczególna nisza obejmuje system operacyjny Ubuntu i aplikacje open source skoncentrowane na wersji Linuksa Ubuntu. Firma Canonical została założona w 2004 roku w Londynie w Anglii przez Marka Shuttlewortha, który urodził się i wykształcił w RPA. Założył i sprzedał firmę zajmującą się rejestracją nazw domen, która dostarczyła około 75 milionów dolarów funduszy na inne możliwości biznesowe. Shuttleworth zasłynął, stając się prywatnym astronautą, który odbył ośmiodniową podróż statkiem kosmicznym Sojuz do międzynarodowej stacji kosmicznej za około 20 milionów dolarów. Zainwestował około 10 milionów dolarów w stworzenie firmy Canonical. Początkowo Canonical działał jako firma wirtualna, w której pracownicy pracowali we własnych domach. Jednak w 2005 roku przejęto biura w Londynie, a później w Montrealu w Kanadzie. Obecnie biura firmy Canonical znajdują się w około 30 krajach, w tym w Bostonie, Lexington, Londynie, Tajpej, Szanghaju, Sao Paulo i na Wyspie Man. Jego całkowite zatrudnienie wynosi około 500 osób.

Uwaga: system operacyjny Ubuntu jest popularnym wariantem systemu operacyjnego Linux. Nazwa "Ubuntu" jest najwyraźniej oparta na słowie z afrykańskiego dialektu, które oznacza coś w rodzaju "życzliwość i współczucie dla wszystkich innych". Model biznesowy typu open source polega na rozpowszechnianiu różnych pakietów oprogramowania bezpłatnie, ale za opłatą za wsparcie, doradztwo i inne powiązane usługi. Czasami ta strategia jest opłacalna, jak pokazał Red Hat Software. W przypadku Canonical przychody wydają się zbliżać do 30 milionów dolarów, co jest przybliżonym progiem rentowności dla Canonical. Chociaż Ubuntu jest flagowym produktem, Canonical ma wiele innych pakietów, a także wiele usług. Wśród pakietów jest Bazaar do kontroli wersji; Malone (nazwany na cześć Bugsy Malone) do śledzenia błędów; Rosetta do tłumaczenia na język naturalny i lokalizacji pakietów oprogramowania; i Blueprints, narzędzie planowania. Oprogramowanie open source stało się interesującym i unikalnym aspektem większej branży oprogramowania. Trudno wyobrazić sobie jakąkolwiek inną branżę, w której produkty są rozdawane za darmo, a przychody w całości pochodzą ze wsparcia i usług dodatkowych.

Facebook

Przed omówieniem Facebooka firmy, czytelnicy są zachęcani do obejrzenia interesującego filmu The Social Network, który szczegółowo opisuje zarówno ekscytację związaną z uruchamianiem oprogramowania, jak i niektóre zagrożenia, w tym bycie pozwanym. Film w dużej mierze opiera się na stworzeniu Facebooka, oczywiście z pewną licencją artystyczną. Pokazuje intelektualne podekscytowanie w Cambridge, Massachusetts, kiedy oprogramowanie było branżą szybko rozwijającą się. Facebook został założony w lutym 2004 roku przez Marka Zuckerberga i jego współlokatorów z Harvardu Eduardo Savarina, Andrew McColluma, Dustina Moskowitza i Chrisa Hughesa. Firma została faktycznie zarejestrowana na Florydzie. Idea Facebooka polegała na tym, że byłby to serwis społecznościowy, na którym inni studenci Harvardu mogliby dzielić się pomysłami, zdjęciami i tematami o znaczeniu lokalnym. Zuckerberg uruchomił wcześniejszą witrynę internetową w 2003 roku o nazwie FaceSmash. To była nieco nietaktowna witryna, na której ludzie mogli porównać zdjęcia dwóch osób i głosować na "gorące" lub "niezbyt gorące". Niektóre zdjęcia zostały zdobyte przez hakowanie, a później Zuckerberg miałby zostać obciążony zarzutami uniwersyteckimi za naruszenie bezpieczeństwa i naruszenia praw autorskich. Ostatecznie zarzuty te zostały oddalone. Gdyby ich nie ddaloo, mógłby zostać wyrzucony z Harvardu. Zuckerberg wypróbował również bardziej społecznie poprawną formę strony internetowej. Na jedną klasę przesłał około 500 zdjęć i zdjęć starożytnego Rzymu i pozwolił ludziom podzielić się komentarzami na ich temat. Otrzymał on wysoką ocenę od profesora, a niektóre z jego funkcji zostały później wykorzystane na Facebooku. W 2004 roku Zuckerberg rozpoczął pracę nad projektem o nazwie "thefacebook", który później przekształcił się w Facebooka. Miało to zalążek późniejszych funkcji, takich jak publikowanie zdjęć i zezwalanie na komentarze. Nieco zaskakujące jest to, że pierwszego dnia na stronie zarejestrowało się około 1200 osób. W krótkim czasie około połowa studentów Harvardu używała "thefacebook". Jednak przyszłe problemy prawne zaczęły się pojawiać. Trzech starszych studentów Harvardu, Cameron i Tyler Winklevoss oraz Divya Narenda, zapewniło, że Zuckerberg zgodził się pomóc im w stworzeniu podobnego projektu o nazwie Harvard Connection. Początkowo Facebook był lokalny dla Harvardu, ale wkrótce rozszerzył się na cały Ivy Teague, a następnie na wiele innych uczelni w Stanach Zjednoczonych i innych krajach. W 2004 roku działalność została przeniesiona do Palo Alto w Kalifornii, a po zakupie tej domeny za 200 000 USD nazwa została zmieniona na Facebook.

Uwaga: Nawiasem mówiąc, kupowanie i sprzedawanie nazw domen stało się niewielką podbranżą w sieci i nie zawsze jest to branża etyczna. Wiele potencjalnych nazw domen, zwłaszcza tych z nazwiskami znanych osób, jest zarejestrowanych wyłącznie w celu sprzedaży z zyskiem. . Czasami nazwy domen są sprzedawane za wiele tysięcy dolarów

Facebook rozwijał się, dodając szkoły średnie i międzynarodowe uniwersytety. Następnie członkostwa zaoferowano kilku firmom z branży zaawansowanych technologii, w tym Microsoft i Apple. We wrześniu 2006 roku Facebook został otwarty dla każdego, kto ukończył 13 lat, posiadając prawidłowy adres e-mail. W ostatnich latach Facebook dodał zarówno korporacje, jak i żyjących ludzi. W rzeczywistości strona na Facebooku jest czymś w rodzaju symbolu statusu dla firm, podobnie jak "śledzenie" na Twitterze. Z socjologicznego punktu widzenia interesuje fakt, że niektóre funkcje Facebooka, takie jak "tworzenie znajomych" i "usuwanie znajomych", były szeroko dyskutowane i wydają się być ważne dla wielu użytkowników. Istnieje obawa, że "nieprzyjaźń" trudnej osoby może mieć osobiste konsekwencje. Ciekawe jest również to, że Facebook stworzył nietypowy sposób zatrudniania inżynierów oprogramowania. Korzystając z samego Facebooka, rozprowadzano zestaw quizów i pytań, a osoby, które dobrze sobie z nimi radziły, były rekrutowane przez Facebooka. Popularność serwisu stale rosła, a Facebook jest obecnie największym repozytorium zdjęć w sieci, z ponad 100 milionami obrazów i 350 milionami użytkowników. Facebook planował pierwszą ofertę publiczną w 2012 roku. Problemy z Fegal pojawiły się na krótko przed planowaną ofertą publiczną, kiedy Facebook został pozwany przez Yahoo w związku z naruszeniem patentu. Pozew został złożony 12 marca 2012 r. W miarę rozwoju Facebook potrzebował dodatkowych funduszy i otrzymał zarówno finansowanie aniołów, jak i kilka rund finansowania z kapitału podwyższonego ryzyka. Kilka firm również zwróciło się do Facebooka w sprawie partnerstwa, a nawet przejęcia, w tym Google, Microsoft i Yahoo. Jednak Zuckerberg był fajny do przejęcia. Potrzebne były dodatkowe fundusze, ponieważ Facebook działał ze stratą. W 2008 roku Facebook zatrudnił Sheryl Sandberg na stanowisko Chief Operating Officer, a firma zaczęła planować sposoby zwiększania przychodów. Reklamy zostały wybrane jako optymalne rozwiązanie dla wyższych przychodów. Wydawało się to skuteczne iw 2009 r. Przychody Facebooka stały się dodatnie, a nie ujemne. Później w 2012 roku Facebook miał około 3,7 miliarda dolarów przychodów z reklam i około 1 miliarda dolarów zysku. Facebook złożył wniosek o IPO 1 lutego 2012 r. Cena została ustalona na 38 USD za akcję. Pierwsza oferta publiczna miała miejsce 18 maja 2012 r. Początkowo wydawała się udana, ponieważ przyniosła 16 miliardów dolarów i była trzecim co do wielkości IPO w historii Stanów Zjednoczonych. Jednak w momencie zamknięcia akcje sprzedawały się tylko za 38,23 USD. Do 25 maja 2012 r. Cena akcji spadła o około 16,5% do 31,91 USD, ku konsternacji wczesnych inwestorów. Po pierwszej ofercie publicznej wkrótce nastąpiły skargi i dochodzenia dotyczące tego, czy banki ubezpieczeniowe nieprawidłowo przekazały informacje tylko kilku wybranym klientom. Stan Massachusetts również wezwał Morgan Stanley w tej samej sprawie. Złożono kilka pozwów, w tym pozwy zbiorowe. Ponieważ wydarzenia te nastąpiły całkiem niedawno, ich przebieg nie jest jeszcze znany. Facebook to interesujący przypadek biznesowy pokazujący, jak sieć rozszerzyła komunikację międzyludzką i podzieliła interesy milionów ludzi na całym świecie. Facebook służył również jako model dla wielu innych sieci społecznościowych. Rzeczywiście, przestrzeń sieci społecznościowych staje się bardzo zatłoczona i prawdopodobnie nie wszystkie nowe sieci społecznościowe będą działać bardzo długo. Uzyskanie finansowania venture jest często trudne dla prawdziwych start-upów tworzących wyjątkowe lub nowatorskie firmy. Ale kiedy pierwsza firma startupowa odniosła sukces, pieniądze z przedsięwzięcia typu venture napłynęły do kolejnych kilkunastu startupów z tego samego sektora. Atrakcyjność sieci społecznościowych prawdopodobnie doprowadzi do ciekawych tez i rozpraw studentów psychologii. Nie jest od razu jasne, dlaczego ludzie tak bardzo je lubią, że mogą spędzać godziny każdego dnia na kontaktach z sieciami społecznościowymi, a nie na interakcji z żywymi ludźmi.

Freelanthropy

Freelanthropy to także firma niszowa, a nisza wydaje się mieć pewną wartość dla organizacji charytatywnych i firm non-profit. Firma ta została założona w 2004 roku w La Canada Flintridge w Kalifornii przez Dana Sheehy'ego. Nastąpiły pewne zmiany korporacyjne i firma została formalnie zorganizowana jako Freelanthropy LLC w 2006 roku. Model biznesowy jest niezwykły i interesujący. Dzięki Yahoo i innym przeglądarkom Freelanthropy tworzy niestandardowe paski narzędzi, które mają na celu poprawę interakcji z klientami i generowanie przychodów. Istnieje również portal wyszukiwania korzystający z usługi Yahoo Search and Ask. Obsługiwanych jest około 1,3 miliona organizacji non-profit. Paski narzędzi zapewniają opcję "kupuj i daj", w której część środków jest przeznaczona na zakup produktów lub usług, a część na cele charytatywne lub non-profit. Fundusze te są dzielone 50/50 między samą organizację charytatywną i Freelanthropy. Narzędzia Freelanthropy wykorzystują model pay-per-click, który jest kolejną unikalną formą prowadzenia biznesu, która powstała tylko w oparciu o sieć World Wide Web. Gdy potencjalny klient klika określoną reklamę, aby przejść do swojej witryny internetowej, reklamodawca płaci niewielką opłatę witrynie hostingowej. Niepopularne reklamy mają niewielkie lub żadne koszty. Najpopularniejsze reklamy płacą najwięcej, więc model płatności za kliknięcie jest proporcjonalny do popularności witryn. Model może mieć stałe lub zmienne koszty oparte na ofertach.

Uwaga: Pierwsza zarejestrowana działalność biznesowa typu pay-per-click miała miejsce w 1996 roku dla witryny internetowej o nazwie Planet Oasis. Początkowo metoda była postrzegana z podejrzliwością, ale dość szybko ponad 400 firm płaciło w przedziale od 0,005 do 0,25 USD za kliknięcie. Wkrótce więksi dostawcy, tacy jak Google i Microsoft, również oferowali usługi płatne za kliknięcie.

Wielu sprzedawców produktów i usług zgodziło się zapewnić niewielki procent sprzedaży różnym organizacjom charytatywnym za pośrednictwem Freelanthropy. Pasek narzędzi i portal wyszukiwania ułatwiają kierowanie klientów do tych dostawców. Witryna Freelanthropy nie jest pozbawiona kilku problemów technicznych. Jeden z użytkowników skarżył się, że jego przeglądarka została przejęta i ciągle wracała do witryny. Ale ponieważ ta skarga wydawała się wyjątkowa, prawdopodobnie była to jakaś usterka techniczna, a nie zamierzona dywersja.

Global Insight

Global Insight jest również graczem niszowym, ale jest ważną postacią w bardzo ważnej niszy. Global Insight to największa na świecie komercyjna organizacja zajmująca się badaniami ekonomicznymi, zatrudniająca ponad 700 pracowników i posiadająca bazę klientów obejmującą ponad 3800 organizacji. Global Insight wykorzystuje komputery i oprogramowanie jako integralną część zarówno gromadzenia danych, jak i ich dystrybucji. Założycielem i prezesem był dr Joseph Kasputys w Lexington, Massachusetts. Firma Global Insight powstała w 2001 roku w wyniku złożonej fuzji kilku wcześniej niezależnych firm: Wharton Econometric Forecasting Associates, Data Resources Inc., Primark Decision Services i innych. Global Insight jest teraz spółką zależną IHS, dawniej Information Handling Services. Global Insight przejął również kilka firm. W przewodniku Hoovers Business Guide podano, że Global Insight zawiera dane z ponad 200 firm i 170 branż. Firma posiada 25 biur w kilkunastu krajach. Jednym ze znanych klientów jest Wal-Mart. Firma Global Insight opracowała nowe hasło reklamowe "Oszczędzaj pieniądze, żyj lepiej", które zastąpiło starszą reklamę "Zawsze niskie ceny". Firma ta zapewnia doradztwo i dane prawdopodobnie większości firm z listy Fortune 500 w USA, a także wielu firmom globalnym. Spółka macierzysta IHS jest również interesującą firmą niszową w branży informatycznej. Cała dziedzina gromadzenia i rozpowszechniania informacji została przekształcona przez Internet, sieć WWW i ogromny wzrost konwersji książek i papierowych dokumentów tekstowych do przechowywania online.

HIVE Group

HIVE Group to kolejna mała niszowa firma specjalizująca się w wizualizacji złożonych informacji przy użyciu opatentowanej metody zwanej mapowaniem drzew, opracowanej przez Bena Shneidermana z University of Maryland. Metoda wizualizacji mapowania drzewa wykorzystuje prostokąty o różnych rozmiarach i kolorach, aby pokazać hierarchie i relacje między elementami danych. Trudno to wyjaśnić słowami, ale wizyta na stronie internetowej HIVE Group ujawni kilka interesujących przykładów. HIVE Group została założona w Richardson w Teksasie w 2000 roku. Przewodniczącym jest H. William Jesse, a CEO - Jim Bartoo. Ben Shneiderman, wynalazca mapowania drzew, jest doradcą korporacyjnym. Jest także profesorem na University of Maryland. Ben Shneiderman ma długą historię wynalazczości w dziedzinie wizualizacji informacji. Przypisuje mu się wymyślenie metody wyróżniania fraz tekstowych, która umożliwiałaby użytkownikom przeskakiwanie z jednej strony do drugiej w oparciu o konkretny tekst. Jest to obecnie najczęściej stosowana metoda nawigacji podczas badań naukowych. W przypadku tych fraz z aktywnymi linkami internetowymi używane jest słowo "hipertekst". Wizualizacja złożonych informacji jest jednym z bardziej powszechnych zastosowań komputerów. Metoda mapowania drzew jest obecnie szeroko stosowana przez agencje rządowe i duże korporacje w celu lepszego zrozumienia złożonych tematów Chociaż mapowanie drzew jest skuteczne, technologia istnieje w obecnej erze wyjścia poza statyczne diagramy i przejście do królestwa animowanych, pełnokolorowych, a nawet trójwymiarowych reprezentacji złożonych informacji. Grupa HIVE jest przykładem firmy zbudowanej wokół jednej innowacji, ale takiej, która ma wystarczające zainteresowanie, aby firma rozwijała się i przynosiła zyski.

Intellectual Ventures

Intellectual Ventures jest bardzo kontrowersyjne i ma ciekawy model biznesowy oparty na opatentowanej własności intelektualnej. Wiele patentów dotyczy komputerów i oprogramowania, ale są też patenty z innych dyscyplin technicznych, takich jak biologia, medycyna, fizyka i wszelkie formy inżynierii. Firma została założona w Bellevue w stanie Waszyngton w 2000 roku przez byłe kierownictwo firmy Microsoft, Nathan Myhrvold i Edward Young, wraz z wieloma wybitnymi późniejszymi współzałożycielami. Główną działalnością Intellectual Ventures jest zgłaszanie patentów na podstawie własnych wewnętrznych badań lub nabywanie patentów od innych wynalazców i firm. Wizyta na stronie internetowej dostarcza informacji o tym, jak dokonać przeglądu patentu. Firma posiada również własne zaplecze badawcze o nazwie Intellectual Ventures Labs. W tych wewnętrznych laboratoriach pracuje całkiem sporo znanych naukowców, a dyscypliny te obejmują medycynę, biologię, fizykę, oprogramowanie, nanotechnologię i inne. Naukowcy badają również globalne ocieplenie i opatentowali potencjalną (ale prawdopodobnie szkodliwą) metodę odwracania globalnego ocieplenia poprzez stworzenie sztucznej osłony nad ziemią, która częściowo blokuje światło słoneczne. (Jeśli ta metoda zawiodła, może odwrócić globalne ocieplenie na tyle, by stworzyć nową epokę lodowcową.) Intellectual Ventures to prywatna firma, która wydaje się być dobrze finansowana kwotą ponad 5,5 miliarda dolarów z różnych źródeł zewnętrznych. Niektórzy inwestorzy to duże firmy, takie jak Microsoft; Intel; Sony; Nokia; Google; i wiele innych grup zajmujących się zaawansowanymi technologiami, medycyną, nauką i bioinżynierią. Inwestowane są również niektóre fundusze venture. Jest jednym z największych posiadaczy patentów w Stanach Zjednoczonych. Intellectual Ventures posiada łącznie ponad 30 000 patentów, w tym 2 000 zgłoszonych przez wewnętrznych naukowców. Obecnie składa blisko 500 nowych wniosków patentowych rocznie. Kontrowersje, które krążą wokół Intellectual Ventures, koncentrują się wokół nowego terminu: "patentowy troll". Termin ten odnosi się do firmy, która nabywa patenty nie w celu wytwarzania nowych produktów, ale raczej w celu uzyskania przychodów poprzez prowadzenie postępowań sądowych z innymi firmami za naruszenia patentów. W 2010 roku Intellectual Ventures złożyło pozwy patentowe przeciwko kilku znaczącym firmom. Jednak dzisiejsze spory patentowe wydają się być endemiczne dla branży oprogramowania i komputerów, a także dla producentów sprzętu, takich jak Apple, Samsung, Motorola i tym podobnych. Trwa wiele spraw patentowych i wydaje się, że wiele firm wykorzystuje patenty jako broń biznesową do ataków na konkurentów.

Spory patentowe w ostatnich latach

Ciekawie byłoby przyjrzeć się statystykom sporów patentowych składanych każdego roku w ciągu ostatnich 15 lat. Najwyraźniej liczba spraw patentowych rośnie. W 2011 roku prezydent Obama podpisał ustawę Leahy-Smith America Invents Act (AIA), która wprowadziła poważne zmiany w amerykańskim prawie patentowym. Istotą nowych przepisów jest to, że data zgłoszenia patentu wydaje się mieć pierwszeństwo przed faktyczną datą wynalazku. Pełen wpływ prawa wiąże się z wieloma kwestiami prawnymi i należy go omówić z wykwalifikowanymi rzecznikami patentowymi. Skutki wykraczają poza zakres tej książki. Zaczęła się również pojawiać nowa metoda obliczania liczby przyznanych patentów zwana Nash Bargaining Solution .Najważniejsze jest to, że rok 2012 był rekordowym rokiem pod względem rozstrzygania sporów patentowych w USA, albo ze względu na nowe prawo, albo z jakichś zewnętrznych powodów, które są trudne do oszacowania. Patrząc na trendy od 1991 r., Liczba wniesionych pozwów patentowych wydaje się mniej więcej podążać za trendami dotyczącymi patentów przyznawanych każdego roku i obie te tendencje rosną. Rośnie również sprzedaż patentów, zwłaszcza w sektorach telekomunikacyjnych, ponieważ różne firmy telekomunikacyjne walczą o stanowisko, pozywają się nawzajem i wykupują portfele patentów od starszych firm telekomunikacyjnych. Kupowanie i sprzedawanie patentów nie jest konkretnie związane z oprogramowaniem i komputerami, ale oba są częścią większych trendów patentowych, które obejmują więcej postępowań sądowych i bardzo aktywne nabywanie patentów. W każdym razie model biznesowy opracowany przez Intellectual Ventures, polegający na kupowaniu i tworzeniu patentów, wydaje się przynosić duże zyski, więc można go uznać za udany. Szkoły biznesu powinny opracować nowe studia przypadków dotyczące wpływu spraw o naruszenie patentów na postęp techniczny, a także wpływu ostatnich zmian w prawie patentowym i obliczeniach przyznawanych.

Stowarzyszenie Marketingu Internetowego (IMA)

IMA nie jest korporacją jako taką, ale raczej stowarzyszeniem zawodowym. Jest to zawarte z kilku powodów. Po pierwsze, jest duży i ważny, liczy ponad 750 000 członków. Po drugie, pokazuje, że kiedy technologie takie jak internet i sieć WWW stają się wszechobecne i ważne, ludzie muszą brać pod uwagę etykę i profesjonalne zachowanie. Po trzecie, Internet i sieć WWW stały się kluczowymi narzędziami marketingowymi w epoce nowożytnej. W rzeczywistości jednym z powodów, dla których gazety tracą pieniądze, jest to, że znaczna część pieniędzy korporacyjnych wykorzystywanych na kampanie marketingowe przeszła z reklam prasowych na marketing internetowy. IMA zostało zapoczątkowane w 2000 roku w San Clemente w Kalifornii przez Sinana Kanatsiza. Część funduszy pozyskano od różnych sponsorów, takich jak Google, Microsoft, Facebook, YouTube i wielu innych. Co zaskakujące, nie ma żadnych opłat ani składek dla członków, co może być jednym z powodów, dla których członkostwo jest tak duże. IMA obejmuje szkolenia, certyfikację personelu marketingu internetowego oraz szereg konferencji i / lub targów. Wydaje również coroczne nagrody zwane Internet Impact Awards. Zapewnia konferencje dla klientów takich jak Apple, a także we własnym imieniu. Niektóre z tych konferencji są duże i obejmują setki uczestników. IMA jest jednym z wielu profesjonalnych stowarzyszeń, które pojawiły się, aby wspierać komputery, oprogramowanie, Internet i sieć WWW. Inne w tej przestrzeni to IEEE Computer Society, Association of Computing Machinery (ACM), Association of Information Processing Professionals (AIPP), Society for Information Management (SIM), Association for Women in Computing, Society for Technical Communication (STC) i setki innych w wielu krajach. Niektóre z tych grup są międzynarodowe, inne krajowe, a wiele z nich, jak Software Process Improvement Network (SPIN), to personel regionalny lub pomocniczy w określonych miastach. Niektóre są oparte na jednym producencie lub dostawcy, na przykład grupa IBM SHARE, która reprezentuje większość klientów IBM w dziedzinie komputerów i oprogramowania. IMA jest tu uwzględniony jako jeden z przykładów dużej klasy organizacji społecznych i zawodowych, które powstały, odkąd komputery i oprogramowanie stały się narzędziami korporacyjnymi i biznesowymi na skalę globalną.

Meeting Zone

Meeting Zone to kolejna firma z nową niszą, która jest całkowicie oparta na komputerach, oprogramowaniu i sieci World Wide Web. Ta firma zapewnia obsługę spotkań online i seminariów internetowych. Jest to popularna nisza wśród wielu innych graczy, w tym Adobe, Cisco, JoinMe, DumDum i wielu innych. W rzeczywistości sama Meeting Zone oferuje wsparcie Cisco WebEx, a także Presenter and Glance. Ta prywatna firma została założona w 2002 roku w Thame w Anglii przez Steve'a Gandy'ego i Tima Duffy'ego. Obsługuje zarówno konferencje audio, jak i konferencje internetowe. Ideą Meeting Zone jest bezbolesne konferencje bez uciążliwego pobierania. Meeting Zone rozszerzyła się na skandynawskie rynki konferencyjne poprzez nabycie Malmo w Norwegii i współpracę z United Communications Sweden AB. Rynek wideokonferencji jest solidny, a Meeting Zone szybko się rozrosła, po umieszczeniu listy 100 najszybciej rozwijających się firm w Wielkiej Brytanii na Microsoft Sunday Times Tech Track. W 2011 roku kilka firm, w tym GMT Communications Partners i zarząd firmy, nabyło Meeting Zone za około 38,5 miliona funtów.

Moody's Analytics

Moody's Analytics została założona w 2007 roku jako spółka zależna Moody's Corporation. Jest to firma niszowa, która wykorzystuje oprogramowanie do analizy różnorodnych ryzyk finansowych i inwestycyjnych.

Uwaga: Inną interesującą spółką zależną Moody's od 2002 r. Jest Moody's Foundation, organizacja filantropijna, która przekazuje fundusze na pomoc i podnoszenie poziomu edukacji matematycznej i statystycznej. Sponsoruje również różne konkursy matematyczne dla uczniów szkół średnich, aby wykorzystać matematykę do rozwiązywania rzeczywistych problemów.

Pierwotna spółka-matka została założona w 1909 roku przez Johna Moody'ego, który wynalazł metodę nowoczesnych ratingów obligacji. Oczywiście działo się to na długo przed komputerami i oprogramowaniem, a obliczenia były wykonywane ręcznie. Ale problemy statystyczne i analityczne były dokładnie tym, czego komputery i oprogramowanie użyłyby później do przyspieszenia obliczeń. Kryzys finansowy w USA w 1907 roku pokazał potrzebę lepszych danych, co zmotywowało Moody'ego do stworzenia swojego systemu ratingowego, a rząd USA do stworzenia Systemu Rezerwy Federalnej. Moody's Analytics opracowało własne oprogramowanie do modelowania finansowego, analizy ryzyka i innych zagadnień związanych z biznesem. Posiada również grupę doradczą w tych samych obszarach. Jednostka zależna Moody's Analytics jest rodzajem organizacji parasolowej, która była używana do łączenia wielu wcześniej niezależnych firm, w tym między innymi KMV, która ma pakiet oprogramowania do przewidywania niespłaconych kredytów; Economy.com (modelowanie ekonomiczne); Wall Street Analytics; Fermat International, Instytut Standardów i Kwalifikacji Ryzyka; Edukacja globalna CSI; i inni. Ta ostatnia firma, CSI Global Education, zajmuje się szkoleniami i edukacją w zakresie akcji i obligacji oraz innych finansowych papierów wartościowych. Certyfikuje również profesjonalistów zajmujących się obsługą i wprowadzaniem do obrotu takich papierów wartościowych. Jest to firma kanadyjska, a jej kursy są wymagane dla wszystkich kanadyjskich specjalistów ds. Akcji i inwestycji. Kilka innych firm parasolowych Moody's Analytics również zapewnia szkolenia w różnych krajach, ale zawsze w zakresie akcji, obligacji i instrumentów finansowych. We współczesnym świecie ratingi kredytowe są krytycznymi czynnikami zarówno dla firm, jak i osób fizycznych. Matematyka i statystyki służące do obliczania tych ocen nie są objęte zakresem tej książki, ale mają one poważny wpływ na zdolności jednostek i przedsiębiorstw do zaciągania pożyczek lub otrzymywania finansowania zewnętrznego. W 2010 roku Moody's Analytics nawiązało współpracę z Experian w celu stworzenia pakietu oprogramowania umożliwiającego instytucjom finansowym zarządzanie portfelami pożyczek konsumenckich. Chociaż komputery i oprogramowanie są kluczowymi narzędziami do ratingów kredytowych i analizy ryzyka, nie są one w żaden sposób doskonałe. Ich dokładność była często krytykowana i rozpoczęły się pewne dochodzenia rządowe. Trzy firmy ratingowe - Moody's, Standard and Poors i Fitch's - zostały ostro skrytykowane ze względu na ich korzystne oceny firm finansowych, które później stały się niewypłacalne, takich jak Lehman Brothers, a także za ryzykowne pakiety związane z kredytami hipotecznymi, które były zamieszane w pęknięcie. bańka na obudowie. Nie ma "atomu cezu" ani prawdziwie obiektywnej matematycznej metody określania dokładności ratingu kredytowego, dlatego korzysta się z kilku niezależnych agencji ratingowych i porównuje się ich wyniki. Wiadomo również, że pakiety oprogramowania finansowego do oceny zdolności kredytowej zawierają błędy i wady, podobnie jak wszystkie inne rodzaje aplikacji. Firmy udzielające kredytów są nominalnie strażnikami kondycji finansowej korporacji i osób fizycznych, ale stare powiedzenie: "Kto będzie strzegł samych strażników? "Wydaje się mieć zastosowanie.

Fundacja Mozilla

Fundacja Mozilla ma bardzo skomplikowaną historię, w którą zaangażowanych jest wielu graczy i firm. Ponieważ Mozilla jest organizacją o otwartym kodzie źródłowym, nie jest to zaskakujące: wiele osób jest zawsze zaangażowanych. (Nazwa "Mozilla" jest połączeniem wyrażenia "Mosaic killer", ponieważ oryginalna przeglądarka miała wyprzeć Mosaic). Fundacja Mozilla powstała w Mountain View w Kalifornii w lipcu 2003 roku, ale ma dłuższą historię. Założycielem był Mitchel Baker. Część funduszy zapewnił Mitch Kapor z firmy Lotus. Inne fundusze pochodziły z wielu źródeł, w tym z America Online (AOL), IBM, Sun i Red Hat Software. Mozilla była nazwą wewnętrzną używaną w Netscape. Organizacja Mozilla został oskarżona o stworzenie pakietu aplikacji Mozilla z zarówno przeglądarką, jak i klientem poczty elektronicznej. Później przeglądarką stała się Firefox, a pakiet e-mail zmienił się w Thunderbird. Jak omówiono w innym miejscu, sam Netscape został przejęty przez AOL. Netscape i Microsoft rywalizowali w wojnach przeglądarek w ciągu poprzedniej dekady, a Netscape tracił udziały w rynku.

Uwaga: podczas gdy logo Mozilla Firefox wydaje się przedstawiać przednią połowę rudego lisa, rzeczywistym zwierzęciem wybranym do logo była ruda panda. W rzeczywistości pandy rude trochę przypominają lisy, ale są zupełnie innym gatunkiem i nie są ze sobą spokrewnione.

Kiedy przychody AOL zaczęły spadać, zmniejszyło to nacisk na produkty Netscape, a projekt Mozilla w Netscape został zamknięty. Kiedy AOL i Netscape wycofali się z projektu Mozilla, Fundacja Mozilla została utworzona przez grupę byłych pracowników Netscape i innych. Istnieje również oddzielna korporacja Mozilla, która nie jest zwolniona z podatku. Mozilla Corporation produkuje przeglądarki Firefox. Jak widać, jest to bardzo zawiła ścieżka. Jako przedsiębiorstwo nastawione na zysk, Mozilla Corporation może generować przychody i sprzedawać produkty. Jednym z jego głównych klientów jest Google, którego wyszukiwarka jest domyślną wyszukiwarką w przeglądarce Firefox. Istnieje kilka produktów Mozilli, ale najbardziej znane są przeglądarka internetowa Firefox i klient poczty Thunderbird. Jest też SeaMonkey i Camino, przeglądarka na platformy Macintosh.

Konkurs przeglądarkowy

W tym przypadku najważniejszym tematem jest to, że Microsoft często dominuje w segmentach przemysłu. W segmencie przeglądarek Internet Explorer firmy Microsoft wciąż jest na szczycie, ale na rynku jest kilku innych silnych graczy. Sekwencja dla komputerów osobistych to Internet Explorer, Google Chrome, Firefox, Opera i wreszcie Apple Safari. Inne platformy, takie jak tablety i smartfony, mają różne wzorce. Segment przeglądarek jest bardziej konkurencyjny niż na przykład pakiety biurowe, w których Microsoft jest głównym graczem z dużym marginesem. (Ciekawe, że Intuit był w stanie skutecznie konkurować z Microsoftem w segmencie finansów osobistych; w rzeczywistości Microsoft wycofał się z finansów osobistych.) Jest technicznie i społecznie interesujące, że aplikacja open source, taka jak Firefox, wyprodukowana przez dość małą organizację, taką jak ponieważ Mozilla jest w stanie utrzymać konkurencyjność w głównym segmencie oprogramowania w porównaniu z dobrze finansowanymi, większymi konkurentami, takimi jak Microsoft i Google.

Open Source Development Labs (OSDL)

Ruch open source w oprogramowaniu wydaje się być wyjątkowy wśród głównych branż. Istnieje bardzo niewiele innych branż, w których kluczowe produkty są dostępne bezpłatnie i w których przychody pochodzą z usług takich jak szkolenia i doradztwo, a czasem konserwacja i obsługa klienta. OSDL zostało założone w 2000 roku w Beaverton w stanie Oregon i Jokohamie w Japonii. Było to swego rodzaju konsorcjum mające na celu poprawę i maksymalizację wykorzystania systemu operacyjnego Linux. Sześć firm, które przekazały pierwotne fundusze, to Computer Associates, IBM, NEC, Intel, Fujitsu i Hitachi. Linux cieszył się zainteresowaniem zarówno w Japonii, jak iw Stanach Zjednoczonych (a także w Finlandii, skąd się narodził). Chociaż twórca Linuksa, Linus Torvalds, nie był założycielem, wkrótce potem dołączył do laboratoriów. Obecnie liczba członków wzrosła do około siedemdziesięciu pięciu organizacji, a Linux jest szanowaną i popularną platformą dla wbudowanych aplikacji, serwerów, a nawet komputerów przenośnych. Stał się również preferowanym systemem operacyjnym dla tanich komputerów w krajach wschodzących oraz do dostarczania tanich komputerów uczniom. W 2007 roku Open Source Development Labs i Free Standards Group połączyły się, tworząc Linux Foundation.

Linux Emerges

Linux wywodzi się z Uniksa i został opracowany przez fińskiego inżyniera oprogramowania Linusa Torvaldsa. Torvalds był studentem w czasie, gdy tworzył Linuksa. To nie jedyny ważny temat dotyczący oprogramowania, który powstał od studenta. Facebook został również opracowany przez studentów. Unix został opracowany w Bell Labs przez Dennisa Ritchiego i Kena Thomsona w 1969 roku. Potęga i użyteczność Uniksa skłoniła Richarda Stallmana w 1983 roku do rozważenia zalet wolnego systemu Unix. To doprowadziło go do stworzenia projektu GNU i Powszechnej Licencji Publicznej GNU, która jest główną licencją na oprogramowanie open source, ale nie jedyną. (Niezwykła nazwa "GNU" oznacza mniej więcej "GNU to nie Unix".) Interesującą cechą licencji GNU jest coś, co nazywa się "copyleft" w przeciwieństwie do "praw autorskich". Zasadniczo oznacza to, że użytkownicy mogą przekazywać kod i elementy dostarczane innym osobom, a także modyfikować je, ale nie pobierają opłat za wynik. W 1991 roku, kiedy Torvalds opracował jądro Linuksa, nie był to pełny system operacyjny. Miał również własną licencję niestandardową. Później, kiedy został wydany na licencji GNU, dodano inne funkcje i produkt stał się znany jako GNU / Linux. Nazwa "Linux" została odrzucona przez Torvaldsa jako egoistyczna. Współpracujący z nim kolega jednostronnie zaczął nazywać oprogramowanie "Linux" i stało się to dobrze znane, więc Torvalds ostatecznie się zgodził. Wcześniejsza nazwa brzmiała FreaX, co nie jest zbyt estetyczne. Jak wielu czytelników wie, logo lub symbolem Linuksa jest pingwin. Powód tego nie jest pewien, ale Torvalds został kiedyś ugryziony przez pingwina podczas wizyty w zoo w Canberze w Australii. Kilka osób i organizacji innych niż Torvalds próbowało zastrzec znak towarowy "Linux". Doprowadziło to do sporu i ostatecznie Torvaldsowi przyznano znak towarowy, który przekazał Linux Trademark Institute, który jest spółką zależną Linux Foundation. Ponieważ zadeklarowaną misją OSDL jest bycie centralnym organem zajmującym się wiedzą na temat Linuksa i rozszerzaniem jego wykorzystania, ta krótka dyskusja na temat Linuksa jest istotna. Oprogramowanie open source, a zwłaszcza Linux, stworzyły interesującą i ważną niszę w większej branży oprogramowania. Powszechna dostępność kodu źródłowego na licencji GNU i możliwość wprowadzania ulepszeń przez tysiące ludzi doprowadziły do wielu użytecznych postępów technicznych. Pojawił się sprzeciw wobec ruchu open source ze strony uznanych firm, takich jak Microsoft, ale społeczność open source odniosła sukces w tworzeniu nowego biznesu i zdobywaniu dużej liczby zadowolonych klientów.

PerfectMatch

PerfectMatch to jedna z wielu nowych firm w bardzo szczególnej niszy. Korzysta z komputerów i oprogramowania, aby świadczyć usługi kojarzenia dla mężczyzn i kobiet poszukujących partnerów. Ta książka obejmuje zarówno techniczne, jak i społeczne aspekty oprogramowania, a kojarzenie graczy jest zdecydowanie kwestią społeczną. Inni gracze w tej podgrupie to EHarmony, Christian Mingles i dziesiątki innych. Niektóre mają charakter ogólnokrajowy, a inne są lokalne. PerfectMatch zostało założone w sierpniu 2003 roku w Kirkland w stanie Waszyngton przez Duane'a Dahla, Cindy Henry-Dahl i Jasona McVeya. Firma korzysta z kwestionariusza opracowanego przez psychologa, dr Peppera Schwartza, wraz z analizą predykcyjną i dużą bazą danych kobiet i mężczyzn, którzy określili szereg preferencji. Wizyta w witrynie PerfectMatch pokazuje, że niektóre z używanych preferencji obejmują bycie właścicielem zwierzaka, bycie weganinem, bycie demokratą lub republikaninem oraz wiele innych tematów. Matchmaking to starożytne zajęcie z tysiącletnią historią. Wiele cywilizacji, łącznie ze starożytnym Rzymem, Indiami, Japonią i Chinami, od wieków używało swataczy i nadal to robi w czasach nowożytnych. Jednak komputery i oprogramowanie dodały kilka nowych poziomów do dobierania graczy. Wśród nich jest znacznie większy zestaw potencjalnych dopasowań ze względu na sieć WWW. Kwestionariusze używane przez różne firmy zajmujące się randkami komputerowymi również wydają się być dość wyrafinowane w określaniu osobistych zainteresowań i tematów, które mogą być istotne. Ta gałąź przemysłu oraz PerfectMatch i jego konkurenci pokazują, że komputery i oprogramowanie przenikają teraz każdy aspekt ludzkiego życia, w tym sposób, w jaki spotykamy i odnajdujemy naszych małżonków lub partnerów.

RPX Corporation

RPX Corporation to firma z nowatorską i wysoce wyspecjalizowaną niszą. Wykorzystuje analizy predykcyjne do obliczania ryzyka związanego z patentami w USA, co jest rzeczywiście bardzo nową niszą. (Ponieważ sam złożyłem kilka patentów, ta firma jest przedmiotem osobistego zainteresowania). Jak większość czytelników już wie, komputery, oprogramowanie, telekomunikacja i inne branże zaawansowanych technologii złożyły tysiące patentów. Te branże są również przedmiotem częstych sporów patentowych, ponieważ konkurenci walczą o pozycję. Pojawiła się nowa gałąź przemysłu "patentowych trolli", a nazwa techniczna trolli patentowych to jednostki niepraktyczne (NPE). Firma RPX Corporation została założona w 2008 roku w San Francisco w Kalifornii przez Johna Barkera i Geoffreya Amstera. Ich model biznesowy obejmuje defensywną agregację patentów lub nabywanie patentów, które mogą być przedmiotem postępowania sądowego i zobowiązanie się, że nigdy nie będą się spierać o wykorzystanie tych patentów. Ten model biznesowy jest interesującym przeciwieństwem modelu patentowego Intellectual Ventures, omówionego wcześniej w tym rozdziale, który faktycznie inicjuje spory patentowe. RPX ma wielu klientów z sektorów nowoczesnych technologii i przedsiębiorstw wysokiego ryzyka. RPX posiada również zespół specjalistów ds. Patentów technicznych, którzy stale obserwują patenty, które mogą zostać wykorzystane do pozywania klientów RPX. Następnie, jeśli to możliwe, RPX nabywa te patenty i tym samym zapobiega ich wykorzystywaniu w sprawach o naruszenie patentu. Czasami RPX nabywa patenty nawet po wniesieniu sprawy do sądu. (Są to dość złożone zagadnienia prawne i nie jestem prawnikiem, więc czytelnicy powinni zasięgnąć porady licencjonowanych prawników na temat sytuacji patentowych). Klienci RPX otrzymują licencje na korzystanie z portfela patentów RPX, płacąc roczne opłaty, które nie są niedrogie. Zaczynają się poniżej 100 000 USD rocznie, ale mogą przekraczać 6 milionów USD rocznie w zależności od biznesu i stosu technologicznego klienta. Firma RPX nabyła ponad 2900 patentów dotyczących oprogramowania, komputerów, elektroniki, telekomunikacji, a także handlu elektronicznego, a nawet gier komputerowych. Patenty te zostały wykorzystane do rozstrzygnięcia ponad 20 spraw o naruszenie i doprowadziły do wycofania ponad 150 zarzutów o naruszenie patentu. Amerykański system patentowy jest coraz częściej wykorzystywany jako broń konkurencyjna i jako źródło znacznych przychodów ze sporów patentowych. Model biznesowy RPX jest interesujący, ponieważ próbuje przywrócić patenty do ich głównego celu, jakim jest opracowywanie innowacyjnych produktów, a nie jest wykorzystywany do powstrzymywania konkurencji lub zmuszania firm do wykupienia wyjścia ze sporów patentowych.

Oprogramowanie SolvelT

Firma SolvelT została założona w 2005 roku w Adelajdzie w Australii Południowej. Czterech współzałożycieli to Matthew Michalewicz, Zbigniew Michalewicz, Martin Schmidt i Constantin Chiriac. Ci czterej byli również współtwórcami i współzałożycielami. Ich wspólną książką była Adaptive Business Intelligence, która została opublikowana w 2006 roku przez Springer i otrzymała pochlebne recenzje w Amazon i innych witrynach z książkami. Książka omawia zastosowanie sztucznej inteligencji do problemów biznesowych. SolvelT wykorzystuje specjalnie zaprojektowane oprogramowanie do stosowania analiz predykcyjnych i sztucznej inteligencji do prognozowania popytu, planowania, dystrybucji i optymalizacji łańcucha dostaw. Ponieważ firma znajdowała się w jednym z australijskich regionów winiarskich, jej pierwsi klienci pochodzili z przemysłu winiarskiego, który jest duży w Australii. Jednak w 2008 r. Zwróciła się do niego firma Rio Tinto Iron Ore Company i poproszono o opracowanie zoptymalizowanych rozwiązań dla operacji wydobywczych. Pozornie SolvelT odniosło sukces, ponieważ wiele innych firm górniczych zostało klientami, a SolvelT utworzyło jednostkę wydobywczą, aby wspierać rosnące portfolio klientów górniczych. W 2011 roku SolvelT zdobył australijską nagrodę za e-logistykę i łańcuch dostaw zarządzania. W 2012 roku SolvelT został przejęty przez francuską firmę Schneider Electric. Komputery i oprogramowanie w połączeniu ze sztuczną inteligencją i analizą predykcyjną mogą rozwiązać szereg złożonych problemów biznesowych i produkcyjnych, z których niektóre były odporne na wcześniejsze rozwiązania. SolvelT nie jest jedyną firmą stosującą analitykę predykcyjną, ale jest przykładem na to, że ta dziedzina rośnie i staje się ważna dla większych firm i większych branż.

Twitter

Twitter jest interesujący, ponieważ zmienił nowatorski sposób komunikacji zwany mikroblogowaniem w jedną z największych sieci społecznościowych w historii. Twitter stał się tak popularny wśród tak wielu ludzi, że wydaje się, że jest to nałóg. Podstawowa koncepcja polega na tym, że użytkownicy mogą wysyłać krótkie wiadomości o długości do 140 znaków, zwane "tweetami". Są one transmitowane do "obserwujących". Twitter został założony w 2006 roku w San Francisco w Kalifornii przez Jacka Derby′ego. Twitter opiera się na koncepcji krótkich wiadomości tekstowych (SMS), która została wprowadzona do domeny telefonii komórkowej w 1985 roku jako część standardów Globalnego Systemu Komunikacji Systemów Mobilnych (GSM). Limit to 160 znaków. Pierwsza wiadomość GSM / SMS została wysłana 3 grudnia 1992 roku. Wkrótce inne sieci przyjęły ten sam pomysł. Po powolnym rozwoju wiadomości tekstowe stały się ogromną podbranżą z bilionami wiadomości i miliardami dolarów przychodów. Jack Derby prowadził roboczą dyskusję na temat GSM w firmie Odeo podczas studiów licencjackich na New York University. Zaproponował wykorzystanie do komunikacji kodów SMS. Pomysł ten miał roboczą nazwę "Twittr" wywodzącą się z istniejącej nazwy "Flickr", z których oba korzystały z pięcioznakowych kodów. Termin "Twittr" został później rozszerzony na "Twitter", który miał starsze i powszechne znaczenie jako krótkie rozmowy ptaków. Doprowadziło to również do wywoływania poszczególnych wiadomości "tweetami" i używania ptaka śpiewającego jako logo Twittera. Początkowo Twitter był używany do komunikacji wewnętrznej w Odeo. W październiku 2006 r. grupa pracowników wykupiła Odeo i utworzyła inną firmę o nazwie Obvious Corporation. Wśród aktywów przejętych od Odeo był Twitter.com. Wśród założycieli byli Biz Stone, Jack Derby, Evan Williams i inni. Twitter zaczął zyskiwać na popularności w wyniku pokazu na konferencji w 2007 roku. Dwa duże wyświetlacze plazmowe pokazywały wiadomości Twittera od różnych komunikujących się ze sobą prelegentów konferencyjnych. Po tej udanej konferencji szybki rozwój Twittera i zjawisko polegające na tym, że miliony obserwujących czekają na krótkie wiadomości od znanych osób zasługują na badanie zarówno w szkołach biznesowych, jak i na uczelniach medycznych kształcących psychologów klinicznych. Z daleka trudno zrozumieć, dlaczego miliony krótkich wiadomości są tak atrakcyjne, że niektórzy spędzają wiele godzin dziennie na czytaniu i pisaniu. Twitter mógł przypadkowo wykorzystać podstawowy czynnik ludzkiego mózgu, który pokazuje, że większość ludzi woli przyswajać krótkie wiadomości zawierające tylko kilka słów, a nie całe akapity lub strony tekstu. Patrząc na wiadomości publikowane w innej sieci społecznościowej, Linkedln, może się przydać ograniczenie wiadomości do 140 znaków. Wiele postów na Linkedln to długie, ponure akapity z nieuzasadnionymi opiniami, w których nie ma nic przydatnego. Często zawierają setki słów. Większy limit postów na Linkedln, wynoszący 4000 znaków, zdecydowanie prowadzi do nadmiaru długich wiadomości. Twitter pozostaje prywatną firmą, której prezesem jest Jack Dorsey. Przychody nie są zgłaszane, ale najwyraźniej są wystarczająco duże, aby firma miała ponad 400 pracowników i znajdowała się w trybie ciągłego wzrostu. Twitter otrzymał dwie rundy finansowania venture. Pieniądze venture zazwyczaj oznaczają, że w końcu nastąpi pierwsza oferta publiczna lub przejęcie, ponieważ inwestorzy kapitału wysokiego ryzyka chcą dużego zwrotu w dość krótkim czasie. Sama sieć Twittera stała się fenomenalnie duża i popularna, z ponad 140 milionami użytkowników i ponad 340 milionami tweetów dziennie. Twitter nie pozostał przy krótkich wiadomościach tekstowych, ale dodał możliwość łączenia zdjęć, a także zapewnia źródło wiadomości. Firmy mogą również zakładać konta na Twitterze i używać ich do komunikacji z klientami.

Uwaga: Jack Dorsey założył również inną interesującą firmę o nazwie Square. Firma Square umożliwia zakupy kartą kredytową za pośrednictwem smartfonów, które używają małego kwadratowego czytnika kart podłączanego do portu telefonu komórkowego.

Twitter stał się niezwykłą domeną społecznościową, w której słynni komunikują się z fanami w dość łagodnym i przyjaznym środowisku społecznym. Jest to jedno z niewielu miejsc, w których zwykli ludzie mogą codziennie czytać wiadomości od celebrytów i światowych postaci, takich jak Prezydent Obama, Tiger Woods i Jennifer Lopez. W rzeczywistości jest to częściowo spowodowane korzystaniem z Twittera przez celebrytów z listy A, co sprawia, że jest tak popularny wśród tak szerokiej publiczności. Twitter daje zwykłym obywatelom wgląd w codzienne życie wielu najbardziej znanych ludzi na świecie. Fakt, że tysiące polityków, gwiazd filmowych i sportowców korzysta z Twittera, jest dowodem na to, że komputery i oprogramowanie weszły w nasze codzienne życie i zmieniły nasze metody komunikacji w nowy i nieoczekiwany sposób.

Youtube

YouTube to interesująca firma, której działalność w całości opiera się na nowych technologiach. Jedną z technologii jest sieć World Wide Web, a druga to cyfrowe obrazy do zdjęć i filmów. Oczywiście potrzebne są również komputery i oprogramowanie. Ta firma nie mogła istnieć ponad 20 lat temu. Firma została założona w 2005 roku w San Mateo w Kalifornii przez Chada Hurleya, Steve′a Chena i Jaweda Karima. Wszyscy trzej byli zatrudnieni w PayPal. Podobnie jak Apple, YouTube również powstał w garażu w Dolinie Krzemowej. Firma zaczynała od finansowania "aniołów", ale w listopadzie 2005 roku otrzymała około 3,5 miliona dolarów w ramach finansowania typu venture od Sequoia Capital. YouTube trafił na to, co może być podstawową ludzką potrzebą, aby ludzie mogli udostępniać zdjęcia i filmy z rzeczami, które są dla nich ważne. Ludzie trzymali albumy z wycinkami i albumy ze zdjęciami od czasów wojny secesyjnej, ale nadejście cyfrowego obrazowania w latach 80-tych sprawiło, że fotografia stała się natychmiastowym fenomenem, a nie zadaniem wymagającym chemikaliów i długotrwałego opracowywania w ciemni. Z jakiegoś powodu YouTube zyskał na popularności i nieco ponad rok po rozpoczęciu działalności codziennie przesyłał tysiące filmów i zdjęć. Wkrótce znalazł się na piątym miejscu pod względem popularności witryny. Dane demograficzne korzystania z YouTube są interesującym komentarzem społecznym na temat korzystania z sieci WWW we współczesnych czasach. Z wielu powodów młodzi ludzie wcześnie adaptują nowe technologie. Większość użytkowników YouTube to nastolatki. Starsi ludzie mają nawyki i praktyki od dawna i są nieco mniej energiczni w przechodzeniu do nowych technik. YouTube uosabiał legendę szybkiego zdobywania bogactwa przez przedsiębiorców z Doliny Krzemowej. YouTube powstał w 2005 roku, a zaledwie rok później w 2006 roku został przejęty przez Google za 1,65 miliarda dolarów. W historii było bardzo niewiele branż, które w tak krótkim czasie były w stanie stworzyć tak duże bogactwo, jak branża oprogramowania. YouTube nie tylko szybko się rozwijał, ale także szybko przyciągnął uwagę całego kraju. Magazyn Time uznał YouTube za "Osobę roku" w 2006 roku, co oczywiście przyciągnęło tysiące nowych klientów. W 2007 r. YouTube wszedł na sferę polityczną, kiedy wraz z Cable News Network (CNN) udostępnił na żywo materiał filmowy z niektórych debat prezydenckich, a pytania napływały przez YouTube. To trwa; YouTube był również częścią debat prezydenckich w 2012 roku i najwyraźniej będzie nadal aktywny w dziedzinie politycznej. Chociaż YouTube początkowo był gospodarzem amatorskich filmów i zdjęć, w 2010 roku dodał profesjonalne filmy i nagrania wideo, a także uruchomił usługę wypożyczania wideo, konkurując z Amazon, Hulu i innymi firmami zajmującymi się przesyłaniem strumieniowym wideo. Nawiasem mówiąc, streaming wideo to kolejna nowoczesna technologia, która nie mogłaby istnieć 20 lat temu. Popularność YouTube i miliony jego członków to czynniki wpływające na przychody z reklam YouTube. Wiele firm reklamuje się za pośrednictwem YouTube (oraz Facebooka i Twittera), aby dotrzeć do ogromnej liczby potencjalnych nowych klientów. Jeden krytyczny problem dotyczy YouTube i wszystkich innych internetowych usług wideo. Przesyłanie strumieniowe wideo i obrazów zużywa ogromne ilości przepustowości. Ponieważ coraz więcej firm wkracza w branżę strumieniowania wideo i zdalnego obrazu, być może możliwe jest nasycenie sieci i spowolnienie ogólnej wydajności. W każdym razie wydaje się, że YouTube wpadł w psychologiczną potrzebę udostępniania osobistych zdjęć i informacji w ustrukturyzowanym i w miarę bezpiecznym środowisku. Jednak żadne dane osobowe umieszczone w sieci nie są naprawdę bezpieczne ani prywatne.

Zillow

Specjalną niszą Zillow jest dostarczanie wartości nieruchomości. Również w tym przypadku nisza zależy od kilku najnowszych technologii, w tym sieci WWW, dużych baz danych, cyfrowych obrazów satelitarnych i lotniczych oraz zastrzeżonych aplikacji, które używają zastrzeżonych algorytmów. Firma nie mogła istnieć 20 lat temu, ponieważ niektóre technologie nie były dostępne. Zillow jest spółką publiczną, której akcje są notowane na NASDAQ. Firma Zillow została założona w 2005 roku w Seattle w stanie Waszyngton przez Richa Bartona i Lloyda Finka. Obaj założyciele byli kadrą kierowniczą firmy Microsoft i byli przedsiębiorcami technicznymi. Firma Zillow nie była pierwszą, która weszła na rynek wycen nieruchomości, ponieważ Yahoo miało usługę o nazwie Yahoo Real Estate, która rozpoczęła się w 1998 roku.

Wycena nieruchomości i oprogramowanie

Starsza firma, Vision Appraisal z 1975 roku, ma wiele kontraktów z samorządami w wielu stanach na przeprowadzanie okresowych ocen nieruchomości) Wyceny są często kontrowersyjne. a czasami złe. Wystarczy powiedzieć, że podatki od nieruchomości są oparte na formalnych szacunkach często dokonywanych przez firmy zajmujące się wycenami komercyjnymi, takie jak Vision Appraisal. Jeśli wyceny są błędne, podatki będą błędne. Wycena nieruchomości jest bardzo złożona, a także bardzo sporna. Istnieje również Rada ds. Standardów Oceny i fundacja non-profit Appraisal Foundation, które są quasi-oficjalnymi grupami, które ustanawiają standardy wyceny nieruchomości, z którymi teoretycznie można porównać firmy wyceniające. Istnieją również profesjonalne stowarzyszenia rzeczoznawców, takie jak American Society of Appraisers i American Appraisers Association. Mimo to wyceny nieruchomości mają wpływ na każdego właściciela domu i dlatego zawsze będą kontrowersyjne i będą przedmiotem skarg ze strony niezadowolonych właścicieli nieruchomości. Wiele firm zajmujących się wycenami stosuje zastrzeżone i tajne algorytmy, z których niektóre nie są nawet ujawniane miejskim organom podatkowym. Prawdopodobnie potrzebny jest system ekspercki, który byłby krajową standardową metodą stosowaną przez wszystkie firmy oceniające i zatwierdzoną przez neutralny, bezinteresowny personel, taki jak profesorowie uniwersytetów lub organizacje non-profit

Zillow uzyskuje przychody z reklam na swojej stronie internetowej. W 2009 roku Zillow utworzyło interesujące konsorcjum, udzielając licencji na swoje wyceny około 180 lokalnym gazetom w Stanach Zjednoczonych. W 2011 r. Zillow i Yahoo Real Estate zawarły spółkę, która stała się największym ośrodkiem zajmującym się reklamami na rynku nieruchomości w Stanach Zjednoczonych. Zillow ma dane o około 100 milionach domów w USA, a Yahoo ma dane o około 5 milionach domów w USA. Połączenie tych dwóch prawdopodobnie obejmuje większość wszystkich domów w USA. Dane obejmują zarówno wartości bieżące, jak i historyczne przeszłe wartości. Na stronie Zillow znajdują się również zdjęcia, w tym zdjęcia lotnicze i satelitarne. Spółka została skrytykowana, gdy zmieniła metodę wyceny w 2011 roku, zmieniając zarówno wycenę bieżącą, jak i historyczną. Zillow twierdził, że jest dokładniejszy, ale wielu użytkowników nie było do tego przekonanych. Zillow twierdzi, że dokładność poprawiła się po dopasowaniu rzeczywistych cen sprzedaży z około 12% do ponad 9%. Dlaczego zmieniają się dane historyczne, nie jest jasne. Witryna oferuje teraz szereg produktów i usług, w tym wyszukiwanie kredytów hipotecznych, aplikacje działające na smartfonach oraz narzędzie o nazwie Zestimate, które może przewidywać ceny sprzedaży nieruchomości. Zillow opracowuje również raporty lokalne dla około 130 obszarów metropolitalnych. Firma Zillow wprowadziła również rodzaj usługi Wiki, umożliwiając użytkownikom zadawanie pytań online społeczności rzeczoznawców i innych użytkowników. Zillow pokazuje, że komputery i oprogramowanie przenikają obecnie każdy aspekt działalności korporacji i rządu. Wyceny majątkowe do celów podatkowych są stosowane od ponad 1000 lat. Przed erą komputerów z dużymi bazami danych i siecią WWW oceny można było opierać jedynie na niewielkiej próbce bardzo lokalnych dóbr. W dzisiejszym świecie praktycznie każda nieruchomość w Stanach Zjednoczonych ma dane dostępne online, więc można przeanalizować dane o nieruchomościach na poziomie krajowym, regionalnym, stanowym, miejskim, a nawet sąsiedzkim. Teoretycznie oceny powinny być dziś dokładniejsze niż w przeszłości, ale korzystanie z oprogramowania zawierającego zastrzeżone i tajne algorytmy budzi poważne wątpliwości co do dokładności. Ponadto aplikacje mają niepokojącą tendencję do zawierania błędów i błędów i bez wątpienia jest to prawdą w przypadku oprogramowania do oceny, podobnie jak w przypadku innych rodzajów oprogramowania. W tej dekadzie wiele niszowych firm wypełniło luki wokół bardziej konwencjonalnych baz danych i aplikacji korporacyjnych. Niektóre z nowych nisz obejmują analizy predykcyjne, wyceny nieruchomości, a nawet relacje osobiste. Sieci społecznościowe zaczęły wykraczać poza zwykłe codzienne kontakty międzyludzkie pod względem częstotliwości. Pod koniec dekady niektórzy młodzi ludzie mieli znacznie więcej przyjaciół w sieciach społecznościowych niż w prawdziwym życiu. Więcej czasu poświęcano na tweety i SMS-y niż rozmowy z ludźmi twarzą w twarz. Wysyłanie SMS-ów stało się tak powszechne, że zaczęło być częstym źródłem wypadków samochodowych, co doprowadziło do wprowadzenia nowych przepisów zakazujących korzystania z telefonów komórkowych i wysyłania SMS-ów przez kierowców.

Rozwój oprogramowania od 2000 do 2010 roku

Lata 2000 to wybuchowa dekada rozwoju oprogramowania, zarówno wśród tradycyjnych form oprogramowania, jak i gier komputerowych i dziesiątek nowych niszowych aplikacji, które wyrastały jak grzyby po deszczu. Wyniki dla 1000 punktów funkcyjnych z około 2005 roku

Pod koniec tej dekady Ward Cunningham wprowadził nową miarę zwaną długiem technicznym. Niestety, dług techniczny, koszt wady i wiersze kodu nie nadają się do analiz ekonomicznych ze względu na niepewne definicje, które charakteryzują się dużą zmiennością w poszczególnych grupach. Dług techniczny pokrywa tylko około 13% rzeczywistych kosztów jakości i pomija projekty anulowane, które nie zostały zrealizowane. Linie kodu ignorują wymagania i wady projektowe, a także penalizują języki wysokiego poziomu. Koszt jednej usterki obniża jakość i zapewnia najniższe wyniki w przypadku najbardziej wadliwego oprogramowania. Punkty funkcyjne normalizacji w połączeniu z wydajnością usuwania defektów są najlepsze dla wskaźników jakości. Godziny pracy na punkt funkcyjny i funkcję punktu na pracownika na miesiąc to najlepszy miernik wydajności. Dane wzorcowe wyrażone za pomocą punktów funkcji IFPUG przewyższają liczbę innych wariacji punktów funkcyjnych o około 10 do 1. Ta sama aplikacja 1000 punktów funkcyjnych wyglądałaby następująco:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 40 000 instrukcji kodu logicznego
•  Język programowania: C # i MySQL
•  Procent ponownego wykorzystania: od 0% do 40%
•  Metodologia: Agile ze Scrumem
•  Wydajność: 9,50 punktów funkcyjnych na miesiąc pracownika
•  Potencjały defektów: 3,50 defektu na punkt funkcyjny
• Skuteczność usuwania defektów (DRE): 92%
•  Dostarczone wady: 0,28 usterki na punkt funkcyjny
•  Stosunek personelu programistycznego do utrzymania:
•  Rozwój: 45%
•  Konserwacja: 55%

Poniżej przedstawiono podstawowe dane za rok 2005:
•  Średni poziom języka: 8.00
•  Liczba języków programowania: 2500
•  Instrukcje logiczne na punkt funkcyjny: 40
•  Średnia wielkość aplikacji: 550 punktów funkcyjnych
•  Średnia wielkość aplikacji: 22 000 instrukcji kodu logicznego

Podsumowanie

Pod koniec tego dziesięciolecia sieci społecznościowe, takie jak Facebook i Twitter, stały się nowym sposobem interakcji społecznej, z milionami subskrybentów, a czasem poświęconymi cyberkomunikacji przez wiele godzin dziennie; często więcej czasu spędzano online niż na komunikacji twarzą w twarz. Aplikacje open source, takie jak Firefox i Linux, zaczęły mieć znaczenie korporacyjne i zostały dodane do tysięcy korporacyjnych portfeli. Pęknięcie bańki internetowej w 2000 r. I wielka recesja w 2008 r. Zmieniły demografię społeczności programistów i doprowadziły do szeregu spadków wśród dużych firm i niepowodzeń wśród małych firm. Doprowadziły również do wzrostu outsourcingu offshore do krajów o niższych wskaźnikach siły roboczej, takich jak Chiny, Indie i Filipiny. Jednak stopy inflacji na morzu są wyższe niż stopy inflacji w USA. Chmura obliczeniowa i duże zbiory danych zaczęły pojawiać się w artykułach i do pewnego stopnia były w praktyce. Jednak oba będą miały większe zastosowanie w następnej dekadzie. Metody zwinne nadal rosły w użyciu. Jednak pomimo Agile, awarie i anulowanie głównych aplikacji powyżej 10 000 punktów funkcyjnych pozostały kłopotliwe. Te duże systemy miały tendencję do korzystania z innych metod, takich jak wodospad, ze względu na fakt, że Agile nie skaluje się tak dobrze, jak mógłby. Metody takie jak Rational Unified Process i Team Software Process okazały się skuteczne w przypadku dużych systemów, ale były nieco kłopotliwe w przypadku małych projektów w porównaniu z metodami Agile.


Powrót

2010-2019: chmury, tłumy, blogi, duże zbiory danych i analizy predykcyjne



2010-2019: chmury, tłumy, blogi, duże zbiory danych i analizy predykcyjne W pierwszych latach tej dekady nastąpił szybki rozwój firm świadczących usługi w chmurze (aplikacje i dane przechowywane zdalnie w sieci, ale dostępne do użytku lokalnego). Niezwykły wzrost odnotowano także w nowych firmach, które chcą wykorzystać tłumy prawdopodobnie tysięcy ludzi, aby skupić się na wspólnych celach. Sieć WWW jest niezbędną technologią umożliwiającą działania tłumu. Ciekawym zjawiskiem społecznym, które nabiera tempa w bieżącej dekadzie, jest powszechne korzystanie z blogów lub zbiorów osobistych artykułów internetowych publikowanych przez osoby, które mają do przekazania fakty lub opinie. Niektóre blogi stały się sławne, są dystrybuowane i mają miliony czytelników. Inne są bezpieczne i prawdopodobnie czytane tylko przez osobistych przyjaciół i członków rodziny autorów. Pojawienie się dużych zbiorów danych pochodzi z setek różnych baz danych, które są analizowane razem. Naturalnymi partnerami big data są analizy predykcyjne i inteligentni agenci. Analizy predykcyjne wykorzystują duże zbiory danych do badania dużych i skomplikowanych problemów. Inteligentni agenci to rozszerzenia wyszukiwarek, które zawierają sztuczną inteligencję do analizowania wyników i generowania przydatnych informacji na podstawie dziesiątek lub setek stron internetowych. Rozwój Agile szybko się rozwija. Chociaż zwinność jest popularna, wyraźnie brakuje danych ilościowych, które pokazują rzeczywisty postęp w porównaniu z innymi wiodącymi metodami, takimi jak proces oprogramowania zespołowego (TSP) i racjonalny zunifikowany proces (RUP). Wszystkie trzy wydają się lepsze od starszych metod wodospadu i "kowbojów".

Przewidując przyszłość

Przewidywanie przyszłości jest zawsze trudne i zwykle zawodne. Istnieją jednak oczywiste trendy oparte na aktualnym poziomie technologii oprogramowania i wynikach ostatnich dziesięcioleci. Rezultaty "wojen patentowych", które przetaczają się przez świat komputerów, telefonów komórkowych i oprogramowania, są nieznane. Amazon i Samsung obecnie pozywają siebie nawzajem, a w rzeczywistości prawie każda duża firma zaawansowana technologicznie ma jeden lub więcej pozwów patentowych w grze. Istnieje również nowa podbranża "patentowych trolli", która nabywa patenty nie tyle ze względu na ich wartość intelektualną, co raczej do pozywania lub grożenia pozwaniem dziesiątek firm za naruszenie patentów. Cały temat patentów na oprogramowanie i zdolności patentowej jest płynny, a ostateczne decyzje Sądu Najwyższego mogą zmienić patenty na oprogramowanie w nieznany sposób. Inną krytyczną prognozą jest to, że zagrożenia bezpieczeństwa oprogramowania i wspierana przez rząd "cyberwojna" będą nadal rosły pod względem częstotliwości i wagi zagrożeń. Najbardziej prawdopodobnymi celami są instytucje finansowe, tożsamość osobista i sieci elektroenergetyczne. Prawdopodobnie wzrosną również ataki typu "odmowa usługi". Transport jest również zagrożony, ponieważ hakowanie systemów kontroli ruchu lotniczego prawdopodobnie nie jest tak trudne, jak powinno. Ciekawe nowe urządzenia sprzętowe działające za pomocą oprogramowania prowadzą do ekscytujących przyszłych możliwości. Jednym z najbardziej interesujących z tych nowych urządzeń jest druk 3D, który umożliwia konsumentom tworzenie przedmiotów z tworzyw sztucznych; komputery do noszenia, takie jak Google Glass; oraz niektóre potencjalne nowe urządzenia medyczne, takie jak implanty oczne, które mogłyby przywrócić wzrok niewidomym, podobnie jak implanty ślimakowe, które przywracają słuch osobom niesłyszącym. Spośród tych nowych wynalazków technologia druku 3D jest już stosowana zarówno do celów przemysłowych, jak i medycznych. Na przykład drukowanie 3D można teraz wykorzystać do stworzenia idealnej repliki zęba, który dentysta może wszczepić w celu zastąpienia brakującego zęba. Istnieją również komputery do noszenia w postaci okularów, ale nie są one jeszcze dostępne na rynku komercyjnym. Implanty oka nadal znajdują się w fazie eksperymentalnej.

Status zawodowy w inżynierii oprogramowania

Nawet po ponad 60 latach inżynieria oprogramowania nie jest jeszcze zawodem certyfikowanym z licencjami, specjalizacjami w zarządzie i monitorowaniem błędów w sztuce, jak to ma miejsce w przypadku dziedzin medycyny i prawa. Chociaż wprowadzono pewne ulepszenia w językach programowania, wymaganiach, projektowaniu i metodach programowania, nadal istnieje potrzeba znacznie większego postępu. Wiele rządów stanowych rozpoczyna współpracę i oferuje egzaminy licencyjne na inżynierię oprogramowania. Dopóki aplikacje oprogramowania są oparte na niestandardowych projektach i aplikacjach do ręcznego kodowania linia po linii, oprogramowanie nie może być prawdziwą dziedziną inżynierii. Co gorsza, pozostanie jednym z najbardziej pracochłonnych zawodów w historii ludzkości. Obecnie oprogramowanie jest budowane mniej więcej jak samochód wyścigowy Formuły 1 lub jacht America's Cup. Wykwalifikowani projektanci tworzą niestandardowe projekty, które są następnie ręcznie konstruowane przez wykwalifikowanych programistów. Weź pod uwagę nakład pracy samochodu Formuły 1 w porównaniu z samochodem takim jak Ford lub Fexus, który jest budowany na linii montażowej przy użyciu standardowych komponentów i zrobotyzowanych urządzeń. Zwykły samochód zbudowany na linii montażowej ze standardowych części wymaga około 30 godzin bezpośredniej pracy. Ręcznie zbudowany samochód Formuły 1, który może wymagać precyzyjnej obróbki i części wykonanych na zamówienie, może zająć 3000 godzin bezpośredniej pracy. Zastosowanie 10 000 instrukcji kodu logicznego, które są kodowane ręcznie z szybkością około dziesięciu wierszy kodu na godzinę, zajmie około 1000 godzin. Z kolei tę samą aplikację zbudowaną z zestawu 100 standardowych i certyfikowanych modułów wielokrotnego użytku można było złożyć w ciągu około ośmiu godzin. Obecnie normalna mieszanka aplikacji w zakresie wielkości 500 punktów funkcyjnych opracowanych przy użyciu języków zwinnych i języków średniego poziomu, takich jak Java lub C #, miałaby średni łączny wskaźnik produktywności wynoszący około 12 punktów funkcyjnych na pracownika miesięcznie. Obejmuje to dostawę, zarządzanie projektami i specjalistów, takich jak pisarze techniczni i zapewnienie jakości. Przy użyciu tego samego rodzaju próbki 500 punktów funkcyjnych z tą samą mieszanką umiejętności, ale przy użyciu 85% certyfikowanych materiałów wielokrotnego użytku, przewidywany wskaźnik produktywności byłby bliższy 110 punktom funkcyjnym na miesiąc pracownika lub o 917% wyższy przy zastosowaniu podejścia zwinnego. Niestandardowe projekty i ręczne kodowanie nie mogą przynieść korzyści ekonomicznych, które są możliwe dzięki standardowym projektom wielokrotnego użytku i certyfikowanemu kodowi wielokrotnego użytku. Jakość i dług techniczny również zostałyby poprawione dzięki zastosowaniu wzorów i certyfikowanych komponentów wielokrotnego użytku. Obecnie projekty zwinne zawierają średnio około 4,0 błędów na punkt funkcji w wymaganiach, projekcie, kodowaniu podręczników użytkownika i błędnych poprawkach. Około 93% z nich jest usuwanych przed wydaniem, więc współczynnik dostarczonych defektów wynosi około 0,28 na punkt funkcyjny. Dług techniczny lub naprawa dostarczonych usterek na późniejszym etapie kosztowałby około 150 USD na punkt funkcyjny rozłożony na pierwsze 18 miesięcy użytkowania. Z kolei aplikacja zbudowana ze sprawdzonych wzorców projektowych i certyfikowanych komponentów miałaby potencjał defektu wynoszący tylko około 1,0 defektu na punkt funkcyjny (głównie w funkcjach niestandardowych). Skuteczność usuwania defektów wynosiłaby około 99,4%. Prowadzi to do dostarczonej objętości defektów wynoszącej zaledwie 0,006 defektów na punkt funkcjonalny. Dług techniczny wynosiłby około 12,5 dolara za jedną funkcję przez 18 miesięcy, czyli tylko około 8,33% odnotowanego długu technicznego z przykładem Agile.

Uwaga: projekty kaskadowe podobne do omówionych powyżej przykładów 500 punktów funkcyjnych miałyby wskaźniki produktywności wynoszące około 7,5 punktu funkcyjnego na miesiąc, ich potencjał defektów wynosiłby 5,0 błędów na punkt funkcyjny, 85% wydajności usuwania defektów i 0,75 dostarczonych defektów na punkt funkcyjny .Dług techniczny wyniósłby około 350 USD na punkt funkcjonalny, rozłożony na 18 miesięcy. To ponad dwukrotnie więcej niż wynik Agile i około 23 razy więcej niż dług techniczny w przypadku wzorców projektowych i certyfikowanych komponentów wielokrotnego użytku.

Oczywiście faktyczne tworzenie materiałów wielokrotnego użytku jest powolne i dość kosztowne. Średnia produktywność dla początkowej konstrukcji każdego komponentu, zakładana na 25 punktów funkcyjnych, wyniosłaby tylko około 4,5 punktu funkcyjnego na pracownika miesięcznie. Jednak wraz ze wzrostem wykorzystania certyfikowanych komponentów rośnie ich wartość ekonomiczna. Nie trzeba dodawać, że komponenty wielokrotnego użytku podlegałyby rygorystycznym kontrolom, wstępnej analizie statycznej oraz pełnemu zestawowi formalnych etapów testów przeprowadzanych przez certyfikowany personel testowy. Łączna skuteczność usuwania defektów elementów wielokrotnego użytku wynosiłaby około 99,7%. Podstawowym pytaniem dla społeczności inżynierów oprogramowania, które, miejmy nadzieję, zostanie rozwiązane w tej dekadzie, jest to, jakie technologie umożliwiają przeniesienie oprogramowania z pracochłonnych projektów niestandardowych i ręcznego kodowania do projektów wielokrotnego użytku i certyfikowanych modułów wielokrotnego użytku? Różne metodologie, takie jak Agile, odważnie twierdzą, że powodują znaczną poprawę produktywności i jakości. Ale dopóki aplikacje wymagają niestandardowego projektu i ręcznego kodowania, będą z natury nieefektywne bez względu na zastosowaną metodologię. Poniżej przedstawiono niektóre technologie wspomagające potrzebne do przejścia z trybu ręcznego budowy i ręcznego kodowana oprogramowania do automatycznego montażu oprogramowania:

•  Pełna, naukowa taksonomia wspólnych cech, które występują w wielu aplikacjach
•  Skuteczne metody certyfikacji komponentów wielokrotnego użytku, które gwarantują z ponad 99% pewnością, że są one wolne od jawnych defektów i możliwych do wykorzystania luk w zabezpieczeniach
•  Metody architektury i projektowania oprogramowania oparte na wzorcach pochodzących z udanych istniejących aplikacji (tj. Eliminowanie niestandardowych projektów i stosowanie sprawdzonych wzorców)
•  Standardowe metody interfejsu do wysyłania wiadomości i danych między modułami
•  Bezpieczne repozytoria certyfikowanych materiałów, które można wydobyć i ponownie wykorzystać za opłatą lub na podstawie licencji open source
•  Materiały pomocnicze wielokrotnego użytku, takie jak zestawy testów, podręczniki użytkownika, ekrany POMOCY, dane o kosztach i historie wszelkich raportów o błędach w modułach wielokrotnego użytku

Bardzo niewiele aplikacji stworzonych dzisiaj jest naprawdę "nowych" w tym sensie, że nikt nigdy wcześniej nie budował podobnych aplikacji. Zdecydowana większość nowoczesnego oprogramowania obejmuje tworzenie nowszych replik starszego oprogramowania lub dodawanie nowych funkcji do starszych aplikacji. Prawdopodobnie mniej niż 10% współczesnych aplikacji oprogramowania w skali globalnej jest naprawdę nowych w tym sensie, że są tak nowatorskie, że nigdy wcześniej nie zbudowano podobnych aplikacji. Oznacza to, że wzorce pochodzące z najbardziej udanych aplikacji historycznych można hermetyzować i wykorzystywać do projektowania i budowania podobnych nowych aplikacji. Zamiast obecnego procesu przeprowadzania długich wywiadów z klientami w celu ustalenia wymagań, a następnie tworzenia niestandardowej architektury i projektu, a następnie ręcznego kodowania, możliwa przyszłość inżynierii oprogramowania może wyglądać następująco:

1. Inżynierowie spotkają się z klientem i przejrzą biblioteki standardowych wzorców projektowych w oparciu o potrzeby klienta. Wzorce projektowe będą pochodzić z pomyślnie działających aplikacji, które już działają. Projekty zostaną posortowane według branży, klasy aplikacji, typu aplikacji i innych istotnych czynników. Na przykład prawdopodobnie będzie około 500 historycznych "wzorców" zastosowań dla każdej z głównych gałęzi przemysłu, takich jak bankowość, opieka zdrowotna, ubezpieczenia, telekomunikacja, farmacja, rządy stanowe, samorządy miejskie i prawdopodobnie ponad 150 branż ogółem. Zebranie tych wzorców może wymagać analizy kryminalistycznej próbek starszych aplikacji.
2. Po wybraniu podstawowego projektu inżynierowie opracowują wszelkie specjalne funkcje, które mogą wymagać ręcznego dostosowania lub nowego rozwoju. Ale prawdopodobnie będą to rzadkie i jeśli wystąpią, będzie to mniej niż 5% całkowitej aplikacji.
3. Ponieważ znane są wzorce kosztów i harmonogramów dla aplikacji używanych jako wzorce, inżynierowie mogą przewidywać koszty i czas dostawy nowej aplikacji przy użyciu prostego procesu. Byłoby to bardzo podobne do zakupu nowego samochodu z opcjonalnymi funkcjami. Dla każdej funkcji istnieją standardowe cenniki.
4. Ponieważ projektom towarzyszą listy materiałów, następnym krokiem będzie jedynie wybranie standardowych komponentów wielokrotnego użytku, które będą potrzebne do wypełnienia wniosku. W rzeczywistości ten krok mógłby być w pełni zautomatyzowany: każdy projekt będzie miał pełną listę części potrzebnych standardowych modułów.
5. Zakładając, że aplikacja będzie w pełni zbudowana ze standardowych elementów, roboty lub inna forma automatyzacji przeprowadzi faktyczny rozwój aplikacji lub połączy moduły. Mogą być potrzebni ludzcy programiści do tworzenia oryginalnych modułów po raz pierwszy, ale po utworzeniu czegoś wielokrotnego użytku
6. Oczywiście po złożeniu konieczne będzie przetestowanie wypełnionego wniosku. Ale ponieważ przypadki testowe i zestawy testów są również wielokrotnego użytku i znajdują się na liście części, testowanie również może być przeprowadzane przez roboty lub zautomatyzowane środki. Próbki danych, które można ponownie wykorzystać, można wykorzystać do przeprowadzenia kompleksowego testowania aplikacji.

Inżynierowie oprogramowania będą nadal potrzebni do tworzenia naprawdę wyjątkowych aplikacji i projektowania modułów wielokrotnego użytku. Jest to taka sama sytuacja, jak w świecie projektowania obwodów przy tworzeniu nowych chipów komputerowych i nowych układów scalonych. Każdy moduł oprogramowania wielokrotnego użytku jest podobny do małego układu scalonego. Może również zaistnieć potrzeba pomocy inżynierów oprogramowania i specjalistów baz danych w migracji starszych danych do nowej aplikacji. Migracja starszych danych jest złożonym i trudnym zadaniem, które obecnie może zająć wiele miesięcy w przypadku dużych aplikacji bazodanowych. Podstawowym celem inżynierii oprogramowania powinno być zminimalizowanie kosztownych i podatnych na błędy zadań ludzkich i zastąpienie ich zadaniami automatycznymi, które są możliwe dzięki kombinacji standardowych wzorców i certyfikowanych komponentów wielokrotnego użytku. Dopóki oprogramowanie jest projektowane i kodowane ręcznie na zamówienie, zawsze będzie powolne, kosztowne, ryzykowne i podatne na poważne luki w zabezpieczeniach. Niestandardowe projekty i ręczne kodowanie są z natury podatne na błędy, a żadna znana metodologia nie może zrobić nic innego niż wprowadzić stosunkowo niewielkie ulepszenia. Aby wprowadzić naprawdę duże ulepszenia, oprogramowanie musi zacząć korzystać ze sprawdzonych architektur i wzorców projektowych, certyfikowanego kodu wielokrotnego użytku i certyfikowanych materiałów pomocniczych, takich jak przypadki testowe wielokrotnego użytku i dokumenty użytkownika wielokrotnego użytku. Potrzebne są również próbki danych wielokrotnego użytku. Społeczność inżynierów oprogramowania powinna również przejść w kierunku profesjonalnych licencji i certyfikacji zarządu. Chociaż teoretycznie możliwe jest osiągnięcie tych celów do końca bieżącej dekady, bardziej prawdopodobne jest, że nie pojawią się one przez następne 25 lat. Krótkoterminowe cele, które mogą zostać osiągnięte do końca dekady, są skromniejsze i mogą skupić się na poprawie wielu obszarów, które są obecnie słabo realizowane, takich jak kontrola jakości i kontrola zmian.

Możliwe ulepszenia inżynierii oprogramowania w 2010 roku

Produktywność i jakość oprogramowania będą ewoluować powoli, czasem na wzór pijaka, z postępem i regresją mniej więcej w tym samym czasie. Aby wprowadzić naprawdę duże ulepszenia, należy rozwiązać szereg chronicznych problemów inżynierii oprogramowania:

•  Pomiary produktywności i jakości są źle wykonywane i nawet dzisiaj są zwykle niedokładne. Linie kodu i koszt wady naruszają zasady standardowej ekonomii. Wskaźniki punktów połączenia są najdokładniejsze w badaniach ekonomicznych, ale były tak powolne i kosztowne, że nie osiągnęły więcej niż około 10% penetracji projektów oprogramowania. Miejmy nadzieję, że pojawienie się szybkich i niedrogich punktów funkcyjnych, takich jak te w programie Software Risk Master (SRM), sprawi, że metryka ta stanie się standardowym ekonomicznym narzędziem do badań wydajności oprogramowania i jakości.
•  Repozytoria certyfikowanych komponentów wielokrotnego użytku muszą wejść do głównego nurtu. Niestandardowy projekt i niestandardowy kod, nawet w przypadku Agile, są nieefektywne. Tylko konstrukcja z certyfikowanych komponentów wielokrotnego użytku może jednocześnie osiągnąć wysoki poziom jakości i produktywności. Udane ponowne wykorzystanie wymaga kilku technologii wspomagających, z których jedna jest pełną taksonomią standardowych funkcji oprogramowania. Możliwość ponownego wykorzystania oprogramowania pozostaje niższa niż powinna. Certyfikacja materiałów wielokrotnego użytku jest prawie całkowicie nieobecna, a używanie niecertyfikowanych materiałów może być niebezpieczne.
•  Kontrola jakości pozostaje dziś tylko częściowo kompetentna, a inspekcje i analizy statyczne nie są wykorzystywane tak często, jak powinny. Miary jakości oprogramowania są zawodowym zawstydzeniem. Trudno sobie wyobrazić fizyka lub chemika publikującego dane tak niestabilne, jak literatura dotycząca oprogramowania. Branża polegała na testowaniu, które ma dość niską skuteczność usuwania defektów. Wysoka jakość jest wynikiem synergicznego połączenia zapobiegania defektom, usuwania defektów przed testem, takich jak inspekcje i analizy statyczne, oraz formalnego testowania z wykorzystaniem przypadków testowych wyprowadzonych matematycznie.
•  Kontrola zmian nie jest dobrze przeprowadzona. Aplikacje rosną od 1% do 4% na miesiąc kalendarzowy podczas opracowywania i ponad 7% rocznie po wydaniu. Aplikacje zwinne rosną o ponad 10% miesięcznie. Wiele projektów nie jest przygotowanych na tak szybki rozwój. Wczesne przewidywania pełzania wymagań w połączeniu z formalnymi metodami kontroli zmian są potrzebne we wszystkich głównych projektach oprogramowania.
•  Ocena projektu nie jest dobrze wykonana i jest częściowo niekompetentna w przypadku wielu projektów, jak zauważono podczas składania zeznań i odkrywania projektów w postępowaniu sądowym. Ponad 95% projektów oprogramowania zawierających mniej niż 1000 punktów funkcyjnych nadal korzysta z ręcznych metod szacowania. Nawet powyżej 10 000 punktów funkcyjnych automatyczne szacowanie jest stosowane tylko w około 25% projektów. Ręczne oszacowania stają się progresywnie optymistyczne powyżej 250 punktów funkcyjnych i niebezpiecznie optymistyczne powyżej 1000 punktów funkcyjnych. Narzędzia do oceny parametrycznej i analizy predykcyjne zapewniają dokładność do ponad 100 000 punktów funkcyjnych.
•  Bezpieczeństwo oprogramowania pozostaje poniżej bezpiecznego poziomu. Cyberataki, kradzieże tożsamości, wirusy, robaki, botnety, hakowanie i oprogramowanie szpiegowskie to obecnie główne problemy biznesowe i osobiste. Wiele firm i agencji rządowych pracuje nad poprawą bezpieczeństwa, ale mogą być konieczne fundamentalne zmiany w architekturze komputerów i oprogramowania.
•  Inżynieria oprogramowania musi stać się prawdziwym zawodem z licencjonowanymi i certyfikowanymi specjalistami. W takim przypadku oprogramowanie powinno podążać tą samą ścieżką, co starsze zawody, takie jak medycyna i prawo, w których wymagane są licencje zawodowe, zanim będzie można wykonywać zawód.
•  W 2011 r. Międzynarodowa Grupa Użytkowników Punktów Funkcyjnych (IFPUG) wydała wytyczne dotyczące nowego rodzaju miernika dla wymagań niefunkcjonalnych. Ta metryka nazywa się SNAP i w trakcie pisania tej książki zaczynają napływać nowe dane, ale integracja SNAP z normalną analizą punktów funkcyjnych nie jest zakończona.
•  Wczesne określenie rozmiaru i oszacowanie przed określeniem wymagań jest obowiązkowe, aby dać czas na wprowadzenie zmian technologicznych przed pójściem w złym kierunku. Szybkie przewidywania punktów funkcyjnych są również obowiązkowe i na szczęście oba są obecnie dostępne.
•  W miarę starzenia się branży oprogramowania konserwacja starszych aplikacji jest obecnie dominującą pracą inżynierów oprogramowania. W wielu firmach ponad 65% całkowitego budżetu przeznacza się na ulepszanie starszych aplikacji i utrzymywanie ich w działaniu. Prace konserwacyjne są bardziej złożone niż nowe prace rozwojowe i wymagają znacznie więcej badań niż otrzymały. Profesjonalne książki o konserwacji mają mniej niż jedną dziesiątą częstotliwości książek o nowych opracowaniach. W dzisiejszym świecie istnieje potrzeba znacznie lepszych metod odnawiania i naprawiania starszych aplikacji, a także znacznie lepszych metod przenoszenia starzejących się danych na nowe platformy aplikacji.

Ta dekada jest świadkiem przyspieszenia stosowania Agile w Scrumie, a także ekstremalnego programowania. Jednak RUP i TSP są szerzej stosowane w głównych systemach o rozmiarze powyżej 10 000 punktów funkcyjnych. Ciekawe trendy społeczne zaczęły pojawiać się w ostatniej dekadzie i szybko się rozwijają w pierwszych latach tej dekady. Teraz, gdy internet i sieć WWW docierają do milionów ludzi, możliwe jest zgromadzenie "tłumów" skupionych na wspólnych celach. Sukces Wikipedii i oprogramowania typu open source pokazuje, że grupy niezależnych pracowników mogą czasami osiągnąć lepsze niż oczekiwane wyniki. Te same pomysły zaczynają teraz zajmować się innymi tematami społecznymi. Korzystanie z osobistych pamiętników lub dzienników iveb pojawiło się wkrótce po uruchomieniu Internetu i sieci WWW. Wczesne serwisy Usenetu miały pewne tematy związane z osobistymi opiniami. Jednak w pierwszej dekadzie wieku wyjątkowo udostępniono narzędzia ułatwiające tworzenie tych dzienników. Termin "dziennik sieciowy" został skrócony do terminu blog, który weszło teraz do języka potocznego. Istnieją miliony blogów, a niektóre z nich stały się na tyle popularne, że mają duże grono odbiorców. Internet i różne narzędzia do blogowania to technologie wspomagające, które pozwalają zwykłym użytkownikom komputerów na globalne dzielenie się opiniami z bardzo niewielkimi technicznymi trudnościami. Coraz więcej metodologii oprogramowania hybrydowego wykorzystuje najlepsze cechy różnych metod, takich jak Agile, TSP i RUP. Hybrydy często mają wyniki, które wykazują synergię lub połączenie jest nieco lepsze niż oryginały. W innych przyszłych trendach prawdopodobnie nastąpi wzrost wirtualizacji oraz wzrost liczby aplikacji i usług związanych z chmurą. Organizacja non-profit o nazwie Metody i teoria inżynierii oprogramowania (SEMAT) podejmuje próbę formalnego przeprojektowania inżynierii oprogramowania. Pod koniec dekady niektóre z ich nowych koncepcji powinny zacząć rozpowszechniać się w szkołach inżynierii oprogramowania

Firmy powstałe na początku 2010 roku

Podobnie jak we wcześniejszych dekadach, wiele małych firm zajmujących się grami, które pojawiają się stale, nie jest uwzględnionych.

Advania 2011
AngelPad 2010
AppAddictive 2011
Applied Communication Sciences 2011
Applogic 2010
Audimated 2010
Authr 2011
Companies Year
AVK 2012
Business 2 Community 2010
CharityKick 2012
Cloud Bees 2010
CloudVelocity 2010
Company 85 2010
Continuity 2011
CrowdCube 2011
Digital Clarity Group 2012
Euclideon 2010
Evry 2010
Fiverr 2010
Flattr 2010
Geekli.St 2011
GoFundMe 2010
Guide 2011
HiringThing 2012
Hortonworks 2011
ITT Excellis 2011
Mindshapes 2010
Namcook Analytics EEC 2012
Nest Labs 2010
NetsGroup 2010
Open Data Institute 2012
Peer Index 2010
Pneuron 2011
Raise 5 2012
Skill Bet 2012
Sky Word 2010
Streamworks International 2010
Thumb 2010
Companies Year
UBI Care 2011
Unified Inbox 2012
Vfiles 2012
Virtual Sharp Software 2010
Vungle 2012
Wahooly 2011
Wikistrat 2010
Yesware 2010

Omawiam teraz firmy, które albo mają ciekawe biznes plany, albo wprowadzają nowe technologie i są pionierami w nowych niszach biznesowych.

AngelPad

Jak pokazano, przemysł komputerowy i oprogramowania miał tysiące start-upów. Niektóre z nich szybko zawodzą, ale inne, takie jak Amazon, Google i YouTube, przekształcają się w duże i odnoszące sukcesy korporacje. Prawie wszystkie z nich potrzebowały jakiegoś rodzaju kapitału początkowego, aby zacząć, kiedy byli zbyt mali, aby przyciągnąć profesjonalne grupy kapitału wysokiego ryzyka. AngelPad koncentruje się na pomocy firmom rozpoczynającym działalność, które są zbyt małe i zbyt nowe, aby przyciągać regularne fundusze venture, ale które dają nadzieję na wzrost i przyszły sukces. AngelPad został założony w 2010 roku w San Francisco w Kalifornii przez Thomasa Korte wraz z sześcioma byłymi pracownikami Google. Pozostałymi założycielami byli Richard Chen, David Scacco, Vibuh Mittal, Gokul Rajaram, Deep Nishar i Keval Dasai. AngelPad nie tylko wypisuje startupowi czek i odchodzi. Kandydujące firmy muszą przedłożyć pisemne biznesplany, które są weryfikowane. Jeśli plany zostaną zaakceptowane do finansowania, istnieje kilka firm zgrupowanych razem w klasę. W pierwszej klasie wybieranych jest dziesięć start-upów. Klasy mogą mieć nawet 25 start-upów. Firmy z tej samej klasy spotykają się i współpracują, korzystając z powierzchni biurowej zapewnianej przez AngelPad. W razie potrzeby są również mentorowani przez funkcjonariuszy AngelPad. Klasa pracuje razem przez okres dziesięciu tygodni. Chodzi o to, aby dzielić się pomysłami i zmieniać startupy z samodzielnej pracy w garażach na dzielenie się pomysłami i koncepcjami z innymi przedsiębiorcami, a także z doświadczonymi pracownikami technologicznymi z firm odnoszących sukcesy. Każdy ze start-upów AngelPad otrzyma do około 100 000 USD. AngelPad to nie jedyna firma, która pomaga małym startupom. Kolejna firma Y Combinator ma podobny biznesplan. Jest jeszcze kilka innych. Cambridge w stanie Massachusetts jest wylęgarnią nowych firm technologicznych i ma ciekawy inkubator przedsiębiorczości. Ciekawie będzie zobaczyć, ile startupów Angel-Pad odniesie sukces, a później osiągnie sukces i prawdopodobnie będzie miało debiuty.

Authr

Authr to wysoce wyspecjalizowana, ale interesująca niszowa firma skierowana do początkujących autorów. Jest także pionierem w dziedzinie finansowania społecznościowego, czyli pozyskiwania wielu niewielkich wkładów finansowych, które łącznie mogą być znaczące. Firma ta została założona w Los Angeles w 2011 roku przez autora i przedsiębiorcę Erica Bownmana. Authr.com to witryna internetowa, która umożliwia autorom prezentowanie pomysłów na książki, zanim staną się one bardzo zaawansowane. Ale strona działa poza przedstawieniem pomysłów. Autorzy mogą również prosić innych uczestników o darowizny, aby pomóc w sfinansowaniu ich pisania. To nowatorska koncepcja i jej powodzenie jest niepewne, ale pomysł jest interesujący. Crowdfunding to coraz większy temat zainteresowania w tej dekadzie, aw tym rozdziale przytoczono kilka innych podobnych firm. W przypadku Authr nie ma żadnych opłat dla samych autorów. Autorzy, którzy się zarejestrują, otrzymają narzędzie do tworzenia propozycji książek, narzędzie do projektowania okładek do e-booków oraz książek, stronę projektu w serwisie WWW, na której mogą umieszczać tekst i informacje. Fundusze na Authr pochodzą z reklam. Authr ma nowatorski biznesplan i będzie interesujące zobaczyć, czy rośnie i rozszerza się, pozostaje mały, czy zanika. W każdym razie finansowanie społecznościowe jest nowym tematem, który jest możliwy tylko dzięki internetowi i sieci WWW.

CloudVelocity

W tej dekadzie rozwija się wiele firm świadczących usługi w chmurze i wspierających je. Podstawową ideą przetwarzania w chmurze jest to, że zdalne serwery, przechowywanie plików i aplikacje mogą świadczyć usługi użytkownikom końcowym bez zapełniania ich dysków lub konieczności instalowania pakietów oprogramowania. W przypadku niektórych firm, takich jak Apple z iCloud, dane mogą być automatycznie synchronizowane na wielu urządzeniach, w tym iPhone'ach, iPadach i komputerach Apple. W ten sposób na każdym urządzeniu pojawia się nowy dodatek do książki adresowej. Innym przykładem usług w chmurze są aplikacje biurowe Google, które zapewniają przetwarzanie tekstu i arkusze kalkulacyjne z chmury Google. Oczywiście korzystanie z chmury zależy od dość szybkich połączeń o dużej przepustowości. CloudVelocity zostało założone w grudniu 2010 roku w Santa Clara w Kalifornii przez Rajeeva Chawla, Ramana Chawla, Amanda Iyengara i Panagiotisa Tsirigotasa. Pierwotna nazwa brzmiała Denali Systems, więc jest to kolejny start-up oprogramowania, który przeszedł zmianę nazwy. Produkty firmy CloudVelocity mają umożliwiać aplikacjom Windows i Linux działanie w chmurach publicznych z niewielką lub żadną zmianą. Produkty są nadal w fazie rozwoju i pojawią się później w 2013 roku. CloudVelocity to prywatna firma, która otrzymała już ponad 5 miliardów dolarów w funduszach venture. Dyrektorzy CloudVelocity pracowali w innych firmach technologicznych z Doliny Krzemowej, w tym w Sun.

CrowdCube

CrowdCube zostało założone w 2011 roku w Exeter w Wielkiej Brytanii przez Darrena Westlake'a i Luke'a Langa. Firma jest pionierem nowego modelu biznesowego finansowania społecznościowego. Zamiast jednego lub dwóch aniołów biznesu lub grup venture capital, finansowanie społecznościowe otwiera inwestycje dla dziesiątek, a nawet tysięcy osób, których inwestycje są zwykle dość małe. Ta koncepcja jest nowa, ale niepokoi konwencjonalnych bankierów. Według raportu Banku Anglii, crowdsourcing, jeśli się powiedzie, może sprawić, że pożyczki bankowe staną się przestarzałe. Aby finansowanie społecznościowe było skuteczne, a nawet legalne, konieczne jest uzyskanie zgody różnych agencji regulacyjnych. Jednym z powodów, dla których przytoczono tutaj CrowdCube, jest fakt, że uzyskał on zgodę organów regulacyjnych od brytyjskiego Urzędu ds. Usług Finansowych. CrowdCube jest pierwszą brytyjską organizacją crowdfundingową, która otrzymała ten certyfikat. Zgoda ta została wydana całkiem niedawno, ponieważ otrzymano ją w lutym 2013 r. Dlatego za wcześnie jest wiedzieć, jak skuteczne będzie to podejście. CrowdCube przyciągnął już ponad 28 000 inwestorów i zainwestował ponad 5 milionów funtów. To duże liczby jak na tak nową koncepcję. Model finansowania społecznościowego działa na zasadzie "wszystko albo nic". Przedsiębiorca określa docelową kwotę kapitału, na przykład 50000 GBP, i przedstawia firmie plan i odpowiednie dane za pośrednictwem strony internetowej CrowdCube. Jeśli biznesplan jest ekscytujący, a ludzie zainwestują (można zainwestować zaledwie 10 funtów), startup otrzyma 50 000 funtów, a może więcej, w postaci funduszy. Jeśli suma inwestycji nie osiągnie celu, przedsiębiorca nie otrzymuje nic, a wszystkie środki są zwracane inwestorom, pomniejszone o 5% opłatę administracyjną. Ten model typu wszystko albo nic jest interesujący społecznie i technicznie, ponieważ nagradza efektywne biznesplany i eliminuje nieefektywne plany. Ma również tę zaletę, że pozwala na dokonywanie inwestycji przy stosunkowo niskim ryzyku. Finansowanie społecznościowe spodoba się inwestorom o marginalnym bogactwie, ale również przyciąga bardzo zamożnych i bardzo doświadczonych inwestorów. Powodem jest to, że ponieważ wiele start-upów szybko upada, mniejsze inwestycje w większą różnorodność firm mogą zoptymalizować szansę na zainwestowanie w przyszłego Google lub Facebooka, który stanie się olbrzymim sukcesem. W miarę kończenia prac nad tą książką finansowanie społecznościowe jest nowością i nie jest jeszcze dostępne we wszystkich krajach. Jednak finansowanie społecznościowe wykorzystuje siłę internetu i sieci do stworzenia zupełnie nowego kanału dla inwestycji, który nie mógłby istnieć 20 lat temu. Jest to z pewnością temat, który zwróci szczególną uwagę prasy, inwestorów i przedsiębiorców technicznych.

Fiverr

Fiverr to kolejna niszowa firma, której istnienie zależy od internetu. Istnieją tysiące, a być może miliony niezależnych grafików, projektantów stron internetowych, ogrodników, rysowników i innych dostawców dzieł sztuki i rękodzieła. Fiverr zapewnia miejsce do reklamowania usług, a także do otrzymywania płatności za małe prace lub zadania, które kosztują zaledwie 5 lub nawet 500 USD. Firma Fiverr została założona w 2010 roku w Nowym Jorku przez Michę Kaufmana i Shai Winingera. Istnieją również biura w Tel Awiwie w Izraelu. Fiverr podaje, że oferowanych jest około 1,3 miliona usług, a wiele z nich jest dostępnych za stałą opłatą w wysokości zaledwie 5 USD. Niektóre usługi dostępne na stronie internetowej Fiverr to w zasadzie hobby. Na przykład ludzie oferują nauczanie rodzinnych przepisów, odnawianie starych fotografii lub tworzenie niestandardowych kreskówek. Inne usługi są bardziej zorientowane na biznes, takie jak pisanie lub edycja dokumentów. Zaletą, jaką Fiverr ma zarówno dla dostawców, jak i potencjalnych klientów, jest to, że skupia w jednej dostępnej witrynie internetowej setki przydatnych do sprzedaży umiejętności, z których żadna nie będzie potrzebna więcej niż jednej osobie na 50. Ale jeśli milion lub więcej potencjalnych klientów odwiedzając witrynę internetową, następuje wystarczająca liczba transakcji, aby niektórzy dostawcy otrzymali znaczące fundusze. W rzeczywistości około 15% plików . Dostawcy Fiverr traktują usługę jako kluczowe źródło dochodu, co jest zaskakujące w przypadku tak młodej strony internetowej. Model biznesowy Fiverr przypomina nieco eBay, który przekształcił sprzedaż wirtualnych towarów w dochodowy biznes internetowy. Fiverr ma nadzieję przekształcić małe "koncerty" w dochodowy biznes. Pomysł jest ciekawy. Fiverr znalazł się już w pierwszej dwudziestce stron internetowych pod względem miesięcznych odwiedzin, co jest sporym zamachem. Fiverr to przykład firmy, która wydaje się być użyteczną usługą dla tysięcy niezależnych pracowników rzemieślniczych i technicznych. Nie tylko zapewnia im dostęp do ogromnej liczby odbiorców w sieci, ale także radzi sobie ze złożonością przetwarzania płatności między klientami a dostawcami.

Flattr

To kolejna nowa firma z kolejną ciekawą niszą, która nie mogłaby istnieć bez internetu i sieci. Znajduje się w rozwijającej się branży finansowania społecznościowego i umożliwia subskrybentom przekazywanie funduszy na interesujące strony internetowe. Firma ta została założona w marcu 2010 roku w Malmo w Szwecji przez Petera Sunde i Linusa Olssona. (Peter Sunde był także założycielem Pirate Bay, która korzysta z wyszukiwarki BitTorrent. Podaje się, że BitTorrent stanowi około 35% całego ruchu internetowego.) Firma jest pionierem w nowej domenie mikrodonacji. Są to niewielkie darowizny w wysokości 200 USD lub mniej, które są przekazywane przez Internet z komputerów lub smartfonów, często przy użyciu systemu PayPal lub metody finansowania internetowego. (Co zaskakujące, mikrodonacje stały się tak rozpowszechnione, że około 25% funduszy na kampanię prezydencką w USA w 2012 r. Pochodziło z nich. Były to pierwsze wybory prezydenckie w historii, w których mikrodonacje były na tyle duże, że mogły wpłynąć na wynik). niezbędny. Użytkownicy zakładają konto Flattr i co miesiąc wpłacają stałą kwotę, na przykład kilka euro. Sam Flattr pobiera 10% tych opłat na pokrycie kosztów utrzymania usługi. Po założeniu konta użytkownicy Flattr mogą dokonywać wpisów na różnych stronach internetowych. Nazwa "Flattr" pochodzi od popularnego słowa "schlebiać". Chodzi o to, aby niewielkimi darowiznami zwiększyć słowne zachęty do tworzenia ciekawych i przydatnych stron internetowych. W grudniu 2010 roku tweet twierdził, że Flattr był używany do finansowania słynnej witryny WikiLeaks, która rozpowszechnia ściśle tajne informacje, ku konsternacji rządu i wojskowych. Jest to jednak odnotowywane jako stwierdzenie internetowe i nie jest potwierdzonym faktem. Aby otrzymywać darowizny Flattr, strony internetowe muszą być przygotowane na ich przyjęcie. Niektóre platformy blogowe, takie jak WordPress i Blogger, obsługują Flattr. Dostępny jest również specjalny dodatek do FireFox. Pieniądze są wpłacane i pobierane z kont Flattr za pośrednictwem PayPal lub wielu kart kredytowych i firm finansowych, które obsługują tę metodę, takich jak Bitcoin. Nawiasem mówiąc, podsektor elektronicznych przelewów niewielkich kwot staje się głównym nowym tematem społecznym i finansowym o wielkim znaczeniu w tej dekadzie.

Uwaga: Metoda finansowania małych transakcji Bitcoin została opracowana w 2009 roku i szybko staje się akceptowaną alternatywną walutą dla małych transakcji internetowych. Jest nawet nowy symbol waluty Bitcoin. Bitcoin jest ważny zarówno pod względem technicznym, jak i społecznym, będąc pierwszą nową globalną walutą stworzoną od czasu wprowadzenia euro. Waluta Bitcoin jest technicznie interesująca, ponieważ wykorzystuje kryptografię do ochrony przed kradzieżą bitcoinów.

Za pośrednictwem Flattr można również przekazywać darowizny organizacjom offline i stronom internetowym. Technologią umożliwiającą to jest szybka reakcja lub kody QR. Są to kwadratowe czarno-białe kody kreskowe, które są obecnie powszechnie stosowane na produktach konsumenckich. Kody QR można skanować za pomocą smartfonów i wykorzystywać między innymi do przesyłania darowizn Flattr. Internet tworzy wiele nowych branż, a wśród nich są, jak się wydaje, bardzo ważne nowe nisze zajmujące się elektronicznym transferem niewielkich kwot pieniędzy i finansowaniem społecznościowym zarówno organizacji komercyjnych, jak i charytatywnych.

Geekli.St

Organizacja Geekli.St stała się znaczącym portalem społecznościowym dla inżynierów oprogramowania w 170 krajach. Witryna Geekli.St jest po części witryną z ofertami pracy, po części siecią społecznościową, a po części publikacją o osiągnięciach w zakresie oprogramowania. Firma Geekli.St została założona w San Francisco w Kalifornii w 2011 roku przez Christiana Sandsa i Reubena Katza. Witryna Geekli.St urosła do 10 000 użytkowników w ciągu około pięciu tygodni. Jest to prywatna firma, która otrzymała zewnętrzne finansowanie od aniołów biznesu. Unikalną cechą witryny Geekli.St jest to, że wykorzystuje ona specjalne "karty", których struktura umożliwia inżynierom oprogramowania ilustrowanie i chwalenie się swoimi osiągnięciami. Przykładami osiągnięć mogą być opracowywanie nowych algorytmów, tworzenie nowych rodzajów witryn internetowych lub cokolwiek innego, co jest nowatorskie i interesujące dla społeczności inżynierów oprogramowania. Karty są widoczne w witrynie Geekli.St, a odwiedzający lub użytkownicy mogą komentować je. Geekli.St jest dobrym przykładem tego, jak internet pozwala ludziom o wspólnych zainteresowaniach lub pracującym w tej samej dziedzinie na spotkanie i wymianę pomysłów lub szukanie nowych miejsc pracy. Istnieje ponad 50 000 członków Geekli.St i liczba ta stale rośnie.

GoFundMe

GoFundMe to kolejna nowa organizacja crowdfundingowa, która szybko zmienia charakter filantropii. Firma została założona w San Diego w Kalifornii w maju 2010 roku przez Brada Damphousee'a i Andrew Ballistera; nadal jest to firma prywatna. Pierwotna nazwa brzmiała CreateAFund, ale podobnie jak w przypadku wielu start-upów oprogramowania, nazwa została zmieniona. GoFundMe stał się jednym z największych serwisów finansowania społecznościowego w USA, a także oferuje kilka unikalnych funkcji i usług. GoFundMe wspiera zwykłe organizacje charytatywne i organizacje non-profit, ale umożliwia również zbieranie funduszy na specjalne potrzeby osób prywatnych i potrzeb osobistych, takich jak potrzeba pieniędzy na zabieg chirurgiczny lub potrzeba pieniędzy na zakup nowych ubrań po pożarze, który zniszczył dom. Jest nawet sekcja dla studentów, którzy potrzebują środków na pokrycie kosztów czesnego. Użytkownicy GoFundMe mogą tworzyć własne strony, do których prowadzą linki, które wyjaśniają ich potrzeby i dlaczego proszą o fundusze. Można wyświetlać zdjęcia i inne informacje. GoFundMe generuje własne dochody, przyjmując 5% każdej darowizny na pokrycie kosztów logistycznych utrzymania witryny w stanie operacyjnym. Kilka próbek interesujących funduszy, które zostały zebrane, obejmuje uzyskanie prawie 75 000 dolarów dla trzech małych dziewczynek, u których zdiagnozowano chorobę mukopolisacharydozy, która jest poważnym zaburzeniem metabolicznym. Innym przypadkiem była prośba o 2,500 $ za wysłanie chorego na raka na krótkie wakacje, co przyniosło prawie 30 000 $. Trzecim przypadkiem była prośba o 1000 dolarów na wsparcie programu koszykówki na wózkach inwalidzkich dla dzieci, który ostatecznie zebrał około 27 000 dolarów. Finansowanie społecznościowe to niedawna innowacja, która jednak przekształca darowizny na cele charytatywne na lepsze, wykorzystując potęgę internetu do dostarczania informacji o wartościowych potrzebach potencjalnie milionom użytkowników sieci na całym świecie.

Namcook Analytics LLC

Namcook Analytics jest jedną firm, która została założona w sierpniu 2012 roku w stanie Delaware. Namcook prowadzi interesy w Narragansett, Rhode Island i Hingham w stanie Massachusetts. Klienci Namcook są zlokalizowani na całym świecie. Namcook Analytics to prywatna korporacja. Jak sama nazwa wskazuje, Namcook Analytics LLC działa w sektorze analityki predykcyjnej, ze szczególnym naciskiem na przewidywanie wyników projektów oprogramowania pod względem rozmiaru aplikacji, a także prognoz dotyczących ryzyka, jakości, harmonogramu, personelu, kosztów i konserwacji . Patenty Namcook opierają się na wykorzystaniu dopasowania wzorców, co pozwala na niezwykle wczesne określanie rozmiaru i analizę ryzyka. Na przykład główne narzędzie predykcyjne firmy, Software Risk Master (SRM), może przewidywać projekt oprogramowania przed spełnieniem pełnych wymagań, czyli być może sześć miesięcy wcześniej niż w przypadku innych metod przewidywania wielkości. Prognozy są również szybkie i wynoszą średnio około 90 sekund na aplikację, niezależnie od jej nominalnego rozmiaru. Dopasowywanie wzorców z SRM wykorzystuje zastrzeżony kwestionariusz do zbierania informacji o nowych lub planowanych aplikacjach. Odpowiedzi na pytania tworzą "wzór". Ten wzorzec jest następnie używany do wyodrębniania wyników z bazy wiedzy Namcook obejmującej około 15 000 ukończonych projektów. Wyniki projektów historycznych o takich samych lub podobnych wzorcach stanowią podstawę prognoz nowej aplikacji. Ten sam kwestionariusz, uzupełniony o gromadzenie danych dotyczących harmonogramu projektów, kosztów, personelu i wyników jakości zakończonych projektów, jest używany do dodawania nowych projektów do bazy wiedzy Namcook. Chociaż dopasowywanie wzorców jest nową metodą określania rozmiaru i szacowania oprogramowania, jest powszechne w innych branżach. Na przykład baza danych Zillow zawierająca krajowe listy nieruchomości, omówiona wcześniej, umożliwia klientom przeglądanie ocenianych wartości domów podobnych do ich własnych. Jest to przydatne w odwoływaniu się do możliwych błędów w wycenach, które często się pojawiają. Użytkownicy Zillow korzystają z dopasowywania wzorców, aby wybrać porównywalne nieruchomości o podobnej wielkości, wieku, układzie, budowie, malowniczych widokach i innych tematach, które mają wpływ na oceny podatkowe. Niezbędną funkcją jest matematyczna interpolacja projektów bez dokładnego dopasowania. Przy 122 dyskretnych elementach taksonomii Namcook SRM, permutacje zawierają łącznie 214 200 000 możliwych wzorów. Nie trzeba dodawać, że ponad połowa z tych wzorców nigdy nie wystąpiła i nigdy nie wystąpi. W przypadku obecnej branży oprogramowania całkowita liczba wzorców występujących ze stosunkowo dużą częstotliwością jest znacznie mniejsza: około 20 000. Od czasu do czasu pojawiają się nowe wzorce, na przykład przy użyciu nowych języków programowania lub opracowywaniu nowych metod. (Nowe języki programowania pojawiają się prawie co miesiąc; nowe metody rozwoju pojawiają się co najmniej raz w roku). Narzędzie SRM posiada tryb pomiaru, który umożliwia gromadzenie danych historycznych, a tym samym przyswajanie nowych technologii w miarę ich pojawiania się. Unikalną cechą jest to, że pomiary rozpoczynają się od oszacowania SRM. Klienci mogą sprawdzić oszacowanie i zaakceptować lub zmodyfikować każdą czynność. To sprawia, że narzędzie SRM jest narzędziem samouczącym się, które może wchłonąć nowe postępy techniczne w miarę ich pojawiania się. Fakt, że SRM mierzy poszczególne czynności, pozwala na bardzo dużą precyzję pomiarów, które teoretycznie mogą przekroczyć 1%. Jednak większość korporacyjnych danych historycznych "wycieka" i jest niekompletna, więc wywiady z członkami zespołu mogą być potrzebne do odzyskania brakujących elementów, takich jak niezapłacone nadgodziny, które rzadko są rejestrowane. Prognozy rozmiaru SRM wykorzystują punkty funkcyjne zdefiniowane przez IFPUG jako metrykę podstawową. Jednak narzędzie SRM jest neutralne pod względem metrycznym i w rzeczywistości przewiduje rozmiar aplikacji za pomocą 15 różnych metryk, w tym metryk niefunkcjonalnych SNAP, punktów funkcyjnych COSMIC, punktów historii, punktów przypadków użycia, logicznych metryk kodu źródłowego i innych. (COSMIC to rodzaj naciągniętego akronimu "Common Software Measurement International Consortium". Jest to oczywiście sztuczny układ słów). Idea wczesnego określania wielkości i wczesnego szacowania polega na tym, że jeśli potencjalne problemy można zidentyfikować wcześnie przed określeniem wymagań, to jest jeszcze czas na wdrożenie skutecznych technologii, zanim projekt przejdzie w niebezpiecznym kierunku. Na wyniki projektu wpływa wiele czynników. Zmienne używane do wyświetlania wyników projektów oprogramowania obejmują złożoność zestawu problemów, złożoność danych i złożoność kodu; metodologia zastosowana do rozwoju; doświadczenie personelu programistycznego; doświadczenie w zarządzaniu; język programowania lub kombinacja używanych języków; poziom organizacji w skali dojrzałości zdolności SEI (CMMI); i kilka innych. Obsługiwane są łącznie 34 metody, w tym Agile, iterative, waterfall, Prince2, Merise, RUP, TSP i inne. Obsługiwane są również metody hybrydowe. Warto pokazać klientom obok siebie wyniki tego samego projektu z różnymi stosami technologii. Na przykład łatwo jest pokazać obok siebie wyniki dla przyszłego projektu z jedną wersją demonstrującą metodę Agile i język programowania C # z 15% ponownym użyciem, podczas gdy druga wersja demonstruje metodę TSP i język programowania Objective-C z 30% ponownym użyciem. Główne czynniki kosztowe projektów oprogramowania w przybliżonej kolejności są następujące:

1. Znajdowanie i naprawianie błędów
2. Tworzenie dokumentów papierowych, takich jak wymagania i specyfikacje
3. Tworzenie kodu
4. Prowadzenie spotkań i innej komunikacji
5. Zarządzanie projektem
6. Pełzanie wymagań obsługi

Narzędzie do analizy predykcyjnej SRM jest świadome tych historycznych wzorców oprogramowania i dlatego przewiduje (i mierzy) defekty oprogramowania znalezione w wymaganiach, projekcie, kodzie, dokumentach użytkownika oraz błędne poprawki lub defekty wtórne. Narzędzie SRM przewiduje również (i mierzy) rozmiar i kompletność różnych dokumentów papierowych, w tym wymagań, architektury, specyfikacji, planów testów, raportów o stanie, podręczników użytkownika i wielu innych. Koszty dokumentacji są głównym czynnikiem rozwoju dużych systemów, a zwłaszcza oprogramowania obronnego. Pełzanie wymagań jest niepokojącym zjawiskiem i wynosi średnio 2% na miesiąc kalendarzowy. W skrajnych przypadkach projekty oprogramowania podwoiły się po spełnieniu wymagań, ale przed dostawą. Dlatego radzenie sobie z pełzaniem wymagań jest niezbędną funkcją do analizy predykcyjnej oprogramowania i jest standardową funkcją narzędzia SRM.

Korzystanie z Predictive Analytics

Analizy predykcyjne, zwłaszcza stosowane na wczesnym etapie przed finansowaniem aplikacji, mogą wyeliminować lub zminimalizować dokuczliwą tendencję do opóźniania się projektów oprogramowania, przekraczania ich budżetów lub anulowania ich bez ukończenia. Włączenie klauzul do analizy predykcyjnej może również usprawnić umowy między klientami a dostawcami zewnętrznymi, prosząc dostawcę o osiągnięcie ponad 97% wydajności usuwania defektów oprogramowania. Klauzule dotyczące obsługi zakresu i pełzania wymagań można również zademonstrować zarówno klientowi, jak i dostawcy podczas dyskusji na temat kontraktu. Dostawcy mogą być również zobowiązani do przekraczania poziomów produktywności i jakości w branży, z pewnymi nagrodami za bycie lepszymi od średniej i możliwymi karami za spadek wyników poniżej średniej. Ponieważ SRM może być używany przed spełnieniem wymagań, może być również używany podczas negocjacji umowy. W tym przypadku SRM ma specjalną funkcję do przewidywania kwoty finansowania venture potrzebnego do uruchomienia oprogramowania. Analizy predykcyjne korzystają również z dużych grup projektów, takich jak portfele korporacyjne, które mają przewidywać roczne koszty utrzymania. Duże portfele mogą zawierać ponad 5000 wniosków i łącznie ponad 10 milionów punktów funkcyjnych. Skumulowane utrzymanie i ulepszanie dużych portfeli pochłania ponad 65% wielu budżetów oprogramowania korporacyjnego. Analizy predykcyjne są również przydatne w przypadku złożonych zagadnień, takich jak koszty i harmonogram instalacji i wdrażania narzędzi planowania zasobów przedsiębiorstwa (ERP), takich jak SAP i Oracle. Instalacje i dostosowania dużych pakietów ERP są złożone i często działają z opóźnieniem i przekraczają zaplanowane budżety. Długoterminowe problemy związane z globalnym outsourcingiem można również określić za pomocą analiz predykcyjnych. Ponieważ stopy inflacji są wyższe zarówno w Indiach, jak i Chinach niż w Stanach Zjednoczonych, koszty długoterminowe mogą sprzyjać amerykańskim partnerom outsourcingowym lub partnerom prowadzącym działalność w wielu krajach. Analizy predykcyjne można również wykorzystać do przewidywania wysiłku i kosztów różnych inicjatyw doskonalenia procesów, takich jak koszty podnoszenia poziomów CMMI od 1 do 5. Koszty adaptacji oraz wzrost wydajności i jakości wynikający z przejścia od kaskadowego rozwoju do Agile, RUP, TSP lub jakiejkolwiek innej nowszej metodologii może być łatwo pokazane klientom. Dostęp do konkretnych wyników sprawia, że wybór i wdrażanie technologii jest bardziej efektywne. Branża oprogramowania ma złe wyniki w zakresie spóźniania się i dostarczania oprogramowania z tak wieloma błędami lub wadami, że nie działa poprawnie. Analizy predykcyjne mogą pomóc zmniejszyć lub wyeliminować te endemiczne problemy.

Nest Labs

Nest Labs tworzy interesującą niszę, wykorzystując wbudowane oprogramowanie w połączeniu z formą sztucznej inteligencji do optymalizacji ogrzewania i chłodzenia domu za pomocą "inteligentnych" termostatów. Termostaty są podłączone do sieci i działają tylko w domach lub biurach z łącznością bezprzewodową. Ponieważ domy bezprzewodowe stają się powszechne, potencjalny rynek urządzeń Nest szybko rośnie. Jednak produkty takie jak termostat Nest są wyraźnie skierowane do zamożnych klientów. Rodziny o niskich dochodach wydają znacznie większy procent swoich dochodów do dyspozycji na ogrzewanie niż osoby zamożne i często nie mają wsparcia bezprzewodowego i prawdopodobnie nie stać ich na 249 dolarów na urządzenie Nest. Firma ta została założona w Palo Alto w Kalifornii w 2010 roku przez Tony'ego Fadella i Matta Rogersa. Wraz ze wzrostem kosztów energii ogrzewanie i chłodzenie domu stają się głównymi kosztami dla rodzin o niskich dochodach i irytującymi kosztami dla wszystkich innych. Chociaż programowalne termostaty są dostępne od lat, wersja Nest zawiera kilka nowych funkcji opartych na oprogramowaniu wbudowanym. Pierwszym produktem był Nest Learning Thermostat, który nie tylko można było zaprogramować, ale także zbierać dane historyczne, uczyć się i monitorować otaczające środowisko. Fizyczne urządzenia termostatyczne wykorzystują standardowe połączenia dla większości systemów HVAC i mogą być instalowane przez lokalny personel serwisowy certyfikowany przez Nest lub przez właścicieli domów. Funkcja bezprzewodowa termostatów Nest umożliwia pobieranie w razie potrzeby wersji oprogramowania. Funkcja łączności bezprzewodowej umożliwia również klientom zdalne wprowadzanie zmian w ustawieniach termostatu za pośrednictwem smartfonów. Na przykład, jeśli użytkownik zdecyduje się na nieplanowany wyjazd weekendowy zimą, można obniżyć temperaturę w domu do 50 stopni na krótko przed planowanym powrotem do domu. Nest jest jednym z rozszerzającego się zestawu inteligentnych urządzeń, które używają Internetu do automatycznych aktualizacji. Inne obejmują nowoczesne telewizory, odtwarzacze Blu-ray, a nawet niektóre wysokiej klasy kuchenki mikrofalowe i pralki. Obecnie termostaty Nest są sprzedawane tylko w Stanach Zjednoczonych i Kanadzie. Jednym z powodów jest to, że Nest używa amerykańskich kodów pocztowych do lokalizacji niektórych sezonowych funkcji. W 2012 r. Firma Nest Labs została pozwana przez firmę Honeywell za naruszenia patentowe siedmiu patentów dotyczących zdalnego sterowania termostatem, okrągłego kształtu jednostki ściennej i innych funkcji. Nest Labs oświadczyło, że podważy ważność patentów i zamierza przeprowadzić proces sądowy. W chwili pisania tej książki wyniki sporu nie są znane. Nest Labs jest jednym z rosnącej liczby producentów inteligentnych urządzeń, którzy używają oprogramowania i Internetu do świadczenia usług, które wcześniej nie były dostępne, takich jak zdalny dostęp i przechowywanie danych historycznych.

Peer Index

Peer Index znajduje się w zupełnie nowej niszy, która została zbudowana na nieco starszej niszy. Ponieważ sieci społecznościowe stają się powszechne i konkurują ze sobą, zarówno ich właściciele, jak i zainteresowane strony, takie jak reklamodawcy, chcą wiedzieć, które z nich odnoszą największe sukcesy. Peer Index to jedna z kilku firm mierzących efektywność sieci społecznościowych. Peer Index został założony w Londynie w Anglii w lutym 2010 roku przez Azeema Adhara, Ditleva Schwanenflugela i Billa Emmotta (byłego redaktora The Economist). Firma opracowała trzy uzupełniające się mierniki trafności witryny: aktywność, publiczność i autorytet. Mierzone sieci społecznościowe obejmują Twitter, Lacebook, Linkedln i Quora. Dane dotyczące aktywności dotyczą odwiedzin w określonej witrynie. Wskaźnik autorytetu próbuje określić liczbę "polubień" lub pozytywnych rekomendacji, które gromadzi witryna. Wskaźnik odbiorców próbuje określić dane demograficzne użytkowników witryny w porównaniu z populacją ogólną. Wraz ze wzrostem liczby i popularności sieci społecznościowych, pojawiły się firmy pochodne, takie jak Alexa i Peer Index, które dostarczają statystycznych dowodów skuteczności. Ta informacja ma pewne znaczenie, jeśli przychody z witryn są uzależnione od reklam. Na przykład witryna używana głównie przez dojrzałych fizyków z doktoratem prawdopodobnie nie będzie zawierała tylu reklam lub tego samego rodzaju, co witryna odwiedzana głównie przez nastoletnich fanów rock and rolla. Peer Index próbuje dostarczyć te dane.

Unified Inbox

Większość użytkowników komputerów (w tym ja) codziennie otrzymuje informacje z dziesiątek witryn internetowych. Ujednolicona skrzynka odbiorcza próbuje usprawnić ten proces, zapewniając wspólny punkt kontaktowy dla popularnych witryn e-mail i kalendarzy oraz łącząc informacje w ujednoliconą skrzynkę odbiorczą. Unified Inbox został uruchomiony w 2012 roku na wyspie Waiheke w Nowej Zelandii przez Toby'ego Ruckerta i Markusa Lehnerta. Lokalizacja firmy jest wyraźnym dowodem na to, że oprogramowanie jest obecnie towarem globalnym. Około czterech lat badań upłynęło przed formalnym uruchomieniem. Niektóre funkcje są chronione patentem. Podstawowym pomysłem jest skonsolidowanie informacji wejściowych z e-maili, Facebooka, Twittera, Basecampa, Dropboxa, Evernote, kalendarza Google i innych w jednym strumieniu. Do użytku korporacyjnego poszczególne wiadomości wejściowe mogą być komentowane i umieszczane w notatkach, a następnie kierowane do innego użytkownika. Uwagi i dodatkowe informacje są trwałe i są przechowywane wraz z wiadomościami. Na przykład raport o błędzie od klienta może zostać odebrany przez pracownika działu pomocy technicznej, przejrzany, a następnie przekierowany do programisty utrzymania ruchu z notatkami i tekstem na temat komentarzy klienta. Internet i sieć WWW dostarczają tak wielu informacji z tak wielu kanałów, że "nadmiar informacji" stał się problemem endemicznym. Unified Inbox to jedna z wielu firm, które dążą do uproszczenia wprowadzania informacji i łączenia ze sobą różnych źródeł.

Yesware

Yesware to interesująca firma niszowa, która oferuje dodatki do usług e-mail. Te dodatkowe funkcje są przeznaczone w szczególności dla sprzedawców, którzy muszą gromadzić istotne informacje o kontaktach z klientami. Firma Yesware została założona w 2010 roku w Bostonie w stanie Massachusetts przez Matthew Bellowsa, Rajata Bargavę i Cashmana Andrusa. Bellows był sprzedawcą i próbował pomóc innym sprzedawcom wydobyć użyteczne informacje z e-maili bez żmudnego ponownego wprowadzania danych do systemów zarządzania zasobami klienta (CRM). Yesware to prywatna firma, która otrzymała około 5 milionów dolarów finansowania typu venture od Google Ventures i Foundry Group. Wykorzystanie wzrosło gwałtownie od dnia premiery do ponad 100 000 użytkowników w ciągu około roku. Klientami stały się duże firmy, takie jak Motorola. Yesware jest dystrybuowane jako bezpłatna wtyczka do przeglądarek Google Chrome i Firefox. Ta wtyczka udostępnia szablony dla różnych rodzajów e-maili sprzedażowych. Pokazuje również, kiedy e-maile zostały otwarte i które osadzone linki zostały kliknięte. Informacje e-mail można również sformatować i skierować do pakietów CRM. Yesware wykorzystuje formę modelu biznesowego freemium (termin jest połączeniem słów "bezpłatny" i "premium"). W tym modelu podstawowa aplikacja jest udostępniana klientom bezpłatnie, ale dodatkowe funkcje są dostępne za opłatą. Inne aplikacje korzystające z modelu freemium to Dropbox, CCleaner, Linkedln, WebEx oraz kilka gazet, takich jak New York Times i Providence Journal. Model freemium jest również koncepcją społeczności open source, w której aplikacje są bezpłatne, ale usługi takie jak szkolenia i doradztwo są płatne. Model freemium zasługuje na studia przypadków w szkołach biznesowych. To jest dzięki potędze internetu dotarcie do wystarczającej liczby klientów, aby użytkownicy podstawowego bezpłatnego narzędzia lub usługi mogli przynosić przyzwoite dochody. Model freemium nie działa tylko dla kilku klientów, ale może być również skuteczny dla milionów klientów. Internet i sieć są inkubatorami modelu freemium. Koncepcja Yesware zebrała pozytywne komentarze w czasopismach biznesowych, takich jak Forbes, TechCrunch i CNN Money. Yesware otrzymało co najmniej jedną nagrodę za bycie skutecznym narzędziem sprzedaży. Komputery i oprogramowanie stają się uniwersalnymi narzędziami biznesowymi tysiące nowych nisz czekających na wykorzystanie. Yesware jest dobrym przykładem specjalnej niszy dla sprzedawców, zbudowanej na bazie nieco starszych technologii, takich jak poczta elektroniczna. Oprogramowanie Yesware zależy od Internetu i sieci World Wide Web oraz od istnienia klientów poczty e-mail. Firma nie mogła powstać ponad 20 lat temu ze względu na fakt, że wszystkie podstawowe technologie są nowe.

Przewidywanie nowych firm i produktów od 2013 do 2019 roku

Nie każdy możliwy postęp naprawdę nastąpi, ale warto je rozważyć. Mogą również pojawić się zupełnie nowe wynalazki tuż za horyzontem, które mogą poprowadzić branżę w nieoczekiwanych kierunkach. W rzeczywistości nowe i nieoczekiwane wynalazki uczyniły dziedziny inżynierii komputerowej i oprogramowania tak ekscytującymi w ciągu ostatnich 60 lat.
Big Data

Kiedy komputery i oprogramowanie zaczęły być narzędziami biznesowymi w latach pięćdziesiątych XX wieku, skupiały się na lokalnych i specyficznych danych potrzebnych poszczególnym firmom lub agencjom rządowym. Jednak z czasem sieć WWW stała się największym zbiorem danych w historii ludzkości. W sieci pojawiają się teraz opisy wszystkich publicznych i wielu prywatnych korporacji, sprawozdania finansowe każdej spółki publicznej, statystyki sprzedaży milionów produktów, dokumentacja medyczna milionów pacjentów oraz preferencje zakupowe dla miliardów konsumentów. Z tego wszechświata danych można wydobyć przydatne informacje. Jednak wydobywanie i gromadzenie przydatnych informacji wymaga szeregu technologii wspomagających. Zwykłe produkty bazodanowe nie są wystarczające. Potrzebne są heterogeniczne narzędzia, takie jak Hadoop. Zwykłe przeglądanie stron internetowych nie wystarczy, aby znaleźć i wyodrębnić wszystkie istotne informacje. Potrzebne są nowe rodzaje "inteligentnych agentów", podobnych do Wolfram Alpha, aby wyszukiwać i gromadzić przydatne informacje z być może milionów witryn internetowych. Potencjalna wartość dużych zbiorów danych jest wysoka. Byłoby możliwe przeanalizowanie strategii biznesowych każdej firmy w każdej branży; byłaby możliwa ocena skuteczności każdej możliwej terapii schorzeń krytycznych, takich jak borelioza; byłoby możliwe porównanie każdego programu opieki zdrowotnej na świecie zarówno pod względem wyników medycznych, jak i opłacalności; byłoby możliwe porównanie wyników każdego rządu stanowego i każdego samorządu miejskiego. Potrzebne będą jednak nowe firmy i potężne nowe narzędzia, aby duże zbiory danych były tak skuteczne, jak sugeruje teoria.

Crowd Intelligence i crowdfunding

Niespodziewany sukces encyklopedii Wikipedii, pisanej przez około 39 milionów autorów, jest jednym z najbardziej zaskakujących zjawisk intelektualnych w historii ludzkości. Dopóki Wikipedia nie dostarczyła dowodu słuszności koncepcji, nigdy nie przewidywano, że współpracujące ze sobą duże tłumy mogą przynieść użyteczne wyniki intelektualne. Potęga sieci otworzyła również nowe rodzaje mikroinwestycji, w ramach których tysiące ludzi inwestuje w startupy lub nowe pomysły na produkty. Ten sam pomysł rozszerzył się na inne dziedziny, takie jak finansowanie kampanii politycznych lub przekazywanie darowizn na cele charytatywne i filantropijne za pośrednictwem mikrodonacji niewielkich kwot. W rzeczywistości około 25% funduszy dla kandydatów w wyborach prezydenckich w USA w 2012 roku stanowiły mikrodonacje. Potęga internetu i sieci w rzeczywistości mogłaby doprowadzić do swego rodzaju "demokracji bezpośredniej", w której krytyczne kwestie miejskie, państwowe i narodowe są stawiane przed tłumami proszonymi o przedstawienie opinii i potencjalnych rozwiązań na takie tematy, jak reformy emerytalne i prawo- prawa pracy. Możemy spodziewać się wielu nowych startupów, które będą próbowały wykorzystać crowdfunding lub crowdfunding inteligencji, aby poradzić sobie z coraz szerszą gamą problemów.

Cyberprzestępczość i cyberbezpieczeństwo
Na resztę tej dekady możnabyło z dużą dozą pewności sformułować jedną prognozę. Wzrośnie cyberprzestępczość. To, czy cyberprzestępczość będzie w stanie wyprzedzić cyberprzestępczość, nie jest tak pozytywną prognozą, ale miejmy nadzieję, że okaże się prawdą. Prawdopodobnie nadszedł czas na fundamentalną ocenę architektury komputera i konstrukcji oprogramowania. Wydaje się, że architektura von Neumanna ma pewne wewnętrzne luki w zabezpieczeniach, a alternatywne architektury mogą je wyeliminować. Pamięć wirtualna to kluczowy obszar wykorzystywania cyberprzestępczości. Mechanizmy uprawnień wymagają gruntownej ponownej oceny. Porównując cyberprzestępczość do chorób medycznych, zapory ogniowe przypominają trochę lateksowe rękawiczki, aby zapobiec infekcjom. Pakiety oprogramowania antywirusowego są trochę jak szczepionki, które próbują powstrzymać aktywność szkodliwych agentów poprzez ich zabijanie. Narzędzia do wyszukiwania i niszczenia, takie jak Malwarebytes, są trochę jak białe krwinki, które wyszukują szkodliwe czynniki i je niszczą. Jednak, podobnie jak w prawdziwej praktyce medycznej, żadna z metod nie jest w 100% skuteczna. Zapory ogniowe przeciekają i prawdopodobnie nie są bardziej skuteczne niż 97%. Pakiety antywirusowe odnoszą sukcesy tylko częściowo i prawdopodobnie nie blokują więcej niż około 98% znanych wirusów. Narzędzia do wyszukiwania i niszczenia prawdopodobnie nie odnoszą więcej niż 95% skuteczności. Zakładając, że wartości procentowe są realistyczne, łączna ogólna skuteczność trzech powszechnych metod cyberbezpieczeństwa wynosi tylko nieco ponad 90%. Potrzebne są fundamentalne badania nad metodami podnoszenia poziomu odporności zarówno komputerów, jak i oprogramowania oraz nadawania im wewnętrznej odporności na penetrację i ataki. Przydałoby się również, choć technicznie trudne, ulepszenie metod cofania wektorów ataków do ich źródła. Struktura internetu i sieci sprawia, że jest to dziś prawie niemożliwe. Ale to nie znaczy, że będzie to niemożliwe na zawsze

Edukacja

W ciągu prawdopodobnie dziesięciu lat połączenie presji na obniżenie kosztów i zmian technologicznych prawdopodobnie spowoduje poważne różnice w metodach uczenia się oprogramowania. Informacje internetowe, e-booki i urządzenia przenośne bez wątpienia zastąpią znaczne ilości materiałów papierowych. Ponadto rzeczywistość wirtualna może wprowadzić sztuczne sale lekcyjne i symulowane uniwersytety, w których uczniowie i nauczyciele wchodzą w interakcje za pośrednictwem awatarów, a nie twarzą w twarz w rzeczywistych budynkach szkolnych. Rosnące wyrafinowanie inteligentnych agentów i systemów eksperckich prawdopodobnie poprawi zdolność skanowania ogromnych ilości informacji online. Fakt, że firmy takie jak Google i Microsoft szybko konwertują papierowe książki i dokumenty na tekst online, również zmieni dostęp do informacji. Jednak oprogramowanie ma przed sobą długą drogę, zanim osiągnie łatwość użycia i złożoność zawodów prawniczych i medycznych w zakresie organizacji i dostępu do ważnych informacji. Na przykład obecnie nie ma oprogramowania odpowiadającego firmie referencyjnej Lexis-Nexis. W ciągu najbliższych kilku lat zmiany w metodach uczenia się mogą ulec równie głębokim zmianom, jak te wprowadzone przez prasę drukarską i telewizję. Jednak jakość informacji w oprogramowaniu jest nadal niska w porównaniu z jakością informacji w bardziej dojrzałych dziedzinach, takich jak medycyna i prawo. Poważny niedobór danych ilościowych dotyczących produktywności, harmonogramów, jakości i kosztów sprawia, że oprogramowanie wydaje się bardziej rzemiosłem niż prawdziwym zawodem. Od 2013 r. Istnieją technologie umożliwiające stworzenie uniwersytetu oprogramowania rzeczywistości wirtualnej, który przypominałby prawdziwy uniwersytet, tylko z bardziej wyrafinowanym dostępem do materiałów dydaktycznych. Podstawową ideą jest wykorzystanie koncepcji z witryn rzeczywistości wirtualnej, takich jak SecondLife, ale zastosowanie ich do praktycznych zagadnień związanych z oprogramowaniem. Aby to zrobić, proces rozpoczynałby się od uzyskania licencji na silnik renderujący rzeczywistość wirtualną od jednej z zaawansowanych firm zajmujących się grami komputerowymi. Ale zamiast używać silnika do tworzenia wirtualnych pól bitew lub lasów, silnik stworzyłby kampus uniwersytecki wraz z budynkami i studentami. Aby być przekonującym, wirtualny kampus prawdopodobnie musiałby być estetyczny i zawierać elementy krajobrazu, a także budynki kampusu. Potencjalni studenci mogliby przenosić swoje awatary po kampusie i wchodzić do budynków. Na przykład byłyby budynki oznaczone jako Planowanie i szacowanie projektu, Zarządzanie projektem, Wymagania projektowe, Cyberbezpieczeństwo, Analiza ryzyka i tak dalej. Po wejściu do jednego z tych wirtualnych budynków pojawiłaby się seria wirtualnych sal lekcyjnych i wirtualnych biur dla instruktorów i profesorów. Ten model zakłada, że eksperci na żywo będą uczestniczyć w wirtualnym uniwersytecie, więc biura będą miały nazwiska rzeczywistych ekspertów, takich jak dr Barry Boehm, dr Victor Basili, Capers Jones i inni, którzy zawarli umowy o oferowanie kursów za pośrednictwem wirtualnego Uniwersytet. Oczywiście personel instruktorski nie byłby obecny przez cały czas, więc godziny pracy byłyby umieszczane w wirtualnych biurach. Ponadto uczniowie mogliby zostawiać wiadomości i prośby dla różnych profesorów i instruktorów. Sale lekcyjne wydają się być rzeczywistymi salami lekcyjnymi podobnymi do tych na MIT, Harvardzie, Princeton i innych dużych uniwersytetach. Oferowanych byłoby kilka rodzajów kursów. Jedna forma kursu byłaby oczywiście prezentowana w czasie rzeczywistym przez awatary instruktorów na żywo. (Zakłada się, że awatary wirtualnego uniwersytetu byłyby obrazami rzeczywistych instruktorów). Te kursy na żywo byłyby ogłaszane i można je było zaplanować. Niektóre z nich byłyby bezpłatne, ale inne mogą być płatne. Byłyby również nagrane materiały szkoleniowe, które uczniowie mogliby pobrać i wykorzystać w dogodnym dla siebie czasie. Wirtualne sale lekcyjne byłyby bardziej wyrafinowane niż większość prawdziwych sal lekcyjnych, ponieważ wszystkie z nich mogłyby mieć wiele ekranów, zawierać animacje i materiały dynamiczne, a być może nawet korzystać z materiałów instruktażowych 3D. Interakcja między wirtualnymi studentami i wirtualnymi profesorami byłaby podobna do prawdziwego życia, w którym można by zadawać pytania i odpowiadać na nie. Niektóre interakcje mogą być nawet bardziej wyrafinowane niż zwykłe interakcje międzyludzkie, ponieważ wirtualny uniwersytet przewiduje narzędzia robocze do takich tematów, jak planowanie, szacowanie, wymagania, projektowanie i oczywiście działające kompilatory i tłumacze do nauczania różnych języków programowania. Bardzo potężną zdolnością wirtualnego uniwersytetu byłby wyrafinowany silnik planowania programów nauczania. Potencjalni studenci mogliby określić swoje wybory zawodowe lub preferowane zawody, a inteligentny silnik programu nauczania wygenerowałby pełną listę wszystkich kursów potrzebnych do wspierania ich wyborów.Zidentyfikowano nie tylko kursy, ale także aktualne książki i czasopisma, stowarzyszenia zawodowe, formy certyfikacji i licencji, które mogą być potrzebne, oraz wiele innych atrybutów dla głównych zawodów, takich jak inżynieria oprogramowania, zarządzanie projektami, zapewnienie jakości oprogramowania, analityk baz danych, i być może zidentyfikowano by również 150 innych grup zawodowych opartych na wiedzy. Każda uczelnia potrzebuje dobrej biblioteki, a biblioteka wirtualnej uczelni byłaby światowej klasy. Miałoby funkcje niedostępne w zwykłych bibliotekach. Załóżmy na przykład, że student jest zainteresowany tematem testowania oprogramowania. Biblioteka nie tylko miałaby streszczenia każdej opublikowanej książki i artykułu na temat testowania, ale byłaby stale odświeżana za pomocą inteligentnych agentów, które skanowałyby sieć w poszukiwaniu nowych materiałów. Oczywiście w przypadku wielu tematów liczba książek i pozycji referencyjnych może sięgać milionów, więc biblioteka zawierałaby również narzędzia do zawężania wyszukiwań i przypisywania ocen trafności. Ponieważ wirtualny uniwersytet byłby dostępny dla studentów z kilkuset krajów, istniałyby również usługi tłumaczeniowe w czasie rzeczywistym dla wszystkich głównych języków naturalnych. W związku z tym kursy mogą być jednocześnie dostępne w języku angielskim, rosyjskim, francuskim, włoskim, niemieckim, portugalskim, arabskim, hiszpańskim, japońskim i zasadniczo w każdym ludzkim języku. Idealnie byłoby, gdyby usługi tłumaczeniowe obejmowały zarówno materiały tekstowe, jak i być może nawet mówione dyskusje między studentami i wykładowcami. Wyrafinowany wirtualny uniwersytet bez wątpienia licencjonowałby narzędzia do tłumaczenia językowego oraz być może narzędzia do zamiany głosu na tekst, takie jak Dragon. Wirtualny uniwersytet chciałby oferować światowej klasy udogodnienia tym, którzy mogą mieć fizyczne ograniczenia. Na przykład, aby pomóc osobom niesłyszącym i niedosłyszącym, wszystkie wypowiedziane materiały mogą być jednocześnie przetłumaczone na drukowany tekst. Wszystkie filmy wideo i instruktażowe automatycznie zawierałyby podpisy lub napisy. Ta technologia jest już dostępna. Możliwe byłoby również oferowanie symultanicznych tłumaczeń kursów mówionych na język migowy. Jednak tłumaczenie materiałów drukowanych na język migowy może nie być jeszcze w pełni dostępne. Dla niewidomych wszystkie drukowane materiały można przetłumaczyć na pliki audio. Ta technologia istnieje również dzisiaj. Możliwe, że możliwe będzie nawet tłumaczenie symultaniczne na alfabet Braille'a (ponieważ nowe drukarki 3D mogą teraz drukować w alfabecie Braille'a), chociaż jest to prawdopodobnie poza obecnymi możliwościami. Dla tych na wózkach inwalidzkich, którzy wolą, aby ich awatary miały również wózki inwalidzkie, sale lekcyjne i budynki wirtualnego uniwersytetu byłyby dostępne dla wózków inwalidzkich, a także wyraźnie oznaczone ustnie dla niewidomych. Podobnie jak w przypadku prawdziwych uniwersytetów, studenci mogliby ze sobą współdziałać a także mogłaby uczestniczyć w grupach specjalnych zainteresowań lub witrynach Wiki na tematy takie jak analiza statyczna, inspekcje, inżynieria wymagań i dziesiątki innych. Ponieważ na prawdziwych uniwersytetach niestety brakuje informacji ilościowych, wirtualny uniwersytet miałby licencje od wszystkich głównych grup porównawczych i działające wersje różnych narzędzi do planowania i szacowania, narzędzi testowych i wielu innych. W przeciwieństwie do prawdziwych uniwersytetów, wirtualny uniwersytet działałby 24 godziny na dobę, 7 dni, 365 dni w roku. Oczywiście instruktorzy na żywo spędzaliby normalne wakacje i wakacje, ale biblioteka i nagrane materiały szkoleniowe byłyby zawsze dostępne. Ponieważ interesujące tematy zmieniają się dość często, wirtualny uniwersytet mógłby obejmować centrum studenckie, w którym mogliby uczestniczyć studenci z wielu krajów i różnych dziedzin współdziałają ze sobą w celu wymiany informacji i dowiedzenia się, jakie techniki są z powodzeniem stosowane, a które są trudne do opanowania. Podobnie jak w przypadku prawdziwych uniwersytetów, byłoby wiele specjalnych grup interesu lub osób zainteresowanych tymi samymi tematami. Jedną z usług, które wirtualny uniwersytet mógłby świadczyć, byłby dostęp do lokalnych i krajowych informacji z wielu krajów, takich jak Stany Zjednoczone, Chiny, Brazylia, Japonia, Indie i wiele innych. Na przykład, każdy kraj może mieć własną tablicę ogłoszeń, na której można by ogłaszać kursy i seminaria internetowe, które odbywają się w różnych miastach krajów pochodzenia studentów. Inną usługą, którą uniwersytet może świadczyć, jest codzienne podsumowanie seminariów internetowych na wybrane tematy, takie jak testowanie, inżynieria wymagań oraz nowe narzędzia i metody. Obecnie oferowanych jest tak wiele webinarów, że nawet ich śledzenie nie jest łatwe. W centrum studenckim mogłaby być wirtualna tablica ogłoszeń. Sprzedawcy narzędzi lub usług mogą umieszczać reklamy, a uczniowie zainteresowani specjalnymi tematami mogą zacząć szukać grup "ptaszków". Uczelnia może również używać Linkedln, Plaxo, Facebooka lub innej usługi sieciowej do wysyłania wiadomości do studentów o szczególnych zainteresowaniach lub o wspólnych zainteresowaniach, którzy mogą chcieć się ze sobą komunikować. Ponieważ studenci nie przebywaliby w kampusie dłużej niż godzinę lub dwie dziennie, uniwersytet zawierałby również linki do różnych źródeł e-booków, takich jak Amazon, Barnes and Noble oraz Google. Rzeczywiście, programy kursów i wybrane teksty można byłoby pobrać i zamówić jako pakiety e-booków do różnych kursów, takich jak testowanie, szacowanie, zarządzanie projektami i tym podobne. Podstawową ideą dla uniwersytetu jest konsolidacja ogromnych, ale niezorganizowanych zbiorów wiedzy na temat oprogramowania w oddzielne pakiety edukacyjne, które są ukierunkowane na określone i ważne tematy, takie jak kontrola jakości, szacowanie, planowanie, raporty o stanie i dziesiątki innych. Każde z głównych stowarzyszeń zawodowych, takich jak American Society of Quality (ASQ), IFPUG, International Software Standards Group (ISBSG), Project Management Institute (PMI) czy Software Engineering Institute (SEI) może mieć własne wirtualne budynki i oferują zarówno szkolenia, jak i usługi członkostwa. Ta sama koncepcja byłaby dostępna dla dużych korporacji, takich jak IBM, Google i Microsoft. Mogą projektować i zlecać budynki korporacyjne w wirtualnym kampusie, w którym mogłoby odbywać się szkolenie w zakresie ich produktów. W rzeczywistości część finansowania uniwersytetu bez wątpienia pochodziłaby z opłat płaconych przez korporacje za te struktury. Mniejsze korporacje, takie jak Computer Aid, Inc. i SmartBear, również mogą chcieć być obecni na terenie kampusu. Innym wyjątkowym aspektem uniwersytetu byłyby linki do ważnych konferencji, takich jak japońskie sympozjum testowania oprogramowania (JaSST) lub konferencje IBM Innovate. Uczelnia mogłaby mieć kilka dużych sal konferencyjnych, w których osoby, które nie mogłyby osobiście uczestniczyć w rzeczywistych wydarzeniach, mogłyby uczestniczyć w głównych sesjach i szkoleniach. Zasady uczestnictwa w tych wirtualnych konferencjach byłyby ustalane przez komitety konferencyjne i prawdopodobnie oferowałyby obniżki opłat za osobiste uczestnictwo. Uczelnia może również oferować okazjonalnych gości, którzy są znani w świecie oprogramowania: Bill Gates z Microsoft, Sergey Brin z Google, Mark Zuckerberg z Facebooka i Larry Ellison z Oracle. Ci luminarze oprogramowania czasami wygłaszają przemówienia na prawdziwych uniwersytetach i na konferencjach. Jednak ze względu na ograniczenia logistyczne rzadko mogą być adresowane do ponad 5000 osób. W przypadku wirtualnego uniwersytetu ci sami mówcy mogą z łatwością zgromadzić wirtualną publiczność liczącą 100 000 lub nawet więcej. Wczesne wersje uniwersytetu prawdopodobnie oferowałyby krótkie kursy lub seminaria internetowe, które trwały tylko godzinę lub krócej. Jednak technicznie możliwe jest wyobrażenie sobie, że uniwersytet łączy się z prawdziwymi uniwersytetami i oferuje standardowe programy nauczania w środowiskach wirtualnych. Jeśli pomysł się przyjmie, to ostatecznie prawdziwe uniwersytety, takie jak Harvard, MIT, University of Florida lub University of Nalanda w Indiach, mogą uczestniczyć i oferować wirtualne kursy albo na swoich kampusach macierzystych, albo za pośrednictwem obiektów wirtualnego uniwersytetu. W pewnym momencie obiekty wirtualnego uniwersytetu byłyby wystarczające do administrowania egzaminami i oferowania profesjonalnych certyfikatów w takich tematach, jak inżynieria wymagań, analiza punktów funkcyjnych, testowanie, zarządzanie projektami i być może dziesiątki innych dyscyplin technicznych, w których dostępna jest certyfikacja. Nie jest niemożliwe, aby wirtualna uczelnia ostatecznie nadawała faktyczne stopnie naukowe aż do stopnia doktora. jednak poziom. Mogłoby to mieć miejsce tylko wtedy, gdy akredytowano programy nauczania i wykładowców. Faktyczne stopnie naukowe z uniwersytetu mogą nie być możliwe do zdobycia przez kolejne 20 lat lub mniej, ze względu na nowość koncepcji i logistyki akredytacji. Początkowe wersje uniwersytetu miałyby służyć raczej kształceniu zawodowemu niż szkoleniom licencjackim lub akademickim. Bezpieczeństwo musiałoby zostać uwzględnione jako część projektu wirtualnego kampusu. Ma to na celu powstrzymanie hakerów i wirusów przed uszkodzeniem materiałów szkoleniowych lub zakłócaniem sesji za pomocą ataków typu "odmowa usługi". Zawsze istnieje potrzeba cyberbezpieczeństwa, aby zniechęcać do hakowania, phishingu, kradzieży tożsamości i innych endemicznych problemów ery komputerów. Chociaż może minąć dziesięć lub więcej lat, zanim powstanie tego rodzaju wirtualna uczelnia, interesujące jest, że technologie niezbędne do budowy takiej uczelni ,wszystkie istnieją dzisiaj. Nie tylko technologie istnieją, ale także koszty budowy wirtualnego kampusu prawdopodobnie sięgałyby jedynie 250 000 USD, co jest znacznie tańsze niż budowa prawdziwych sal lekcyjnych. Zakładając, że takie firmy, jak IBM, Microsoft i Google, które mają już materiały szkoleniowe i instruktorów, chciałyby to zrobić, wirtualna uczelnia mogłaby prawdopodobnie zostać uruchomiona w ciągu dziewięćdziesięciu dni od rozpoczęcia. Nie jest wykluczone, że wirtualna uczelnia mogłaby zrobić dla edukacji to, co Facebook i Twitter zrobiły dla sieci społecznościowych: uczynić naukę tak łatwą i przyjemną, że frekwencja sięgnęłaby milionów. Ze względu na brak wydatków na fizyczne budynki i infrastrukturę wirtualna uczelnia byłaby znacznie tańsza w eksploatacji niż prawdziwa fizyczna uczelnia. Głównymi czynnikami kosztowymi byłyby wynagrodzenie za instrukcje, licencje na oprogramowanie i opłaty za dostęp do sieci. Jednodniowe seminarium na żywo, które kosztuje 895 USD na studenta, może być opłacalne przy 200 USD na studenta, jeśli jest oferowane za pośrednictwem wirtualnego uniwersytetu. Obciążenie studentów na wirtualnym uniwersytecie może być znacznie większe niż w przypadku zwykłych zajęć na żywo. W przypadku szkoleń zawodowych na żywo klasy liczebności wahają się od dziesięciu do około 50 uczestników. W przypadku szkoleń wirtualnych za pośrednictwem seminariów internetowych i innych metod online wielkość klas może wahać się od około 200 do ponad 1500. W ten sposób niższe koszty przypadające na jednego ucznia równoważone są przez większą liczbę studentów. Koncepcje wirtualnego uniwersytetu można by również wykorzystać w innych formach edukacji, takich jak medycyna czy prawo. (W przypadku medycyny oczywiste jest, że do operacji i schorzeń związanych z badaniem rzeczywistych pacjentów potrzebni byliby prawdziwi lekarze). Możliwe jest nawet zastosowanie tych samych pomysłów w szkolnictwie podstawowym i średnim. Jeszcze dziś znacznie taniej byłoby zbudować wirtualną szkołę dla niesłyszących, niż budować takie szkoły w prawdziwym życiu. W przypadku szkół podstawowych i średnich na rynku istnieją już dość wyrafinowane narzędzia e-learningowe, takie jak IStation, Mindplay, Adobe, Riverdeep, Follett i inne, które wykorzystują różne dynamiczne i animowane podejścia, aby pomóc przykuć uwagę uczniów podczas przekazywania Informacja. Te same pomysły można zastosować w wielu innych sytuacjach uczenia się. Istnieją również narzędzia e-learningowe dla wykładowców, takie jak Virtual Education Software (VESi), które są zgodne z tematami niniejszego raportu. Obecnie prowadzenie szkół dla głuchoniemych i niewidomych kosztuje od około 75 000 do 100 000 dolarów rocznie na ucznia. Gdyby omówione tutaj narzędzia i metody wirtualnego uczenia się zostałyby zastosowane do nauczania głuchoniemych, roczne koszty prawdopodobnie mieściłyby się w przedziale od 3000 do 10 000 USD na ucznia rocznie. Główną przeszkodą w zastosowaniu koncepcji wirtualnego uniwersytetu do szkolenia głuchoniemych byłby prawdopodobnie sprzeciw ze strony różnych związków edukacyjnych oraz opór ze strony zgromadzeń państwowych i rad szkolnych. Koncepcje wirtualnego uczenia się nie są tak atrakcyjne dla szkół podstawowych, ponieważ większość rodziców polega na prawdziwych szkołach, które zajmują się dziećmi w ciągu dnia pracy. Jednak w przypadku szkolnictwa średniego i wyższego szkolenie wirtualne jest znacznie tańsze. Nie ma żadnych kosztów infrastruktury fizycznej. Licencjonowanie oprogramowania jest znacznie tańsze niż budowanie fizycznych sal lekcyjnych, które wymagają ogrzewania, chłodzenia i konserwacji. Stosunek uczniów do nauczycieli w wirtualnej klasie może łatwo wzrosnąć do 35 do jednego lub więcej. Potencjał oszczędności kosztów jest znaczny. Można wyobrazić sobie szkoły hybrydowe dla głuchoniemych i niewidomych, w których wirtualne szkolenie wzmocniłoby nauczanie na żywo, a uczniowie spędzaliby część czasu z instruktorami na żywo iw zwykłych klasach. Wyszukiwanie w sieci "przeciętnego czesnego w college'u" znalazło analizę CNN Money z 26 października 2011 r., który wykazał, że roczne koszty czesnego w stanowych i gminnych szkołach wyższych i uniwersytetach wynosiły około 8 244 USD rocznie. Wydatki na życie wynosiły około 13 203 USD rocznie, przy całkowitych kosztach 21 447 USD rocznie. Czesne na prywatnych uniwersytetach wynosiło średnio 28,500 USD rocznie, a koszty życia 13,724 USD rocznie, co daje całkowity roczny koszt 42,224 USD rocznie. Zakładając, że koncepcje wirtualnego uniwersytetu zostały zastosowane do normalnych studiów licencjackich, prawdopodobne roczne koszty czesnego mogą wynosić tylko około 1500 USD rocznie. Nie byłoby żadnych kosztów infrastruktury fizycznej, w połączeniu ze znacznie większym stosunkiem liczby studentów do wydziałów niż w przypadku prawdziwych uniwersytetów. Wydatki na życie mogą, ale nie muszą być niższe dzięki szkoleniom wirtualnym. Jednak rzeczywista wartość szkolenia wirtualnego byłaby tylko częściowo oparta na redukcji kosztów. Jest to teoretycznie możliwe i potrzebne są badania, aby udowodnić, że efektywność edukacyjna wirtualnej edukacji byłaby równa, a być może przewyższałaby skuteczność zwykłej edukacji w klasie. Na przykład szkolenie immersyjne można łatwo przeprowadzić metodami wirtualnymi, ale jest ono kosztowne przy użyciu instrukcji na żywo. Wyrafinowane narzędzia do nauki, obejmujące animacje i dynamiczne symulacje, są łatwe do zrealizowania za pomocą metod wirtualnych, ale rzadko są one nawet próbowane przy użyciu instrukcji na żywo. Kontynuacja nauki w weekendy i w czasie wolnym jest łatwa dzięki metodom wirtualnym, ale bardzo trudna w przypadku nauczania na żywo. Najważniejsze jest to, że istnieją technologie, które umożliwiają znaczący postęp techniczny w edukacji zawodowej. Niektóre z tych samych technologii można z powodzeniem zastosować w przypadku specjalnych potrzeb edukacyjnych, takich jak nauczanie osób niewidomych i niesłyszących. Ostatecznie technologie te mogłyby objąć wiele form edukacji obejmującej wiele zawodów.

Inteligentni agenci

W kontekście naszym, inteligentny agent to narzędzie programowe, które skanuje sieć w poszukiwaniu określonych tematów i cytatów. Jednak nie tylko zwróciłby linki i strony internetowe. Zamiast tego inteligentny agent użyłby sztucznej inteligencji i sieci neuronowych do analizy i zagęszczenia niektórych informacji i zwraca aktualne informacje podsumowujące. Do pewnego stopnia nowe narzędzie wyszukiwania Wolfram Alpha działa jako inteligentny agent dokładnie w ten sposób. Autor znalazł w sieci ciekawy przykład wyszukiwania za pomocą tego narzędzia. Pytanie brzmiało: "Jakie są składniki hamburgerów McDonald's? "Zamiast podawać tylko linki do stron internetowych i odpowiednich artykułów, narzędzie zwróciło aktualną listę składników, w tym produkty mięsne, sól, cukier i oleje, wraz z informacjami na temat kalorii, zawartości tłuszczu, cholesterolu i innych istotnych tematów. Trudno sobie wyobrazić, by jeden inteligentny agent był kompetentny we wszystkich dyscyplinach. To, co prawdopodobnie wydarzy się od teraz do końca dekady, może być serią indywidualnych inteligentnych agentów, które są wysoce zoptymalizowane pod kątem wyszukiwania i relacjonować określone tematy. Niektóre z rodzajów tematów, w których inteligentne czynniki byłyby użyteczne, mogą obejmować eksperymentalne terapie zaburzeń immunologicznych, porównawcze koszty i strumienie przychodów dla firm i produktów open source, porównawcze mocne i słabe strony programów ubezpieczeń zdrowotnych we wszystkich krajach, względne uczenie się krzywych i gęstości defektów popularnych języków programowania oraz skuteczność systemów kontroli ruchu lotniczego w każdym kraju Biorąc pod uwagę ogromną i rosnącą masę danych dostępnych obecnie w sieci, żadna osoba nie jest w stanie pozostać na bieżąco nawet w swojej własnej dyscyplinie . Dobry zestaw inteligentnych agentów, który stale skanuje i podsumowuje ważne informacje, byłby dobrodziejstwem dla naukowców, studentów, pracowników biznesowych i technicznych, cywilnego personelu rządowego i planistów wojskowych. Biorąc pod uwagę ogromną i rosnącą masę danych dostępnych obecnie w Internecie, żadna pojedyncza osoba nie może być na bieżąco nawet w swojej własnej dyscyplinie. Dobry zestaw inteligentnych agentów, który stale skanuje i podsumowuje ważne informacje, byłby dobrodziejstwem dla naukowców, studentów, pracowników biznesowych i technicznych, cywilnego personelu rządowego i planistów wojskowych.

Urządzenia medyczne

Wpływ komputerów i oprogramowania na praktykę medyczną był ogromny. Jest to szczególnie prawdziwe w przypadku wielu nowych rodzajów małych urządzeń medycznych, które można wszczepiać chirurgicznie, takich jak implanty ślimakowe, które przywróciły słuch tysiącom głęboko niesłyszących pacjentów. To, czego możemy się prawdopodobnie spodziewać przed końcem dekady, to dodatkowe odmiany wszczepianych urządzeń. Jednym z nowych urządzeń medycznych, które są już badane, byłby implant oczny przywracający przynajmniej częściowy wzrok niewidomym. Ta sama lub podobna technologia może być również skuteczna w naprawianiu uszkodzeń kręgosłupa i być może przywracaniu mobilności pacjentom sparaliżowanym z powodu urazów kręgosłupa. Tak się składa, że aparaty słuchowe są drogimi urządzeniami i, ze względu na udany lobbing, nie są objęte normalnym ubezpieczeniem zdrowotnym ani Medicare. W rezultacie aparaty słuchowe, których produkcja kosztuje około 20 dolarów za sztukę, są sprzedawane po około 2000 do 4000 dolarów za sztukę. Producenci aparatów słuchowych nie chcą ubezpieczenia, ponieważ obawiają się, że ceny spadną. Firmy ubezpieczeniowe nie chcą pokrywać wysokich kosztów aparatów słuchowych, ponieważ wiedzą, że producenci chcą utrzymać wysokie ceny. (Rząd, który nadzoruje Medicare, wydaje się być bezsilny i nieudolny, jeśli chodzi o równoważenie świadczeń pacjentów z wpłatami na cele polityczne i przekonującym lobbowaniem). Ciekawe alternatywne rozwiązanie jest technicznie możliwe i rzeczywiście, prototypy już istnieją. Ten nowy model aparatu słuchowego wprowadziłby główne oprogramowanie do regulacji głośności, tonu i szumów tła w smartfonie. Urządzenie, które trafia do ucha pacjenta, musiałoby być tylko stosunkowo prostym odbiornikiem, wzmacniaczem i głośnikiem, prawdopodobnie zbudowanym ze standardowych komponentów za bardzo niską cenę. W rzeczywistości takie urządzenia można dziś kupić w celach rozrywkowych za 15 USD lub mniej. Jedną z potencjalnych korzyści ubocznych używania smartfona jako aparatu słuchowego może być kierowanie innych rodzajów sygnałów, takich jak muzyka, audycje alarmowe i ewentualnie dźwięk z telewizora, bezpośrednio do aparatu słuchowego przez Bluetooth lub inną formę transmisji bezprzewodowej krótkiego zasięgu. . To, czy podobna technologia będzie działać z implantami ślimakowymi, wymaga dalszych badań. Innym możliwym postępem medycznym, choć prawdopodobnie nie obserwowanym w tej dekadzie, byłoby opracowanie submikronowych nanourządzeń, które byłyby umieszczane w pacjentach. Mogłyby być zdalnie sterowane lub być może w pewnym momencie stały się autonomiczne. Ich celem byłoby działanie jako fagi i poszukiwanie uciążliwych warunków, takich jak bakterie boreliozy, oporne na antybiotyki czynniki zakaźne i, być może w pewnym momencie, komórki rakowe. Te nanourządzenia byłyby prawdopodobnie urządzeniami przeznaczonymi do jednego celu, które działałyby do czasu zniszczenia ich celów, a następnie urządzenia zostałyby usunięte. Komputery i oprogramowanie wprowadziły już duże ulepszenia w urządzeniach medycznych i procedurach diagnostycznych, a także dokonały jeszcze bardziej ekscytujących postępów są technicznie możliwe.

Analityka predykcyjna

Analityka predykcyjna lub wykorzystywanie informacji historycznych do przewidywania przyszłych trendów jest znacznie starsza niż era komputerów. W rzeczywistości nieformalne prognozy pogody i prognozy cyklu upraw prawdopodobnie sięgają wstecz ponad tysiąc lat. Jednak współczesne prognozy pogody oparte na modelu matematycznym i statystycznym są zaskakująco nowe. Lewis F. Richardson był matematykiem i meteorologiem, który jako pierwszy sformalizował matematykę prognozowania pogody. Jego praca na temat "Prognozowanie pogody przez proces numeryczny" została opublikowana w 1922 r., czyli przed dziesięcioleciami opisanymi w tej książce, a także na długo przed komputerami i oprogramowaniem, chociaż dostępne były kalkulatory mechaniczne. Chociaż Richardson był zaniepokojony niedokładnymi danymi przekazywanymi przez stacje naziemne, jego podstawowa matematyka utorowała drogę dla nowoczesnych prognoz pogody. Richardson był także pacyfistą i napisał inne interesujące książki, w których wykorzystano analitykę predykcyjną do analizy wybuchów wojen. Studiował ponad 200 wojen. Napisał dwa klasyczne artykuły o statystycznym pochodzeniu wojen: "Broń i niepewność" w 1949 r. I "Statystyki śmiertelnych kłótni" w 1950 r. Richardson zauważył, że kraje pogrążone w wyścigu zbrojeń stały się połączonym systemem oscylacyjnym. Odkrył, że wraz ze wzrostem rocznych kosztów broni i obrony w pewnym momencie koszty te będą tak wysokie, że nie będą mogły wzrosnąć. Którykolwiek kraj osiągnął punkt, w którym wydawałby tyle pieniędzy na broń, że niszczyłby swoją cywilną gospodarkę, zaatakowałby jako pierwszy. Przyczyną tej agresji jest to, że kraj wiedział, że jego koszty osiągnęły ostateczny limit, ale nie wiedział, czy rywal osiągnął limit. Analizy Richardsona z 1949 i 1950 roku brzmią tak, jakby można je było zastosować dzisiaj do Korei Północnej. Korea Północna osiągnęła już punkt, w którym wydatki na broń zaszkodziły jej cywilnej gospodarce, która nigdy nie była bardzo silna. Prawdopodobnie jednym z powodów, dla których Korea Północna jest tak agresywna, jest właśnie to jest na poziomie maksymalnym lub prawie maksymalnym dla broni. To może łatwo doprowadzić do nieprzemyślanego ataku na Koreę Południową, której gospodarka jest jedną z najsilniejszych w Azji. Przewidywanie orbit planet sięga początków Johannesa Kepplera, który urodził się w 1571 roku, a zmarł w 1630 roku. Keppler oparł się na bardzo dokładnych obserwacjach astronoma Tycho Brahe'a jako podstawy swoich obliczeń. Podczas II wojny światowej pojawienie się badań operacyjnych sformalizowało część matematyki używanej do analizy predykcyjnej i zapewniło siłom aliantów rzeczywiste korzyści w zakresie optymalizacji logistyki i radzenia sobie ze złożonymi problemami wojskowymi, takimi jak rozmiary konwojów czy ataki na łodzie podwodne. Komputery i oprogramowanie przyspieszyły obliczenia i zaczęły dodawać nowe formularze. Na przykład parametryczne narzędzia do szacowania kosztów oprogramowania powstały w latach siedemdziesiątych XX wieku, a wiele z nich omówiono w tej książce. Banki i instytucje finansowe również wykorzystują analitykę predykcyjną do radzenia sobie z ryzykiem związanym z różnego rodzaju inwestycjami, w tym kredytami konsumenckimi. Kryzysy finansowe 2008 roku pokazały jednak wady algorytmów, a kilka poważnych zakłóceń na giełdzie potwierdza, że analityka predykcyjna nie jest w żaden sposób doskonała. W tej książce cytowanych jest kilkanaście firm zajmujących się analizą predykcyjną w różnych dziesięcioleciach, przy czym ostatnie dziesięciolecia wykazują tendencję do rozszerzania przewidywanych tematów. Obecnie analizy predykcyjne są powszechne w bankach, ubezpieczeniach, funduszach hedgingowych i każdym sektorze biznesowym, w którym duże sumy pieniędzy są narażone na ryzyko zewnętrzne. Jak większość czytelników, którzy zwracają uwagę na sprawy krajowe i stanowe, wie, że rząd federalny i partie polityczne nie wydają się mieć pojęcia o kosztach i korzyściach nowych programów federalnych, takich jak "Obamacare". Na przykład Obamacare zwiększy liczbę pacjentów o około 30%, ale nie zwiększy liczby lekarzy, dentystów ani pielęgniarek. To matematyczna pewność, że niektórzy nowi pacjenci nie zostaną zaakceptowani przez lekarzy, że niektórzy specjaliści będą przepełnieni, a czas oczekiwania na zabiegi planowe będzie znacznie dłuższy. Wyższe koszty niektórych procedur medycznych doprowadziły już do tego, że niektóre szpitale odmawiają wykonywania podstawowych zabiegów, takich jak poród położniczy, ponieważ tracą pieniądze na każdym dziecku. Nikt w żadnej ze stron nie przejmował się obliczaniem tak oczywistych zjawisk. W trakcie pisania tej książki coraz więcej interesujących grup analityków predykcyjnych dostarcza coraz bardziej wyrafinowane usługi i modele klientom korporacyjnym. Jednak agencje rządowe opóźniają sektor cywilny w korzystaniu z analiz predykcyjnych o co najmniej 10 lat, z wyjątkiem planowania wojskowego i niektórych agencji bezpieczeństwa. Normalne agencje cywilne zwykle się mylą i spóźniają się ze wszystkim, co przewidują. Wiele rządów stanowych i samorządowych szybko zmierza w kierunku bankructwa z powodu stale rosnącego zadłużenia z powodu zbyt luksusowych systemów emerytalnych (tj. Od 3% do 6% dostosowania kosztów utrzymania i bezpłatnej dożywotniej opieki medycznej dla emerytowanych pracowników i niektórych krewnych). Z prostej matematyki można przewidzieć, że korzyści takie jak te przyznawane są coraz większej liczbie odbiorców, którzy żyją dłużej, a przechodzenie na młodszą emeryturę musi prowadzić do bankructwa. Nie ma innego celu. Wybrany rząd prawdopodobnie nie ma kwalifikacji do rozwiązania tych problemów, które stworzył, ponieważ politycy przywiązują większą wagę do lobbystów i partykularnych interesów niż do faktycznego dobra elektoratu. Urzędnicy mianowani i pobierający pensję mogą wiedzieć o problemach, a niektórzy mogą znać rozwiązania, ale brakuje im uprawnień do uchylenia złych wyroków wybieranych urzędników. Biorąc pod uwagę ogromny zasięg sieci, neutralna lub niegroźna organizacja non-profit mogłaby zastosować analizy predykcyjne do federalnych, stanowych i gminnych przepisów i regulacji przed ich przyjęciem. Organizacja non-profit sama w sobie nie miałaby statusu prawnego, ale wykorzystałaby potęgę sieci, aby dostosować miliony obywateli, aby zmusić wybranych przywódców do bardziej racjonalnych wzorców zachowań, takich jak faktyczne stosowanie analiz predykcyjnych przed uchwaleniem przepisów, które spowodują podniesienie podatków i cierpienie większości wyborców i podatników. Szkoda, że taka organizacja non-profit korzystająca z analiz predykcyjnych nie była w stanie zająć się okresowymi federalnymi wahaniami pułapu budżetowego, sekwestrami, Obamacare i różnymi programami uprawnień. Szkoda, że państwowe organizacje non-profit korzystające z analiz predykcyjnych nie były dostępne, aby poradzić sobie z reformami emerytalnymi, opłatami za nielegalne studia poza stanem dla nielegalnych cudzoziemców i kosztami opieki społecznej. Analizy predykcyjne na szczeblu rządowym przypominają grecką legendę o Cassandrze. Otrzymała dar prawdziwego proroctwa połączonego z przekleństwem, że nikt jej nie uwierzy.

Komputery do noszenia

Jak wielu czytelników wie, Google pracował nad prototypem komputera do noszenia o nazwie Google Glass. Urządzenie wygląda jak zwykła para okularów, ale zawiera wbudowany komputer z soczewkami, które mogą wyświetlać informacje. Koncepcja ta została przyjęta zarówno przychylnymi, jak i nieprzychylnymi komentarzami. Pozytywne komentarze są takie, że nowe urządzenie może dostarczać użytecznych informacji, takich jak ostrzeżenia pogodowe, problemy z ruchem drogowym i komunikaty alarmowe. Negatywne komentarze są takie, że widoki mogą zasłaniać lub zakłócać zwykłe lub peryferyjne widzenie, a tym samym powodować wypadki samochodowe. W rzeczywistości prawa i przepisy zabraniające noszenia okularów Google w pewnych okolicznościach są już publikowane. Jednak nie ma wystarczających dowodów empirycznych, aby wiedzieć, czy poglądy przychylne czy niekorzystne są najbardziej realistyczne. Ocena urządzenia jest przedwczesna, ponieważ nie jest jeszcze dostępna na rynku, ale koncepcja ma znaczenie zarówno techniczne, jak i społeczne. Myśląc o konsekwencjach okularów Google, jest dość oczywiste, że komputery są teraz na tyle małe, że można je łatwo osadzić w ubraniu lub nosić jako okulary. Pytanie brzmi, jakie korzyści mogą zapewnić w porównaniu ze zwykłymi komputerami, tabletami i smartfonami? Istnieje wiele hipotetycznych funkcji, które mogą, ale nie muszą być zawarte w okularach Google, ale z pewnością są technicznie możliwe. Pierwszą i najbardziej przekonującą cechą byłaby możliwość monitorowania przez okulary stanu zdrowia osoby je noszącej. Czynniki takie jak tętno, temperatura, ciśnienie krwi i inne warunki powierzchniowe mogą być monitorowane w czasie rzeczywistym. Za pomocą akcelerometru komputer może również sprawdzać wypadki, takie jak upadki lub kolizje. W nagłym przypadku medycznym może automatycznie wezwać pomoc, co może nie być możliwe, jeśli noszący miał udar lub zawał serca i był nieprzytomny. Drugim potencjalnym zastosowaniem może być poprawa widzenia w nocy poprzez wzmocnienie światła. Jest to być może trochę skomplikowane dzisiaj, ale powinno być możliwe do wykonania pod koniec dekady. Potencjalnym minusem jest to, że większość form wzmocnienia światła do noktowizora jest nieco nieporęczna, ale jest to prawdopodobnie problem możliwy do rozwiązania w przyszłości. Trzecie potencjalne zastosowanie byłoby bardzo cenne dla osób niedosłyszących. Ta funkcja wyświetla napisy do filmów i programów telewizyjnych, które obecnie nie mają napisów. Również wartościowe dla użytkowników niedosłyszących byłoby włączenie możliwości, takich jak te oferowane przez Dragon. Naturalnie mówione lub tłumaczone wypowiadane słowa na widoczny tekst pojawiały się na okularach. To natychmiastowe tłumaczenie pozwoliłoby osobie niesłyszącej zrozumieć informacje werbalne w trybie zbliżonym do czasu rzeczywistego. W rzeczywistości komputery są obecnie wystarczająco szybkie i na pewno będą jeszcze szybsze pod koniec tej dekady, tak aby tłumaczenie w czasie rzeczywistym mogło z łatwością nastąpić. Pomysłowi temu może sprzeciwić się społeczność głuchoniemych, ale ponieważ obecnie nie istnieje, jest to czynnik nieznany. Inną usługą dla okularów Google może być synchronizacja z aparatami słuchowymi lub implantami ślimakowymi, aby ważne wiadomości, takie jak ostrzeżenia o burzy lub polecenia ewakuacji przychodzące przez Internet, mogły być kierowane do aparatów słuchowych i implantów ślimakowych, a także wyświetlane, zakładając, że okulary mają Bluetooth lub inną łączność krótkiego zasięgu. Po przechwyceniu wypowiedzianych słów możliwe byłoby również użycie automatycznego programu do tłumaczenia na język naturalny. Byłoby to bardzo przydatne dla międzynarodowych podróżników. Teoretycznie możliwe jest posiadanie pewnego rodzaju zdolności science fiction, w której na przykład rozmowa między osobą mówiącą po japońsku a osobą mówiącą po angielsku byłaby jednocześnie tłumaczona na oba języki. Gdyby obie strony nosiły okulary Google, mogłyby prowadzić coś, co przypominałoby normalną rozmowę. Aplikacja Google Translate już to robi, a połączenie jej z narzędziem werbalnym podobnym do Dragon sprawiłoby, że globalne podróże byłyby o wiele wygodniejsze niż obecnie. W rzeczywistości, gdyby przetłumaczone rozmowy można było również przekierować do aparatów słuchowych i implanty ślimakowe, dwie głuche osoby, które mówią zupełnie różnymi językami, mogą być w stanie dość dobrze rozmawiać. Co nieco zaskakujące, okulary Google byłyby również korzystne dla osób niewidomych, gdyby mogły zawierać czujniki i procedury sztucznej inteligencji oraz mogły komunikować się z aparatami słuchowymi lub urządzeniami dźwiękowymi. Na przykład osoba niewidoma zbliżająca się do skrzyżowania może otrzymać ustne ostrzeżenie, że światła drogowe są czerwone. Możliwe byłoby również, że obracając głowę w lewo i w prawo, okulary dawałyby dodatkowe ostrzeżenia, takie jak "automatyczne zbliżanie się z dużą prędkością: niebezpieczeństwo". Kolejną funkcją dla niewidomych byłaby możliwość skanowania tekstu i przekształcania go w wypowiadane słowa. Może to umożliwić osobie niewidomej noszącej okulary Google "czytanie" zwykłych książek i e-booków, po prostu celując w nie okularami. Okulary Google mogą być również przydatne dla osób z niepełnosprawnością fizyczną, na przykład z porażeniem czterokończynowym. Jeśli okulary reagują na polecenia głosowe, osoby, które mogą mówić, mogą ich używać do komunikacji. Istnieją inne przyszłe możliwości poza omawianymi tutaj, ale wszystkie są dość ważne dla potencjalnych użytkowników z niepełnosprawnościami fizycznymi.

Prognozowany rozwój oprogramowania w latach 2010-2019

Pod koniec tej dekady aplikacje chmurowe i oprogramowanie jako usługa (SaaS) powinny stanowić 50% wszystkich nowych projektów oprogramowania. Jednak utrzymanie i ulepszenia starszych aplikacji będzie stanowić najwyższy poziom 65% wszystkich projektów oprogramowania. Aplikacje na smartfony i tablety będą prawdopodobnie stanowić ponad 70% wszystkich nowych aplikacji do użytku osobistego.

Pod koniec dekady ten sam projekt z 1000 punktów funkcyjnych może wyglądać następująco:

•  Kod źródłowy dla 1000 punktów funkcyjnych: 26 667 instrukcji kodu logicznego
•  Języki programowania: Objective-C i Go
•  Procent ponownego wykorzystania: 0% do 85%
•  Metodologia: hybrydowa (TSP, RUP, Agile
•  Wydajność: 12,00 punktów funkcyjnych na miesiąc pracownika
•  Potencjał defektu: 2,50 defektu na punkt funkcyjny
•  Skuteczność usuwania defektów (DRE): 96%
•  Dostarczone wady: 0,10 defektów na punkt funkcyjny
•  Stosunek personelu programistycznego do utrzymania:
•  Rozwój: 30%
•  Konserwacja: 70%
Poniżej przedstawiono przewidywane dane podstawowe na 2015 r .:
•  Średni poziom języka: 12.00
•  Liczba języków programowania: 4500
•  Instrukcje logiczne na punkt funkcyjny: 26,67
•  Średnia wielkość aplikacji: 400 punktów funkcyjnych
•  Średnia wielkość aplikacji: 10 688 instrukcji kodu logicznego
Rozwój oprogramowania w tej dekadzie doświadczył szybkiego wzrostu w kierunku rozwoju Agile, ale inne metody, takie jak RUP i TSP, również dają dobre wyniki.

Podsumowanie

W tej dekadzie chmury i tłumy stanowią największą liczbę startupów. Przetwarzanie w chmurze z pewnością będzie się nadal rozwijać. Finansowanie społecznościowe i analiza tłumu są obiecujące, ale trudno jest określić, z jakimi problemami radzą sobie dobrze, a jakich z problemami. Analityka predykcyjna ma również dużą liczbę startupów, z których niektóre wydają się szybko rosnąć. Ta dziedzina jest synergiczna i zgodna z dużymi zbiorami danych i inteligentnymi agentami. W rzeczywistości suma wartości tych trzech pracujących razem jest znacznie większa, niż gdyby były używane niezależnie. Zaczynają się pojawiać wyspecjalizowane sieci społecznościowe, w których muzycy i autorzy są jednymi z pierwszych. Na przykład niedawne wyszukiwanie w Google ujawniło 25 różnych sieci społecznościowych zorientowanych na muzyków. Interesujący dla autorów artykuł o nazwie "Predators and Editors" ostrzega przed pozbawionymi skrupułów wydawcami i agentami literackimi. Można się spodziewać, że nastąpi wiele innych rodzajów. Podczas gdy Agile rozwija się szybciej niż inne metody programowania (a wodospad skurczył się szybciej), metody hybrydowe zyskują na popularności. Ponieważ wszystkie główne metody mają kilka przydatnych tematów, warto spróbować wybrać najlepszą z każdej z nich. Metodologie hybrydowe, które wykorzystują najlepsze cechy różnych metod, takich jak Agile, TSP i RUP, często dają wyniki, które wykazują synergię lub połączenie jest nieco lepsze niż oryginalne. W innych przyszłych trendach prawdopodobnie nastąpi wzrost wirtualizacji oraz wzrost liczby aplikacji i usług związanych z chmurą. SEMAT, organizacja non-profit, podejmuje próbę formalnego przeprojektowania inżynierii oprogramowania. Do końca 2015 roku niektóre z jej nowych koncepcji powinny zacząć rozpowszechniać się w szkołach inżynierii oprogramowania.


Powrót

Problemy współczesnego oprogramowania



Komputery i oprogramowanie wniosły do współczesnego świata wiele nowych możliwości. Ale przyniosły też wiele nowych rodzajów problemów, z których część nigdy wcześniej nie istniała w całej historii ludzkości. W tym postu przedstawiono krótką historię poważnych awarii oprogramowania od lat sześćdziesiątych XX wieku do ery nowoczesnych. Każdy problem zostaje wyjaśniony, wyciągnięte wnioski są omówione i przedstawiono możliwe rozwiązania podobnych przyszłych problemów. Analiza poważnych awarii oprogramowania Omówimy istotne historyczne awarie oprogramowania. Chodzi o to, aby przeanalizować każdą awarię i rozważyć, jakich lekcji z niej nauczył i jakie formy zapobiegania defektom lub ich usuwania mogły zapobiec problemom. Ponieważ awarie w tym rozdziale są znane i opublikowano o nich informacje, stanowią one przydatny zestaw historycznych punktów danych do retrospekcji analizy jakości. Poniżej przedstawiono wiele form zapobiegania defektom i metod ich usuwania:

• Testy akceptacyjne
•  Zautomatyzowana analiza statyczna kodu dla popularnych języków
•  Zautomatyzowana analiza statyczna tekstu pod kątem wymagań i projektu
•  Testy beta z klientami
•  Inspekcje kodu
•  Testowanie komponentów
•  Narzędzia do debugowania

•  Inspekcje projektów
•  Testowanie funkcji
•  Matematyczne projektowanie przypadków testowych na podstawie projektu eksperymentów
•  Programowanie w parach
•  Ocena współpracownika
•  Test wydajności
•  Dowody poprawności
•  Wdrażanie funkcji jakości (QFD)
•  Testowanie regresji
•  Kontrole wymagań
•  Modelowanie wymagań
•  Testowanie oparte na ryzyku
•  Testy bezpieczeństwa
•  Testowanie podprogramów
•  Testowanie łańcucha dostaw
•  Testowanie systemu
•  Testów jednostkowych
•  Test użyteczności

Ciekawym zjawiskiem jest to, że wszystkie problemy wystąpiły nawet po kilku rodzajach testów. Synergistyczne połączenie inspekcji przedtestowych, analizy statycznej przed testem, formalnych testów matematycznych i testów opartych na ryzyku z udziałem certyfikowanego personelu testowego mogłoby prawdopodobnie wyeliminować prawie wszystkie omówione tutaj błędy. Zwróć uwagę, że omówione tutaj awarie i problemy to tylko wierzchołek góry lodowej. Podobnych problemów jest tysiące i pojawiają się one prawie codziennie. Wydaje się, że niektóre formy niepowodzeń stają się coraz częstsze i być może nasilają się. Na przykład u każdego większego producenta często zdarzają się wycofania z rynku z powodu problemów z oprogramowaniem. Istnieją również wycofania wielu innych rodzajów sprzętu ze sterowaniem komputerowym

1962: Awaria oprogramowania nawigacyjnego Mariner 1

Sonda Mariner 1 dla Wenus zboczyła z kursu 293 sekundy po starcie. Widocznym powodem był brak paska indeksu górnego w jednej linii kodu, co powodowało nadmierne odchylenia we wzorcach sterowania.
Wyciągnięte wnioski: główna lekcja płynąca z tego niepowodzenia jest taka, że pojedynczy znak w jednej linii kodu może powodować poważne problemy z oprogramowaniem.
Unikanie problemu: problem mógł zostać znaleziony poprzez programowanie w parach, inspekcję kodu, modelowanie wymagań lub analizę statyczną. Żadne wymagania modelowania ani analiza statyczna nie istniały w 1962 r., ale w dzisiejszym świecie obie metody prawie na pewno znalazłyby tak oczywisty błąd składniowy. Znalezienie problemu za pomocą testów powinno nastąpić, ale oczywiście nie. Sekwencja testowa obejmująca reakcje kontrolne na dane wejściowe powinna była załatwić sprawę.

1978: Upadek Hartford Coliseum

Hartford Coliseum zostało zaprojektowane przy użyciu pakietu oprogramowania do projektowania wspomaganego komputerowo (CAD). Projektant przyjął tylko pionowe naprężenia na słupach wsporczych. Kiedy jedna kolumna zawaliła się pod ciężarem śniegu, siły boczne zostały przyłożone do otaczających kolumn, które nie zostały zaprojektowane do przenoszenia naprężeń bocznych.
Wyciągnięte wnioski: lekcja płynąca z tej porażki dotyczy bardziej ludzkiego umysłu niż samego oprogramowania. Założenie o czystej kompresji pionowej było błędne i był to błąd ludzki.
Unikanie problemu: ten problem można było wykryć podczas inspekcji i prawdopodobnie poprzez modelowanie wymagań. Jest mało prawdopodobne, aby problem został znaleziony za pomocą analizy statycznej, ponieważ był to problem logiki i projektu, a nie składni. Ponieważ problem dotyczył projektu, programowanie w parach mogło nie zadziałać. Idealnie byłoby, gdyby ktoś w zespole inspekcyjnym lub modelarskim z doświadczeniem w konstrukcjach zaprojektowanych na ciężki śnieg poszerzył założenia.Znalezienie problemu za pomocą testów powinno nastąpić, ale jest zastrzeżenie. Gdyby ten sam projektant z błędnym założeniem napisał przypadki testowe, nie włączyłby testów na naprężenia boczne. Certyfikowany profesjonalny tester mógł to znaleźć, ale być może nie. Testowanie oparte na ryzyku w dzisiejszym świecie mogło znaleźć problem.

1983: Radziecki system wczesnego ostrzegania

W 1983 r. radziecki system wczesnego ostrzegania fałszywie zidentyfikował pięć nadlatujących pocisków, które przypuszczalnie zostały wystrzelone przez Stany Zjednoczone. Zasady zaangażowania wymagały odwetowego wystrzelenia rakiet przeciw Stanom Zjednoczonym, co mogło doprowadzić do III wojny światowej. Na szczęście sowiecki oficer dyżurny był osobą inteligentną i uznał, że Stany Zjednoczone nigdy nie zaatakują tylko pięcioma pociskami, więc doszedł do wniosku, że to fałszywy alarm. Najwyraźniej system wczesnego ostrzegania był zdezorientowany przez światło słoneczne odbite od chmur.
Wyciągnięte wnioski: lekcja wyciągnięta z tego problemu jest taka, że złożone problemy o wielu aspektach są trudne do urzeczywistnienia w oprogramowaniu bez pomijania czegoś. Drugą lekcją jest to, że błędy w głównych zastosowaniach wojskowych mogą mieć ogromne niezamierzone konsekwencje, które mogą spowodować śmierć milionów ludzi.
Unikanie problemu: ten problem mógł zostać wykryty podczas inspekcji z udziałem doświadczonego personelu wojskowego w ramach zespołu inspekcyjnego. Problem mógł również zostać znaleziony podczas modelowania wymagań. Jest mało prawdopodobne, aby analiza statyczna znalazła problem, ponieważ był to problem logiki, a nie problem składni. Programowanie w parach prawdopodobnie też by nie zadziałało, ponieważ problem wynikał z wymagań i projektu. Znalezienie problemu za pomocą testów oczywiście nie wystąpiło i nie jest pewne, czy testowanie było najlepszym rozwiązaniem. Wydawało się, że problem polegał na tym, że nie zwracano wystarczającej uwagi na fałszywe alarmy.

1986: Zatrucie promieniowaniem Therac 25

W latach 1985-1987 wielu pacjentów leczonych urządzeniem do radioterapii Therac 25 otrzymało dawki znacznie wyższe niż przepisane: niektórzy byli 100 razy większe. W tej maszynie były dwa poziomy promieniowania: duża moc i mała moc. Starsze maszyny tej samej firmy miały blokady sprzętowe, które zapobiegały przypadkowemu włączeniu trybu dużej mocy. W Therac 25 blokady sprzętowe zostały usunięte i zastąpione blokadami programowymi, które nie działały w pewnych warunkach. Co gorsza, najwyraźniej konsola operacyjna nie informowała operatorów, kiedy używana była duża moc. Pojawił się komunikat o błędzie i maszyna zatrzymała się, ale informowała tylko o "usterce" i nie informowała, na czym polega problem. Operatorzy mogliby wtedy nacisnąć przycisk, aby kontynuować podawanie promieniowania. Z powodu poważnych obrażeń pacjentów problemy Therac 25 były szeroko badane przez kilka agencji rządowych.
Wyciągnięte wnioski: wnioski wyciągnięte z tego problemu są takie, że wyroby medyczne, które mogą zabijać lub szkodzić pacjentom, wymagają najnowocześniejszej kontroli jakości. Therac 25 najwyraźniej nie sprawdzał się w kontroli jakości, a rządowe agencje regulacyjne nie nadzorowały ich odpowiednio.
Unikanie problemów: Problemy z Therac 25 można było prawdopodobnie wykryć poprzez dowolną kombinację inspekcji, analizy statycznej i testów opartych na ryzyku. Późniejsze dochodzenia przeprowadzone przez agencje rządowe wykazały niedbałość we wszystkich formach kontroli jakości. Najwyraźniej nie było formalnych inspekcji, analizy statycznej, analizy ryzyka i znacznie mniej rygorystycznych testów niż było to konieczne. Programowanie w parach nie zadziałałoby, ponieważ problem obejmował fizyczną konsolę operacyjną i nieodpowiednie przeszkolenie personelu, a także problemy z oprogramowaniem.

1987: Krach na Wall Street

W poniedziałek 19 października 1987 roku Dow Jones spadł średnio o 508 punktów, co oznacza największą jednodniową stratę w historii. Problemy są nieco niejasne, ale najwyraźniej długotrwała hossa została zachwiana przez różne dochodzenia Komisji Papierów Wartościowych i Giełd (SEC) oraz inne przyczyny utraty zaufania. Gdy żywi inwestorzy zaczęli sprzedawać akcje, programowane oprogramowanie handlowe, które działało według schematów, zaczęło generować tak wiele zleceń sprzedaży, że różne systemy obrotu akcjami uległy awarii i miliony akcji zostały wystawione na sprzedaż, co pogłębiło panikę.
Wyciągnięte wnioski: Kluczowe wnioski z tego problemu są takie, że w dzisiejszym świecie oprogramowanie kontroluje tak wiele krytycznych operacji finansowych i rządowych, że błędy lub błędy mogą mieć ogromne konsekwencje i powodować problemy niemal natychmiast.
Unikanie problemu: ten problem można było wykryć podczas przemyślanych inspekcji, które obejmowały analizę limitów. Modelowanie wymagań również mogło znaleźć problem. Analiza statyczna prawdopodobnie nie znalazłaby problemu, ponieważ był to problem logiki i trendów, a nie kwestia składniowa. Testowanie mogło wykryć problem, ale tak się nie stało. Niektóre współczesne formy testowania, takie jak testowanie oparte na ryzyku, mogły napotkać ten problem.

1990: Zamknięcie linii telefonicznych AT&T

W 1990 roku powszechne zamknięcie linii telefonicznych AT&T trwało około dziewięciu godzin i spowodowało poważne zakłócenia w ruchu telefonicznym. W przypadku wielu linii lotniczych nie można było dokonać rezerwacji, a miliony połączeń, w tym niektóre połączenia alarmowe, nie mogły zostać zrealizowane. Wydawało się, że stało się tak, że jeden ze 114 centrów przełączających AT&T miał niewielki problem mechaniczny (nie oprogramowanie) i został na krótko wyłączony. Kiedy to centrum powróciło, wysłało wiadomość wygenerowaną przez oprogramowanie do wszystkich innych ośrodków, co spowodowało zamknięcie wszystkich z nich. Najwyraźniej w jednym wierszu kodu wystąpił błąd, który spowodował zamknięcie.
Wyciągnięte wnioski: lekcja z tej porażki jest taka, że duże, połączone ze sobą systemy zarządzane przez oprogramowanie są z natury rzeczy ryzykowne i wymagają skomplikowanych buforów i protokołów korekcji błędów.
Unikanie problemu: ten błąd mógł zostać wychwycony przez inspekcję kodu lub narzędzia do analizy statycznej. Wydaje się, że błąd dotyczy raczej składni niż logiki. Modelowanie wymagań nie wykryłoby błędu, ale mogłoby doprowadzić do prawdopodobnie bardziej niezawodnych protokołów sprawdzania błędów. Programowanie par jest niepewne dla tego problemu. Dlaczego ten problem nie został znaleziony podczas testowania, tak jak powinien, to interesujące pytanie. Komunikaty między centrami przełączania są oczywistym tematem do testowania. Testowanie oparte na ryzyku z udziałem certyfikowanych profesjonalnych testerów mogło wykryć problem.

1991: Błąd tarczy rakietowej Patriot

Pomimo wielu sukcesów podczas pierwszej wojny w Zatoce Perskiej, w 1991 roku, pocisk Patriot nie zatrzymał nadchodzącego Scuda, który wylądował w amerykańskiej bazie i zabił 28 żołnierzy, a 100 zranił. błąd zaokrąglenia, który spowodował zmianę czasu i chybienie.
Wyciągnięte wnioski: lekcja wyciągnięta z tego problemu jest taka, że każdy szczegół musi zostać zbadany podczas kontroli o znaczeniu krytycznym.
Unikanie problemu: ten problem z pewnością zostałby znaleziony podczas inspekcji kodu. Można było tego uniknąć dzięki modelowaniu wymagań. Programowanie w parach mogło również wykryć ten problem, chyba że błąd zaokrąglania został wprowadzony przy użyciu kodu pożyczonego lub wielokrotnego użytku, który został błędnie uznany za poprawny. Nie jest pewne, czy analiza statyczna wykryłaby ten błąd, ponieważ nie był to błąd składniowy i mógł zostać przeoczony. Testowanie powinno również wykryć ten błąd, ale tak się nie stało. Nowoczesne testy oparte na ryzyku mogły zidentyfikować problem.

1993: Problem działu Intel Pentium Chip Division

W 1993 roku odkryto, że nowy chip Intel Pentium po wydaniu zawiera błąd podczas dzielenia liczb zmiennoprzecinkowych. Błąd był niewielki, zaledwie ułamek procenta, i tak naprawdę nie wpłynął na wielu użytkowników. Jednak błąd dotyczył około pięciu milionów już zainstalowanych i używanych codziennie układów. Pierwsza odpowiedź Intela była nierozsądna: chciał, aby użytkownicy udowodnili, że potrzebują lepszej dokładności niż dostarczony chip, aby otrzymać zamiennik. Spowodowało to poważną klapę w zakresie public relations. Intel ustąpił i dostarczył nowe chipy każdemu, kto o nie poprosił, zakładając, że klient kupił komputer z błędnym chipem.
Wyciągnięte wnioski: z tego problemu można wyciągnąć dwie lekcje. Jedno jest oczywiste: przed wydaniem upewnij się, że wszystkie operacje matematyczne działają tak, jak powinny. Druga lekcja jest taka, że gdy sprzedawca popełnia błąd, nie obciążaj konsumenta ciężarem dowodu, jeśli cenisz swoją reputację i chcesz być uważany za firmę etyczną.
Unikanie problemu: ten problem zostałby wykryty podczas inspekcji. Jest mało prawdopodobne, aby został znaleziony przez analizę statyczną lub modelowanie wymagań. Programowanie w parach prawdopodobnie nie zostałoby użyte ani nie rozwiązałoby problemu. Dlaczego podczas testów nie wykryto problemu? Możliwa przyczyna jest kombinatoryczna złożoność. Chip z tyloma obwodami, tranzystorami i funkcjami, co Pentium, może wymagać prawie nieskończonej liczby przypadków testowych, aby znaleźć wszystko.

1993: Opóźnienia na lotnisku w Denver

Zgodnie z pierwotnym planem, nowe lotnisko w Denver miało mieć najnowocześniejszy system obsługi bagażu, który byłby prawie w pełni skomputeryzowany i sterowany przez oprogramowanie. To, co faktycznie się wydarzyło, stało się klasyczną historią poważnej awarii oprogramowania, która wiąże się z ogromnymi kosztami i opóźnieniami. Ogólnie rzecz biorąc, problemy z oprogramowaniem i sprzętem z systemem bagażowym opóźniły otwarcie lotniska o około 16 miesięcy i kosztowały około 560 milionów dolarów. Jest to jeden z niewielu tematów dotyczących oprogramowania, które znalazły się w artykule w Scientific American. W końcu powstała okrojona wersja pierwotnego projektu obsługi bagażu działał i działał przez około pięć lat. Jednak koszty przekroczyły wartość i ostatecznie został zastąpiony przez konwencjonalny system bagażowy. Problemy związane z systemem bagażowym na lotnisku w Denver to zbiór typowych problemów występujących w dużych aplikacjach:

•  Optymistyczne szacunki kosztów i harmonogramu
• Niedocenianie błędów i usterek
• Brak formalnej analizy ryzyka
• Nadmierne i źle obsługiwane zmiany wymagań
• Niewystarczająca kontrola jakości, brak kontroli i analiz statycznych
• Źle zaprojektowane przypadki testowe
• Poważne luki w testowaniu
• Raporty o postępach, które ukrywały główne problemy
• Brak skutecznych planów tworzenia kopii zapasowych
•  Nie słuchanie porad ekspertów

System bagażowy na lotnisku w Denver jest jednym z najczęściej badanych problemów z programowaniem w historii. Pomimo licznych artykułów i raportów z mocą wsteczną, interesujące jest, że podobne problemy pojawiły się z obsługą bagażu na terminalu 5 Heathrow. Fessons wyciągnął wnioski: główne wnioski wyciągnięte z fiaska na lotnisku są takie, że optymistyczne szacunki, słaba kontrola jakości i słaba kontrola zmian nieuchronnie doprowadzą do opóźnień w harmonogramie, przekroczenia kosztów, możliwego zakończenia projektu i prawie pewnych spraw sądowych. Unikanie problemów: było tak wiele różnych rodzajów problemów z systemem bagażowym, że żadna jedna metoda nie mogłaby ich wszystkich znaleźć. Synergistyczne połączenie modelowania wymagań, wymagań przedtestowych i inspekcji projektu, statycznej analizy tekstu, statycznej analizy całego kodu, formalnego testowania opartego na formalnych planach testów i certyfikowanego personelu testowego prawdopodobnie zmniejszyłoby defekty do akceptowalnego poziomu. Programowanie w parach w tak złożonej architekturze, które obejmowało zarówno sprzęt, jak i oprogramowanie, prawdopodobnie miałoby dodano zamieszanie o niewielkiej wartości.

1996: Wybuch rakiety Ariane 5

Podczas swojego dziewiczego lotu w 1996 roku rakieta Ariane 5 i cztery satelity na pokładzie przewożone w celu rozmieszczenia zostały zniszczone ,kosztem około 500 milionów dolarów. Widocznym powodem problemu była próba konwersji danych prędkości z formatu 64-bitowego na format 16-bitowy. Brakowało miejsca i wystąpił stan przepełnienia, co spowodowało zamknięcie nawigacji. Lot trwał nieco ponad 36 sekund.
Wyciągnięte wnioski: wnioski płynące z tego problemu są takie, że wszystkie operacje matematyczne w systemach nawigacji muszą zostać zweryfikowane przed faktycznym uruchomieniem pojazdu.
Unikanie problemu: ten problem z pewnością zostałby znaleziony podczas inspekcji kodu, być może w ciągu zaledwie kilku minut. Można to również znaleźć za pomocą analizy statycznej, a także poprzez modelowanie wymagań lub programowanie w parach. Problemu oczywiście nie wykryto podczas testów, tak jak powinno. W tym przypadku prawdopodobnie były słabe założenia ze strony tego, kto napisał skrypty testowe i przypadki testowe, że przepełnienie nie wystąpi.

1998: Mars Climate Orbiter Crash

Po udanej podróży przez 286 dni z Ziemi na Marsa, orbiter klimatyczny wystrzelił swoje rakiety w celu przemieszczenia się po orbicie wokół Marsa. Algorytmy dla tych korekt zostały oparte na jednostkach imperialnych w funtach, a nie na jednostkach metrycznych w niutonach, jak określono w wymaganiach NASA. Ten błąd spowodował, że orbiter spadł o około 100 kilometrów niżej niż planowano, więc napotkał problemy atmosferyczne, które spowodowały przegrzanie i zawieszenie systemu, które doprowadziły do zderzenia statku z powierzchnią.
Wyciągnięte wnioski: Kluczową lekcją jest to, że wymagania należy sprawdzić i zrozumieć, aby mieć pewność, że trafią do kodu.
Unikanie problemu: gdyby zastosowano inspekcje, rozwiązałyby problem niemal natychmiast. Problem ten mógł znaleźć również modelowanie wymagań i analiza statyczna. Programowanie w parach mogło mieć, ale jeśli błąd wystąpił na początku projektu, programowanie w parach mogło go nie znaleźć. Przyczyną, dla której ten problem nie został znaleziony podczas testów, może być nic innego jak nieostrożność. Próba przesłania danych z podprogramu przy użyciu jednostek imperialnych do innego podprogramu przy użyciu jednostek metrycznych jest mniej więcej tak oczywistym problemem, jaki może się pojawić.

1999: Awaria brytyjskiego systemu paszportowego

W 1999 roku Wielka Brytania podjęła próbę wdrożenia nowego zautomatyzowanego systemu paszportowego, który nie został w pełni przetestowany, gdy zaczął działać. Personel korzystający z nowego systemu nie został w pełni przeszkolony. Do zamieszania doszło nowe prawo, które wymagało od wszystkich podróżnych w wieku poniżej 16 lat posiadania paszportów. Prawo to spowodowało ogromną bańkę w nowych aplikacjach paszportowych w tym samym czasie, gdy nowy system został wdrożony. Około pół miliona paszportów było opóźnionych, czasami o tygodnie. To zniweczyło plany podróży dla wielu rodzin. Ponadto brytyjska agencja paszportowa musiała ponieść miliony funtów dodatkowych kosztów w postaci nadgodzin i dodatkowego personelu, a także niektórych płatności z tytułu odpowiedzialności dla podróżnych, których paszporty były spóźnione.
Wyciągnięte wnioski: Oczywistą lekcją płynącą z tego problemu jest nigdy, przenigdy, próba połączenia się z Internetem z nowym dużym systemem bez pełnego przeszkolenia personelu i pełnego przetestowania systemu wspólnie ze starszym systemem, aby upewnić się, że nowy system działa. Ponadto, kiedy uchwalane jest nowe prawo, które dodaje ogromną bańkę nowych klientów, upewnij się, że masz personel i sprzęt, aby poradzić sobie z tą sytuacją.
Unikanie problemów: Wydaje się, że problemy z systemem paszportowym są połączeniem problemów z wydajnością oprogramowania i problemów logistycznych z samą agencją paszportową. Wprowadzenie nowego systemu bez przeszkolenia personelu w zakresie jego obsługi jest poważnym błędem zarządzania, a nie problemem technicznym. Ani inspekcje, ani analiza statyczna, ani modelowanie wymagań nie wykryłyby problemów logistycznych i kadrowych, chociaż bez wątpienia uczestnicy inspekcji ostrzegliby kierownictwo, aby zachować ostrożność. Testy wydajności i obciążenia powinny wykryć problemy z wydajnością nowego systemu, ale najwyraźniej albo nie zostały one wykonane, albo nie zostały wykonane z realistycznymi obciążeniami.

2000: Problem roku 2000

Słynny problem Y2K to klasyczny przykład krótkowzroczności. Kiedy sprzęt komputerowy był drogi, a miejsce w pamięci ograniczone, wydawało się, że dobrym pomysłem jest przechowywanie dat w formacie dwucyfrowym, a nie czterocyfrowym. Zatem rok "1999" zostanie zapisany jako "99". Ta kompresja dat rozpoczęła się w latach pięćdziesiątych i przez wiele lat nie sprawiała problemów. Ponieważ jednak daty są często sortowane w kolejności rosnącej lub malejącej, na przełomie wieków pojawiłby się poważny problem. Oczywiście rok "2000" w dwucyfrowej postaci "00" jest niższą wartością matematyczną niż "99". Miliony aplikacji w każdym kraju korzystały z dwucyfrowego formatu daty i czasami używały go w nowych aplikacjach dopiero w 1995 roku, kiedy było oczywiste, że czas ucieka. Od około 1995 roku tysiące programistów rozpoczęło pracochłonną pracę nad zamianą dwucyfrowych dat na czterocyfrowe. Na szczęście sieć i Internet były w pełnym rozkwicie, ponieważ umożliwiły łatwą komunikację między personelem Y2K w zakresie udostępniania informacji, a nawet udostępniania kodu wielokrotnego użytku dla aplikacji, których dotyczy problem. Fakt, że problemy roku 2000 nie były tak poważne, jak Przewidywany wynik jest związany z możliwościami komunikacyjnymi sieci. Y2I Wyciągnięte wnioski: wnioski wyciągnięte z tego problemu nie są jeszcze w pełni zrozumiałe, nawet w 2013 r. Na przykład w roku 2038 wewnętrzny zegar systemu Unix wygaśnie, co uruchomi kolejny zestaw masowych aktualizacji. Wkrótce cyfry zostaną dodane do numerów telefonów. W pewnym momencie do numerów ubezpieczenia społecznego zostaną dodane cyfry. Problemy z długością pola są endemiczne w oprogramowaniu i zawsze wydaje się, że wymykają się one uwadze, aż do chwili, gdy faktycznie się wydarzy.
Unikanie problemu: Problem roku 2000 można było znaleźć prawie każdą metodą, w tym inspekcjami, analizą statyczną, programowaniem par i testowaniem, z wyjątkiem tego, że dwucyfrowe daty uznano za ważne. Przez ponad 30 lat dwucyfrowe daty nie były uważane za błędne, więc nikt nie pisał przypadków testowych, aby je znaleźć. Począwszy od około 1995 roku, sytuacja się zmieniła i testy nie tylko zaczęły szukać krótkich dat, ale także zbudowano szereg wyspecjalizowanych narzędzi roku 2000, aby znaleźć je w starszych aplikacjach. Chociaż sam Y2K już za nami, problem braku miejsca na informacje liczbowe jest jednym z najczęstszych problemów w historii oprogramowania.

2004: Zamknięcie kontroli ruchu lotniczego na lotnisku w Los Angeles (LAX)

We wtorek 14 września 2004 r., około godziny 17:00, kontrolerzy ruchu lotniczego na lotnisku LAX stracili łączność głosową z około 400 samolotami w locie. Ekrany radarowe również przestały działać. W sumie miało to wpływ na około 800 lotów, które musiały zostać zmienione. To był bardzo poważny problem. System zapasowy uległ awarii około minuty po aktywacji. System był nieczynny przez około trzy i pół godziny. Pozorną przyczyną tego problemu był wewnętrzny licznik, który odlicza od około czterech miliardów, a następnie musi zostać zresetowany. Licznik służył do wysyłania komunikatów do komponentów systemu w ustalonych odstępach czasu. Zwykle osiągnięcie zera zajmuje około pięćdziesięciu dni. Zwykle licznik resetował się po trzydziestu dniach, ale najwyraźniej tak się nie stało. Używane serwery pochodziły od firmy Microsoft. Najwyraźniej pracownik, który nie był w pełni przeszkolony, przegapił zaplanowany reset.
Wyciągnięte wnioski: Oczywistą lekcją jest to, że złożone systemy, które wymagają interwencji człowieka, aby nadal działać, ostatecznie zawiodą. Można było zaprojektować kilka rodzajów automatycznych resetów lub można było przekazać sterowanie do serwerów zapasowych z różnymi interwałami resetowania.
Unikanie problemu: była to kombinacja błędu ludzkiego i wątpliwego projektu serwerów, które wymagały ręcznego resetowania. QFD mogło zapobiec problemowi. Inspekcje projektów z pewnością wykryłyby problem. Ani programowanie w parach, ani analiza statyczna nie zidentyfikowałyby tego z powodu połączenia ludzi i oprogramowania.

2005: Niepowodzenie w ukończeniu projektu Trilogy FBI

Około 2000 r. FBI podjęło poważne wysiłki w celu ulepszenia akt spraw i umożliwienia wymiany informacji. Projekt nosił nazwę Trilogy i obejmował zarówno komponenty sprzętowe, jak i programowe. Jednym z celów było przeniesienie danych z dziesiątek pofragmentowanych systemów plików do ujednoliconej bazy danych Oracle. W 2005 roku projekt został zakończony ze stratami szacowanymi na około 170 milionów dolarów. Problemy z tym systemem FBI były szeroko cytowane w literaturze. Chociaż nie określono tego, prawdopodobny rozmiar pełnej aplikacji Trilogy mieściłby się w zakresie 100 000 punktów funkcyjnych. Awarie i opóźnienia na tym poziomie mają charakter endemiczny i sięgają 80%. W przypadku dużych systemów, takich jak ten, pełzanie wymagań przebiega około 2% na miesiąc kalendarzowy podczas projektowania i kodowania, a całkowity harmonogram rozwoju trwa około pięciu lat. Całkowite pełzanie zakresu może przybliżyć 35% wzrost wymaganych funkcji. Potencjały defektów są średnio bliskie 6,0 na punkt funkcyjny w połączeniu z łącznymi poziomami skuteczności usuwania defektów poniżej 85%. Nie popełnij błędu: te duże systemy są bardzo ryzykowne i wymagają najnowocześniejszych metod, aby mieć jakiekolwiek szanse powodzenia.
Wyciągnięte wnioski: awaria tego systemu jest podręcznikowym przykładem problemów dużych monolitycznych aplikacji. Mają szybko zmieniające się wymagania i wymagają starannej architektury i projektu przed kodowaniem. Potrzebują również pełnego zestawu kroków dotyczących jakości przed testem, zanim jeszcze testy się rozpoczną.
Unikanie problemów: duże systemy, takie jak ten, wymagają formalnej architektury i fazy projektowania w połączeniu z pełnym zestawem inspekcji przedtestowych wymagań, projektu i kodu. W rzeczywistości systemy te wymagają większości metod wymienionych na początku tego rozdziału: formalnych inspekcji, statycznej analizy kodu i tekstu, matematycznego projektowania przypadków testowych oraz certyfikowanego personelu testowego. Programowanie w parach byłoby kłopotliwe w przypadku aplikacji z około 500 programistami ze względu na koszty i potrzeby szkoleniowe. Inspekcje to lepszy wybór. Dowody poprawności prawdopodobnie nie są możliwe ze względu na zapotrzebowanie na tysiące dowodów.

2005: Tajne oprogramowanie Sony do ochrony przed kopiowaniem

W 2005 roku Sony BMG potajemnie umieściło oprogramowanie chroniące przed kopiowaniem na 52 muzycznych płytach CD. Klienci, którzy odtwarzali te dyski CD na swoich komputerach, mieli zainstalowane oprogramowanie zabezpieczające bez ich wiedzy i zgody. Oprogramowanie do ochrony przed kopiowaniem wykorzystywało zestaw root, ingerowało w system Windows i tworzyło nowe luki w zabezpieczeniach na komputerach, których dotyczy problem, co dotknęło wielu klientów. Ochrona przed kopiowaniem spowolniła również komputery niezależnie od tego, czy odtwarzały płyty CD. Kiedy problem był transmitowany w sieci, wielu oburzonych klientów pozywało Sony BMG. Gorzej, okazało się, że Sony naruszyło licencję GNU przy tworzeniu schematu ochrony przed kopiowaniem. Na początku firma Sony zaprzeczyła, że wyrządziła krzywdę, ale szybko okazało się, że jest to błąd. Następną odpowiedzią Sony było wydanie pseudo-narzędzia do usuwania, które pogorszyło problemy i spowodowało nowe. Tutaj również siła sieci ujawniła niepowodzenia pierwszej próby i spowodowała większe zażenowanie dla Sony BMG. Ostatecznie w listopadzie 2005 roku firma Sony BMG wydała narzędzie do usuwania, które wydawało się działać. Obraźliwe płyty CD z zabezpieczeniem przed kopiowaniem zostały wycofane z rynku i wycofane z rynku, chociaż niektóre egzemplarze nadal były dostępne w sklepach kilka tygodni po nominalnym wycofaniu.
Wyciągnięte wnioski: lekcja płynąca z tego problemu jest taka, że niektórzy sprzedawcy uważają, że jeśli nie zostaną złapani, mogą zrobić wszystko, co chcą, aby chronić zyski.
Unikanie problemu: ponieważ Sony celowo i potajemnie wprowadziło usterkę oprogramowanie chroniące przed kopiowaniem do rąk publicznych, znajdowało się poza zakresem normalnych inspekcji, analizy statycznej, modelowania wymagań i każdego innego podejścia do kontroli jakości. Druga część tego problemu to fakt, że oprogramowanie Sony zawierało błędy i uszkodzone komputery-hosty. Można to było stwierdzić na podstawie formalnego projektu i inspekcji kodu. Ani analiza statyczna, ani programowanie w parach nie rozwiązałyby problemów z projektowaniem. Tym, co ostatecznie wyeliminowało ten problem, było połączenie wykwalifikowanych inżynierów oprogramowania, którzy dowiedzieli się o problemie i wykorzystali sieć do rozpowszechniania tych informacji milionom innych osób. Ekspertyza ze strony wyrafinowanych klientów w połączeniu z presją społeczną w sieci spowodowała, że Sony wycofało się z naruszającego prawa programu ochrony przed kopiowaniem. Ciekawe, że problem ten został ostatecznie podchwycony przez prokuratorów generalnych Nowego Jorku, Massachusetts, Teksasu, Kalifornii i kilku innych stanów. W sprawę zaangażowała się również Federalna Komisja Handlu (FTC), która złożyła skargę. Wreszcie w wyniku pozwów zbiorowych firma Sony wypłaciła odszkodowanie klientom, których to dotyczy. To nie jest dobry sposób na prowadzenie interesów przez firmę Sony w świecie, w którym znajdują się wyrafinowani klienci, którzy mają natychmiastowy dostęp do sieci.

2006: Problem z okablowaniem Airbusa A380

Airbus A380 to gigantyczny samolot pasażerski zaprojektowany do konkurowania z Boeingami 747 na trasach długodystansowych. Airbus był opóźniony o ponad rok z powodu problemów z oprogramowaniem związanych z pokładową wiązką przewodów. Nowoczesne samoloty, w tym A380, są wysoce skomputeryzowane, a większość elementów sterujących i nawigacyjnych obsługuje się za pomocą oprogramowania. W rezultacie jest wiele kilometrów przewodów elektrycznych i tysiące złączy. A380 ma około 550 kilometrów, czyli 330 mil, okablowania pokładowego. Oprogramowanie do projektowania CAD dla A380 było pakietem komercyjnym. Niemieckie i hiszpańskie zespoły projektowe korzystały z wersji 4 pakietu CAD, podczas gdy brytyjskie i francuskie zespoły projektowe korzystały z wersji 5. Spowodowało to problemy z kontrolą konfiguracji. Co gorsza, zespół projektowy skonfigurował pakiet CAD dla drutów miedzianych, ale w wiązce przewodów skrzydeł zastosowano druty aluminiowe. Różnica między aluminium a miedzią powodowała inne problemy, ponieważ średnica drutów nie była taka sama, ani elastyczność. Trudniej jest zginać druty aluminiowe niż miedziane.
Wyciągnięte wnioski: Główna lekcja wyciągnięta z tego problemu polega na tym, że wiele zespołów projektowych w różnych krajach powinno używać tych samych wersji pakietów CAD i wszelkich innych złożonych narzędzi technicznych. Drugą lekcją jest to, że kiedy używasz oprogramowania do modelowania sprzętu fizycznego, takiego jak średnica drutu i elastyczność, upewnij się, że oprogramowanie dokładnie pasuje do komponentów fizycznych.
Unikanie problemu: Różnice między okablowaniem miedzianym i aluminiowym można było łatwo wykryć na podstawie projektu i kontroli norm przed ostatecznym zatwierdzeniem projektu. Mogły również zostać znalezione przez modelowanie wymagań. Nie jest to rodzaj problemu, w którym statyczna analiza kodu mogłaby wykryć problem, ale być może narzędzie do statycznej analizy tekstu mogłoby go zidentyfikować przed wyrządzeniem poważnej szkody. Uszkodzenie zostało spowodowane użyciem niewłaściwych ustawień w narzędziu CAD, więc programowanie parami nie rozwiązałoby problemu. Użycie testowania do tego problemu nie było tak naprawdę mieszane, ponieważ problem przejawiał się w problemach fizycznych zauważonych podczas budowy samolotu. Zasadniczo druty aluminiowe były zbyt duże na niektóre otwory i zbyt sztywne, aby zginać się wokół przeszkód.

2010: Błąd programu McAfee Antivirus wyłącza komputery

W 2010 roku dobrze znany pakiet antywirusowy McAfee otrzymał nową aktualizację. Błąd w tej aktualizacji spowodował, że oprogramowanie McAfee zidentyfikowało część systemu operacyjnego Windows XP jako złośliwy plik, co spowodowało zamknięcie tysięcy komputerów z systemem XP w tym czasie. Ten błąd był na pierwszych stronach gazet w moim rodzinnym stanie Rhode Island, ponieważ spowodował zawieszenie procedur chirurgicznych w wielu szpitalach na Rhode Island. Harmonogramy i informacje kontaktowe dla lekarzy i pielęgniarek stały się niedostępne, gdy komputery przestały działać. Wyciągnięte wnioski: lekcja płynąca z tego problemu polega na tym, aby upewnić się, że wszystkie wersje oprogramowania są odpowiednio testowane regresyjnie przed wydaniem. Unikanie problemu: błąd z pewnością zostałby znaleziony podczas inspekcji kodu. Mógł prześlizgnąć się przez narzędzia do analizy statycznej, ponieważ był to błąd logiczny, a nie błąd składniowy. Modelowanie wymagań mogło znaleźć problem, ale nie zostało użyte. Oczywiście testy powinny wykryć problem, ale tak się nie stało. Prawdopodobnym powodem jest nieformalne projektowanie przypadków testowych, a nie rygorystyczne projektowanie przypadków testowych oparte na matematyce.

2011: Nieudana inwestycja w Studio 38 na Rhode Island

W 2010 roku Komisja Rozwoju Gospodarczego (EDC) stanu Rhode Island zgodziła się pożyczyć 75 milionów dolarów firmie zajmującej się grami Studio 38, której właścicielem jest były miotacz Red Sox Cura Schilling. W zamian firma przeniosła się do Providence i rozpoczęła działalność z około 250 pracownikami. Podobnie jak w przypadku aplikacji o koszcie 75 milionów dolarów, główny produkt Studio 38 działał z opóźnieniem. Podobnie jak w przypadku start-upów, Studio 38 samo zabrakło funduszy i zalegało z płatnościami na rzecz państwa. W przypadku braku świeżego kapitału z kredytów filmowych, inwestorów zewnętrznych, państwa lub innych źródeł, firmie brakowało wynagrodzeń, zabrakło środków, zwolniła cały personel, a następnie ogłosiła upadłość Patrząc na historię tego, co wydarzyło się przed upadłości, przed udzieleniem pożyczki państwo nie przeprowadziło należytej staranności ani analizy ryzyka. Kiedyś udzielono pożyczki, brakowało skutecznego zarządzania. Obie należało zrobić. Analiza ryzyka dla pakietów oprogramowania, których opracowanie kosztuje około 75 milionów dolarów, jest łatwa. To bardzo ryzykowny region z wieloma porażkami. Korzystając z domyślnych wartości branżowych dla projektów z około 250 osobami i harmonogramem rozwoju wynoszącym 42 miesiące, prawie zawsze spóźniają się i przekraczają budżet. Nie było na to żadnych planów awaryjnych. Ryzyko jest tak wysokie, że zainwestowanie ponad 75 milionów dolarów bez bardzo szczegółowego planu redukcji ryzyka dostarczonego przez Studio 38 było szaleństwem. Start-upy oprogramowania tej wielkości należą do najbardziej ryzykownych przedsięwzięć współczesności.
Wyciągnięte wnioski: Główna lekcja płynąca z porażki Studio 38 jest taka, że rządy nie mają żadnego interesu, próbując działać jako inwestorzy kapitału wysokiego ryzyka w branży, w której nie mają doświadczenia ani wiedzy.
Unikanie problemów: duże aplikacje z zespołami liczącymi 250 osób rutynowo działają z opóźnieniem od sześciu do dwunastu miesięcy. Opóźnienia te mogły zostać zmniejszone lub zminimalizowane dzięki lepszej kontroli jakości z góry, takiej jak inspekcje i analizy statyczne. Poza normalnymi opóźnieniami projekt ten nie miał skutecznych planów awaryjnych ani planów awaryjnych dotyczących sposobu uzyskania dodatkowych funduszy po wyczerpaniu się początkowej pożyczki. Zwykłe inwestycje typu venture są poprzedzone starannym procesem due diligence, w ramach którego bada się ryzyko i korzyści. Najwyraźniej Rhode Island zignorowała należytą staranność i ryzyko i została zaślepiona potencjalnymi korzyściami.

2012: Problemy z oprogramowaniem do handlu akcjami Knight Capital

W środę, 1 sierpnia 2012 r., błąd oprogramowania w oprogramowaniu do handlu akcjami Knight Capital wywołał ogromny problem, który obejmował gwałtowne wahania 140 akcji. Jednym z dodatkowych problemów był fakt, że oprogramowanie do handlu akcjami nie miało "wyłącznika" i nie można go było łatwo zamknąć. To ostrzegawcza opowieść o tym, jak błędy w oprogramowaniu mogą potencjalnie zaszkodzić gospodarkom krajowym i globalnym. Problem został prawie natychmiast rozpoznany jako błąd oprogramowania, ale w branży, w której miliony dolarów akcji zmieniają właściciela co minutę, zatrzymanie zaprogramowanego handlu za pomocą oprogramowania zajęło ponad 30 minut. Najwyraźniej problemem była nowa aktualizacja zainstalowana w dniu wystąpienia problemu, ewidentnie bez odpowiednich testów lub walidacji. Fałszywe oprogramowanie handlowe lub poważne błędy w oprogramowaniu handlowym mogą teoretycznie uszkodzić systemy finansowe całego świata. Akcje własne Knight Capital spadły o około 77% z powodu tego problemu z oprogramowaniem. W przyszłości mogą również wystąpić spory sądowe ze strony nabywców akcji lub firm, które uważają, że zostali uszkodzeni przez to zdarzenie. SEC wezwała na spotkanie w celu zbadania problemu.
Wyciągnięte wnioski: Główna lekcja płynąca z błędu oprogramowania Knight Capital polega na tym, że oprogramowanie finansowe w Stanach Zjednoczonych wymaga znacznie silniejszego zarządzania niż obecnie. Aplikacje finansowe powinny mieć takie same certyfikaty, jakie są wymagane w przypadku aplikacji medycznych przez FDA i aplikacji awioniki przez FAA, ale ich nie mają. W tych dziedzinach błędy lub błędy mogą powodować ogromne i całkowicie nieprzewidywalne szkody. W przypadku oprogramowania medycznego i awionicznego mogą wystąpić zgony. W przypadku oprogramowania finansowego mogą wystąpić krajowe lub nawet globalne nieprawidłowości w gospodarce.
Unikanie problemów: W myśleniu o problemach oprogramowania Knight Capital formalne inspekcje i modelowanie wymagań to dwie metody o najwyższym prawdopodobieństwie znalezienia problemów. Analiza statyczna prawdopodobnie by tego nie zauważyła, ponieważ problem był raczej logicznym pominięciem niż problemem składniowym. Programowanie w parach mogło nie zadziałać, ponieważ problem wydaje się pochodzić z wcześniejszych wymagań i projektu. Potrzebna jest głębsza analiza, aby dowiedzieć się, dlaczego testowanie nie zidentyfikowało problemu, ale oczywistymi przyczynami są przypadkowe projektowanie przypadków testowych, brak testowania opartego na ryzyku i prawdopodobnie testowanie przez amatorów zamiast przez certyfikowany personel testowy.

2012: Przywrócenie bezpieczeństwa w branży motoryzacyjnej z powodu oprogramowania

Pierwotnym zamiarem tej dyskusji było pokazanie wycofań określonego oprogramowania dla pojedynczej linii samochodów, takiej jak Toyota. Jednak w Internecie jest tak wiele historii o wycofywaniu oprogramowania z tak wielu samochodów, że staje się skandalem w branży motoryzacyjnej. Oprogramowanie steruje teraz wtryskiem paliwa, hamulcami, silnikami samochodowymi, pakietami nawigacyjnymi i innymi systemami. Niektóre lub wszystkie funkcje sterowane przez oprogramowanie mogą działać nieprawidłowo. W ciągu ostatnich kilku lat w samochodach Cadillac, Ford, General Motors, Honda, Jaguar, Lexus, Nissan, Pontiac, Toyota i inne miały miejsce liczne przypadki wycofywania błędów oprogramowania. Niektóre z nich obejmują te same komponenty, ale inne są wyjątkowe. Oto kilka przykładów bardzo niepokojących wycofań z rynku motoryzacyjnego:

•  Buick wycofał LaCrosse w 2005 roku z powodu oprogramowania sterującego hamulcami. Oddzielne wycofanie tego samego modelu było spowodowane oprogramowaniem obsługującym kontrolę klimatu, co mogło wpływać na widoczność.
•  Cadillac wycofał SRX w 2011 roku z powodu problemu z oprogramowaniem poduszek powietrznych.
•  Daimler wycofał samochody dostawcze w 2011 roku z powodu problemu z oprogramowaniem, który spowodował, że zewnętrzne kierunkowskazy i kierunkowskazy przestały działać po około 10 minutach pracy.
•  Ford wycofał kilka modeli ciężarówek z 2011 r. Z powodu problemów z oprogramowaniem z modułem zintegrowanego systemu diagnostycznego (IDS).
•  Hybrydy Hondy CR-Z zostały wycofane w 2011 r., Ponieważ silnik elektryczny mógł się cofać i obracać w przeciwnym kierunku niż przekładnia.
•  Jaguar przypomniał sobie niektóre modele z silnikiem Diesla wyprodukowane w latach 2006-2010, ponieważ błąd oprogramowania uniemożliwiał wyłączenie tempomatu. Aby wyłączyć tempomat, trzeba było zatrzymać silnik.
•  Czterocylindrowe Accords zostały wycofane w 2011 roku z powodu problemów z oprogramowaniem kontrolującym ich automatyczne skrzynie biegów.
•  Nissan wycofał niektóre elektryczne modele Leaf w 2010 roku z powodu problemów z oprogramowaniem klimatyzacji.
•  Modele Toyoty Prius w latach 2004-2005 zostały wycofane z powodu problemu z oprogramowaniem, który spowodował zgaśnięcie silników gazowych. Silnik elektryczny można wykorzystać do zjechania z autostrady lub pokonywania krótkich dystansów. W stanach, w których obowiązuje "prawo cytrynowe", niektórzy właściciele mieli prawo do pojazdów zastępczych.
•  Toyota Priuses i niektóre hybrydy Lexus zostały wycofane w 2010 roku z powodu problemu z oprogramowaniem, który powodował opóźnienie między naciśnięciem pedału hamulca a faktycznym działaniem hamulców. (Steve Wozniak, współzałożyciel Apple, był właścicielem Priusa i zapewnił, że niebezpieczny problem z przyspieszeniem był spowodowany raczej oprogramowaniem niż mechaniką. Toyota zakwestionowała to roszczenie, ale prawdopodobnie Steve Wozniak wie więcej o oprogramowaniu niż większość ludzi.)
•  Volvo wycofało kilka sedanów S60 z 2012 roku z powodu problemów z oprogramowaniem pomp paliwowych.

Wyciągnięte wnioski: samochody to obecnie wyrafinowane urządzenia z wieloma komputerami pokładowymi i wieloma systemami albo bezpośrednio sterowanymi przez oprogramowanie, albo wspomaganymi przez oprogramowanie. Dlatego producenci samochodów powinni zastosować pełen zestaw nowoczesnych metod zapobiegania i usuwania defektów.
Unikanie problemów: Ponieważ oprogramowanie ma wpływ na tak wiele funkcji i elementów sterujących motoryzacyjnych, potrzeba wielu metod kontroli jakości oprogramowania. Obejmują one QFD, wymagania przed testem, inspekcje projektu i kodu, statyczną analizę tekstu i statyczną analizę kodu. Testowanie powinno być formalne z matematycznie zaprojektowanymi przypadkami testowymi i powinno być wykonywane przez certyfikowany personel testowy. W ciągu ostatnich dziesięciu lat około dziesięciu milionów samochodów zostało wycofanych z ruchu z powodu problemów z oprogramowaniem. Jedna firma gwarancyjna zgłosiła, że około 27% napraw dotyczy awarii komputera i oprogramowania. Potrzeba więcej analiz i lepszych danych od wszystkich producentów samochodów.

Podsumowanie

We współczesnym świecie komputery i oprogramowanie są krytycznymi elementami operacyjnymi samolotów, urządzeń medycznych, giełdy, bankowości, biznesu i rządu. Ponieważ oprogramowanie kontroluje tak wiele krytycznych czynności, powinno być oczywiste, że kontrola jakości jest kluczowym tematem, który należy w pełni zrozumieć, a firmy muszą stosować najnowocześniejsze metody. Ale w przedstawionych tutaj problemach i tysiącach podobnych problemów, które występują w innych systemach, kontrola jakości jest często prymitywna i nieudolna. Dyrektorzy firm produkujących złe oprogramowanie muszą zdać sobie sprawę, że problemy z jakością są na tyle poważne, że spory sądowe i odszkodowania mogą doprowadzić do bankructwa, nawet w przypadku dużych korporacji. Uproszczone poleganie na testowaniu i niewykonanie inspekcji przed badaniem lub użycie analizy statycznej nie jest odpowiednią reakcją i nie prowadzi do skutecznej kontroli jakości. Branża musi wdrożyć pełen zestaw synergicznych metod jakościowych, które obejmują inspekcje przedtestowe; statyczna analiza tekstu i kodu przed testem; oraz formalne, oparte na matematyce testowanie przez certyfikowany personel testowy. Cokolwiek mniej w przypadku aplikacji o znaczeniu krytycznym może prowadzić do tego samego rodzaju problemów, które omówiono tu.


Powrót