Ten artykuł czytasz w ramach bezpłatnego limitu

Zwykle o nich nie myślimy, ale one coraz częściej myślą o nas. Albo za nas. Na przykład wtedy, gdy zamiast pilota sterują samolotem albo gdy kupują akcje na Wall Street. To one sprawiają, że komputer robi to, co chcemy, wtedy, kiedy chcemy. Algorytmy.

W XXI wieku algorytmy mają już nie tylko władzę nad maszynami, ale także nad nami - to one decydują, jak wygląda nasz internet, a w konsekwencji również nasze życie. Nie łudźmy się, że internet jest wspólny dla wszystkich, jednoczący, obalający tyranów - wszystko, co wpiszemy w wyszukiwarkę, może być użyte przeciwko nam. Szukając hasła "gwiazda", zamiast informacji o supernowej dostaniemy pupę Kim Kardashian, a kupując bilet na samolot, zapłacimy drożej, bo algorytmy wiedzą, że nas na to stać. To one wyświetlają nam na Facebooku tych znajomych, z którymi się zgadzamy, i próbują na podstawie naszych lajków określić naszą osobowość, żeby potem można nas było drożej sprzedać. A co robią z naszą prywatnością? Na to chętnie odpowie Edward Snowden. Ale spokojnie - algorytmy też się przydają. Pomagają na przykład znaleźć męża w serwisie randkowym…

Każdy program komputerowy składa się z algorytmów - nieważne, czy chodzi o 200 mln obliczeń na sekundę, które pozwoliły pokonać szachowego arcymistrza, czy o włączenie budzika o ustalonej porze. Choć większość z nas o algorytmach usłyszała całkiem niedawno, to nie są one nowe. Znali je już starożytni Grecy, a opisał na początku IX wieku w Bagdadzie w księdze "Kompendium o obliczaniu za pomocą dopełniania i równoważenia" perski uczony Abu Abdullah Muhammad ibn Musa al-Chuwarizmi. Ale tak daleko cofać się nie będziemy. Interesuje nas algorytm jako podstawa działania urządzeń, bez których nie wyobrażamy sobie już życia. Urządzeń ery cyfrowej - komputerów, smartfonów. A do tego wystarczy cofnąć się o niespełna 200 lat i odnaleźć pewną młodą angielską damę. Tak, pierwszym informatykiem była kobieta.

Ada King - pierwsza programistka w historii

Pierwsza programistka w historii nazywała się Ada King i była hrabiną. Napisała program komputerowy w wieku 28 lat, w czasach, gdy kobiety o jej pozycji traktowane były jak klacze rozpłodowe do produkcji kolejnych arystokratów dziedziczących tytuły i dobra.

Nie była jednak zwykłą arystokratką - jej ojcem był słynny romantyczny poeta lord Byron. Sława nie opuszczała jej więc od dnia narodzin, podobnie jak skandale związane z jej ojcem. Ada była jedynym uznanym oficjalnie dzieckiem poety, ale nie miała szansy go poznać. Jej matka uciekła od męża, gdy córka miała pięć tygodni, mając dość konkurencji jego przyrodniej siostry Augusty - po niej Ada otrzymała pierwsze imię, którego jej matka nigdy nie używała. Byrona z Augustą łączyło ponoć coś o wiele więcej niż braterska miłość.

Sam Byron, ścigany przez wierzycieli, wyjechał z Anglii trzy miesiące po wyprowadzce żony, by już nigdy nie wrócić. Gdziekolwiek jednak zagnał go los, miał ze sobą kolejne portreciki córki, pisał o niej w wierszach, pytał o nią w listach. Wspominał też o niej na łożu śmierci. Zmarł, gdy Ada miała osiem lat.

Córka odziedziczyła po nim romantycznego ducha, którego jej matka próbowała wytępić lekcjami matematyki, odkąd dziewczynka skończyła cztery lata. Adzie o ojcu nie wolno było rozmawiać. Jego portret, pióro i kilka innych drobiazgów dostała od matki dopiero wtedy, gdy była zamężną i spodziewającą się dziecka 20-latką.

Geny Byrona wciąż jednak dawały o sobie znać mimo nieustannej kontroli matki - nastoletnia Ada chciała uciec z nauczycielem, biednym oczywiście jak mysz, i wziąć z nim potajemnie ślub. Ucieczka się nie powiodła, ukochany został oddalony, a Adę otoczył ścisły krąg przyjaciółek matki, które nie spuszczały z niej oka. Nie znosiła ich, nazywała Furiami.

Ada wciąż jednak studiowała geometrię euklidesową, trygonometrię i algebrę. Zwiedzała fabryki, gdzie zobaczyła m.in. krosna zaprojektowane przez Jacquarda, które tkały fantazyjne wzory zaprogramowane za pomocą karty perforowanej. Fascynacja matematyką, postępem i rozgrywającą się na jej oczach rewolucją przemysłową sprawiła, że pokochała - jak później pisała w pełnych emfazy i podkreśleń listach - "poetycką naukę", która łączyła jej wyobraźnię z liczbami.

Matematyk - ulubiona rozrywka hrabiny

19-letnia Ada poślubiła Williama Kinga, hrabiego Lovelace, i jej matka odetchnęła z ulgą. Hrabia był świetną partią - był bogaty oraz interesował się nauką. Tą bliższą życiu ziemianina - teorią uprawy i technikami hodowli zwierząt gospodarskich. Miał też dziwne hobby - projektował i budował tunele w swych rozległych posiadłościach. Tunele wiodące donikąd.

Ada skupiła się na obowiązkach żony - dostarczeniu dziedzica oraz zarządzaniu licznymi posiadłościami. Z tego pierwszego wywiązała się już po roku. Potem urodziła jeszcze córkę i drugiego syna. Aż dziwne, biorąc pod uwagę, że od dziecka nękały ją choroby, cierpiała na dolegliwości trawienne i problemy z oddychaniem, podawano jej laudanum i morfinę, co prowadziło do huśtawek nastrojów, a nawet urojeń.

Spełniwszy obowiązek arystokratycznej żony i zapewniwszy tytułowi i włościom dziedzica, mogła wrócić do ulubionej rozrywki - matematyki. Napisała matce, że jest predestynowana do odkrywania ukrytych prawd natury.

Nabrała przekonania, że jest geniuszem (być może przemawiało przez nią opium). "Matematyka jest instrumentem, dzięki któremu słabe umysły ludzi mogą najskuteczniej odczytać dzieło swego Stwórcy" - pisała.

Zwróciła się do swojego przyjaciela Charlesa Babbage’a, absolwenta matematyki w Cambridge. Prowadził on w Londynie salon, do którego każdy chciał być zaproszony. Arystokraci spotykali się w nim z pisarzami, przemysłowcami, poetami, aktorami, mężami stanu, odkrywcami i naukowcami. Były tańce, głośne czytania, gry i zabawy przy owocach morza, egzotycznych drinkach i deserach lodowych. Panie robiły żywe tableau, naukowcy - pokazy swoich wynalazków i odkryć. Ada poznała Babbage’a jako 18-latka dzięki swojej przyjaciółce i mentorce Mary Somerville, jednej z niewielu uznanych wtedy kobiet matematyków i naukowców (jej imię nosi jedno z pierwszych żeńskich kolegiów w Oksfordzie).

Babbage był po czterdziestce i od lat marzył o maszynie parowej, która wykonywałaby sama żmudne obliczenia. Kalkulator już istniał - maszynę do dodawania i odejmowania skonstruował w 1642 roku Blaise Pascal. Genialny Gottfried Wilhelm Leibnitz trzy dekady później opracował taką, która umiała też mnożyć i dzielić. Babbage znał oba wynalazki i chciał stworzyć coś jeszcze bardziej złożonego - coś, co tworzyłoby tablice logarytmiczne i trygonometryczne. Postanowił wykorzystać metodę francuskiego matematyka Gasparda de Prony, który do tworzenia tablic wykorzystywał rodzaj żywej taśmy produkcyjnej złożonej z matematyków, z których każdy wykonywał obliczenia na jednym poziomie i przekazywał je dalej, aż z drobnych działań powstał wynik jednego skomplikowanego. Maszynę, która miała składać te proste obliczenia w jedno skomplikowane, Babbage nazwał maszyną różnicową. Nigdy jej nie ukończył, choć przeznaczył na to sporą część swojego imponującego majątku oraz dotację rządową, za którą można było kupić dwie fregaty wojenne. Pozostała modelem do pokazywania na przyjęciach. Zbudowali ją dopiero pod koniec lat 90. XX wieku, by uczcić 200. urodziny Babbage’a, naukowcy z londyńskiego Muzeum Techniki. Maszyna działa tak, jak przewidział.

Jak powstała maszyna do liczenia wszystkiego?

Gdy ponownie zeszły się ścieżki jego i Ady, Babbage porzucił już maszynę różnicową na rzecz nowego projektu - maszyny analitycznej. Miała służyć do wszelkich obliczeń (ang. computing) i dawać się programować za pomocą kart perforowanych, takich samych jak te z maszyny żakardowej.

Co mają ze sobą wspólnego tkactwo i skomplikowane obliczenia matematyczne? Całkiem sporo. Jedno i drugie wymaga czasu i mozolnej pracy. W jednym i drugim jeden mały błąd niweczy cały efekt - makatka ma skazę, wynik jest do niczego. Wynalazcy przez wieki zastanawiali się, jak zbudować maszynę, która tkałaby od razu wzory. Udało się w 1805 roku, kiedy to Francuz Joseph Marie Jacquard skonstruował swoją maszynę tkacką.

Ada była zachwycona ideą Babbage’a - nie tylko doceniła pomysł maszyny do liczenia wszystkiego. Zrozumiała, że maszyna mogłaby przetwarzać nie tylko liczby, ale też dowolne symbole, w tym muzyczne. Miała więc wizję cyfrowej muzyki 160 lat przed premierą pierwszego iPoda! Zasypywała Babbage’a listami. Niektóre z nich były nawet nieco frywolne, co części późniejszych badaczy poddało myśl, że Ada i Babbage mieli romans. Jest to jednak mało prawdopodobne. Ada mu "oddała swoją głowę do dyspozycji".

Ada Lovelace - ikona ery cyfrowej

Ikoną ery cyfrowej i współczesnych informatyków stała się dzięki "Notatkom". W 1842 roku Ada zaczęła tłumaczenie z francuskiego na angielski artykułu młodego włoskiego inżyniera wojskowego Luigiego Federica Menabrei (później został on premierem Włoch) o maszynie Babbage’a. Dlaczego sama nie napisała artykułu na temat, który był jej doskonale znany? Twierdziła, że zwyczajnie nie przyszło jej to do głowy. W epoce wiktoriańskiej żony i matki raczej nie publikowały artykułów naukowych. Babbage zasugerował jednak, by dodała do tekstu Menabrei swoje przemyślenia - tak powstały prawie trzy razy dłuższe od oryginalnego tekstu "Notatki", które uczyniły z niej ikonę w historii komputeryzacji.

Ponad 100 lat później Howard Aiken, twórca jednego z pierwszych komputerów - Harvard Mark I - nakazał swojemu zespołowi czytanie na głos "Notatek" Ady. A jego komputer był inspirowany maszyną analityczną Babbage’a.

To, ile w "Notatkach" jest własnych przemyśleń i wyników Ady, a ile Babbage’a, stało się tematem akademickiej dyskusji napędzanej, niestety, sporą dawką mizoginizmu. Najlepszy odpór krytykom Ady dają słowa samego Babbage’a, który w liście z 9 września 1843 roku do Michaela Faradaya (tak, tego geniusza od elektryczności) pisał o Adzie: "Czarodziejka, która roztoczyła swą magię wokół najbardziej abstrakcyjnej z nauk i chwyciła ją z siłą, z jaką niewiele męskich umysłów (przynajmniej w naszym kraju) mogłoby się nad nią wytężyć".

W "Notatkach" Ada opisywała koncepcję maszyny, która mogłaby być programowana i przeprogramowywana, by realizować nieskończone i rozmaite zadania, czyli krótko mówiąc, wyobraziła sobie współczesny komputer. Jej zdaniem maszyna taka mogłaby pracować nie tylko na liczbach, ale też mogłaby przechowywać, manipulować, przetwarzać wszystko, co można sobie wyobrazić: symbole, słowa, muzykę itd.

To przekonanie znalazło się u podstaw ery cyfrowej, w której każda treść, dana, informacja - czy to tekst, czy muzyka, zdjęcia czy liczby, symbole, dźwięki, filmy - może być przedstawiona w formie cyfrowej i obrabiana przez maszyny.

Ale to, co zapewniło Adzie miejsce w historii, to opisanie krok po kroku, z detalami, czegoś, co dziś nazywamy programem komputerowym. Ada napisała algorytm, czyli sekwencję operacji, jakie należałoby wykonać, żeby maszyna analityczna generowała liczby Bernoullego, a następnie przygotowała tabelę pokazującą, jak każda z nich zostałaby zakodowana w maszynie.

Biorąc pod uwagę, że żyjemy dziś w świecie rządzonym przez algorytmy, było to naprawdę przełomowe wydarzenie.

Ada po drodze jeszcze pomogła wymyślić ideę podprogramów (czyli sekwencji instrukcji do jednego specyficznego działania, które można umieścić w większym programie, jeśli jest taka potrzeba) i pętli (czyli sekwencji instrukcji dla maszyny, która się sama powtarzała). Te operacje zapisywano na kartach perforowanych. Do obliczeń liczb Bernoullego potrzeba było 75 kart, dzięki którym maszyna sama już wyliczała. Ada wyobraziła sobie też bibliotekę najczęściej używanych podprocedur, coś, co jej spadkobierczynie - Grace Hopper z Harvardu oraz Kay McNulty i Jean Jennings z Uniwersytetu Pensylwanii (programistki pracujące przy komputerze ENIAC) - stworzą 100 lat później.

Ada przygotowała tabelę i diagram pokazujące dokładnie, jak algorytm zostanie wprowadzony do maszyny, krok po kroku, z uwzględnieniem dwóch pętli. To właśnie te szczegółowe plany sprawiły, że uchodzi za pierwszą programistkę na świecie.

Artykuł, który przetłumaczyła, i "Notatki" ukazały się drukiem we wrześniu 1843 roku i przez chwilę mogła cieszyć się podziwem przyjaciół i żywić nadzieję, że - jak jej mentorka Mary Somerville - zostanie wzięta serio w światku naukowym i literackim. Napisała, że w końcu czuje się jak prawdziwy profesjonalista. Ale tak się jednak nie stało. Już nigdy nie opublikowała żadnej pracy naukowej.

Wpadła w spiralę narkotyków i hazardu, miała romans z jednym z hazardzistów, który potem ją szantażował i zmusił do zastawienia rodowej biżuterii. Próbowała wykorzystać swe matematyczne talenty do stworzenia modelu pozwalającego wygrywać zakłady, ale poniosła klęskę. W ostatnich latach życia walczyła z koszmarnym bólem i potężnymi krwotokami spowodowanymi rakiem macicy. Przy jej łóżku nie było męża. Kilka miesięcy przed śmiercią wyznała mu coś, co sprawiło, że wyszedł z jej pokoju i już nigdy nie wrócił.

Zmarła w 1852 roku, krótko przed swoimi 37. urodzinami (w tym samym wieku co jej ojciec). Zgodnie z jej życzeniem, które matka spełniła, została pochowana obok lorda Byrona. Ani lady Byron, ani Babbage’a nie było na pogrzebie. Zmarł 19 lat później, nie dokończywszy żadnej ze swoich maszyn.

Czy maszyna potrafi myśleć?

Problemem konstruktora Babbage’a i programistki i wizjonerki Ady Lovelace było to, że oboje wyprzedzili swój czas. I to o całe stulecie. Inspirowane ich pracami maszyny, programowalne pierwsze komputery powstały dopiero, gdy spotkały się odpowiednia technologia z wielką potrzebą, czyli w czasie II wojny światowej. Dziś komputery bez przerwy liczą, ale nie jak maszyny Babbage’a - funkcje trygonometryczne (to potrafi lepszy kalkulator), tylko trajektorie lotu sondy kosmicznej, która, jak Rosetta w ubiegłym roku, jest w stanie opuścić lądownik na lecącej komecie.

I choć każdy smartfon może więcej niż maszyna wymyślona przez Adę, to wciąż pozostaje jeszcze jedna tajemnica z "Notatek" do rozwiązania - Ada zapytała, czy maszyny potrafią myśleć.

Kwestia, czy coś stworzonego przez człowieka może zyskać świadomość, robiła karierę w czasach rewolucji przemysłowej. Wystarczy przypomnieć sobie "Frankensteina", którego Mary Shelley wymyśliła w towarzystwie ojca Ady w willi nad Jeziorem Genewskim. Ada uważała, że maszyny niczym nie będą w stanie nas zaskoczyć, będą tylko wykonywać zadania, jakie im damy. 100 lat później Alan Turing, angielski matematyk i kryptolog, dziś uznawany za ojca informatyki, nazwał to stwierdzenie "zastrzeżeniem lady Lovelace" i opracował test, który ma pozwolić odróżnić maszynę od człowieka. Musi ona w zwyczajnej rozmowie przekonać ludzi, że też jest człowiekiem.

Program komputerowy "Eugene" udający 13-letniego chłopca przekonał w czerwcu 2014 roku dziesięciu z 30 sędziów, że nie jest maszyną, ale testu Turinga nie zdał. Jednak zapewne niedługo on albo jego następca to zrobi. Wiadomość o "zdaniu" testu Turinga przez maszynę nie była już takim szokiem, jakim w 1996 roku była wygrana superkomputera Deep Blue w szachy z arcymistrzem Garrim Kasparowem. Choć i wtedy komputer wygrał tylko jedną z sześciu partii, trzy przegrał i dwie zremisował. Idea, że maszyna potrafi myśleć lepiej od człowieka, była jednak ekscytująca. Jak również fałszywa. Deep Blue nie myślał lepiej od Kasparowa. W ogóle nie myślał, tylko bardzo, bardzo szybko liczył. O opinię na temat sonetów Szekspira nie było co go pytać.

W świecie, w którym nosimy w kieszeniach komputery, o jakich twórcy pierwszych komputerów nie mogli nawet marzyć, w którym są już parkujące, a nawet jeżdżące samodzielnie samochody i lodówki przygotowujące listy zakupów, zastrzeżenie lady Lovelace wciąż pozostaje aktualne.

Czym jest algorytm?

W skrócie - przepisem, zestawem instrukcji, które mają przynieść określony efekt. Czy to na ciasto: ile i jakich składników należy dodać, w jakiej kolejności, by otrzymać puszystą babkę, a nie zakalec, czy to na uruchomienie samochodu: co trzeba zrobić i w jakiej kolejności, by płynnie ruszył, a nie spalił sprzęgło.

Każdy program komputerowy to algorytm zapisany w języku zrozumiałym dla komputera - nieważne, czy chodzi o 200 mln obliczeń na sekundę w superkomputerze Deep Blue, który wygrał w szachy z Garrim Kasparowem, czy o włączenie budzika o ustalonej porze, wszystkie urządzenia potrzebują algorytmów, by wiedzieć, co i w jakiej kolejności mają wykonać. Komputer nie zrozumie instrukcji: "Dodaj szczyptę soli". Trzeba ją rozpisać na: "Przesuń ramię nad torbę z solą, opuść rękę, aż palce zagłębią się w sól na 7 mm, chwyć 250 mg soli, podnieś rękę, przesuń ramię nad garnek, rozsuń palce".

Bardzo krótka historia komputerów

1931 - profesor z MIT Vannevar Bush zbudował pierwszy analogowy komputer. Choć zasilany prądem, wewnątrz działał całkowicie mechanicznie, programowały zaś karty perforowane. Nazwał go analizatorem różniczkowym. Ważył 100 ton. Inspiracją było urządzenie stworzone w II połowie XIX wieku przez lorda Kelvina (tego od temperatury zera bezwzględnego i dziesiątek innych odkryć) służące do wyliczania trajektorii pocisków artyleryjskich. Dane dla artylerii staną się wkrótce niezwykle istotne, bo za dziesięć lat Stany Zjednoczone przystąpią do wojny tocznej na lądzie, morzu i w powietrzu. Ktoś, a raczej coś, będzie musiał obliczać dane dla artylerzystów.

1937 - 24-letni Alan Turing, angielski matematyk, opisał uniwersalny, programowalny komputer, który w zależności od zadanych mu instrukcji i danych mógł wykonywać rozmaite zadania, nie tylko obliczenia matematyczne. Maszyna ta zyskała nazwę maszyny Turinga.

1937 - na Harvardzie doktorant fizyki Howard Aiken odkrył na strychu model maszyny różnicowej Babbage’a, jeden z sześciu, które jego syn rozesłał po świecie. Aiken zapalił się do pomysłu stworzenia jej nowej wersji.

1937 - niemiecki inżynier Konrad Zuse w mieszkaniu swoich rodziców zbudował pierwszą mechaniczną maszynę liczącą, pracującą w systemie dwójkowym, która czerpała instrukcje z kart perforowanych. Maszyna nazywała się Z1.

W 1941 roku Zuse uruchomił pierwszą maszynę sterowaną programem Z3, czyli pierwszy działający programowalny binarny komputer cyfrowy, który jednak został całkowicie zniszczony podczas bombardowania w 1945 roku.

1942 - na Uniwersytecie Pensylwanii rozpoczęto budowanie ENIAC-a (ang. Electronic Numerical Indicator And Calculator), pierwszego elektronicznego komputera. ENIAC-owi wykonywanie kolejnych obliczeń zajmowało już nie minuty, jak Markowi I, ale ułamki sekund. Był tak szybki dzięki użyciu lamp elektronowych, które jednak szybko się zużywały, a że było ich w tym komputerze aż 18 tys., to często się psuł. Programowanie go również trwało długo, bo wymagało dosłownie przepinania w różnych konfiguracjach kabli łączących jego poszczególne elementy.

1944 - zespół pod kierownictwem Howarda Aikena zbudował Harvard Mark I, wielką (17 m długości, 3 m wysokości, 5 ton wagi) w pełni zautomatyzowaną, cyfrową maszynę. Sen Babbage’a się spełnił. Choć może on sam uznałby to za koszmar - Mark I m.in. obliczał dane dla projektu "Manhattan", czyli programu budowy bomby atomowej.

1977 - komputer trafił do naszych domów. Stał się osobisty za sprawą dwóch Steve’ów - Wozniaka i Jobsa. Pierwszy wiedział, jak zbudować nieduże urządzenie, drugi - jak je sprzedać. Apple II z kolorowym monitorem, ale jeszcze bez myszki i bez ikon programów, trafił na rynek w 1977 roku. Cztery lata później swój komputer osobisty IBM PC wprowadził IBM.

Zgodnie z prawem Moore’a, jednego z założycieli Intela, sformułowanym w 1965 roku liczba tranzystorów w komputerach podwajała się co 12 miesięcy, co zwiększało ich szybkość i moc obliczeniową.

Z czasem upakowaliśmy w procesorze miliardy tranzystorów, więc zwiększanie ich liczby zwolniło. Dziś mówi się, że moc obliczeniowa komputerów podwajała się co 24 miesiące.

Kobiety i komputery

Mężczyźni zainteresowani komputerami, poczynając od Babbage’a, byli często skoncentrowani na budowaniu samej maszyny, czyli hardwarze. Ada Lovelace zajęła się programowaniem - software’em. I tak samo było w wojennych czasach budowy pierwszych komputerów. W 1944 roku do zespołu Mark I dołączyła świeżo rozwiedziona pani porucznik marynarki, a także doktor matematyki z Yale Grace Hopper. Howard Aiken zlecił jej napisanie pierwszego podręcznika do programowania komputera, potem uczynił głównym programistą i swoim pierwszym zastępcą. Aż do ubiegłego roku w sali poświęconej Mark I na Harvardzie nie było o niej ani słowa.

Hopper dopracowała ideę podprogramu (wymyślonego już przez Adę) oraz wprowadziła do języka komputerowego słowo "bug", czyli błąd oprogramowania, które wzięło się od prawdziwego robaka (ang. bug), a raczej ćmy, która spowodowała spięcie w jednym z przekaźników Mark II. Hopper przeszła w stan spoczynku w stopniu kontradmirała dopiero tuż przed osiemdziesiątką. Jej imię nosi niszczyciel US Navy.

Zespół programistów ENIAC-a tworzyły z kolei Jane Jennings, Marlyn Wescoff, Ruth Lichterman, Betty Snyder, Frances Bilas i Kay McNulty. Dostały plany komputera, by usprawnić przepinanie kabli, i wkrótce opanowały jego budowę do tego stopnia, że potrafiły określić źródło problemu z dokładnością do pojedynczej lampy. Jak Hopper tworzyły podprogramy, dzięki którym ENIAC pracował szybciej. Gdy w końcu, w 1946 roku, przyszła pora na zaprezentowanie komputera (do tego czasu tajnego projektu wojskowego) szerokiej publiczności, Snyder i Jennings zostały poproszone o przygotowanie programu prezentacyjnego. Po pokazie, który zakończył się sukcesem, odbył się bankiet, na którym ludzie ENIAC-a, naukowcy z uniwersytetu i wojskowi poklepywali się po plecach. Snyder i Jennings wracały zaś samotnie do domów w zimną lutową noc. Nikt ani ich, ani pozostałych programistek na bankiet nie zaprosił.

Gdzie są nasze PatronkiGdzie są nasze Patronki BNP

90 proc. patronów polskich szkół to mężczyźni. Bank BNP Paribas wychodzi naprzeciw tej dysproporcji i rozpoczyna akcję "Gdzie są nasze Patronki". Ma ona zachęcić szkoły do obsadzenia w roli patronki jednej z wyjątkowych kobiet, które zapisały się na kartach historii Polski i świata. Do akcji można się zgłaszać za pośrednictwem strony Patronki.pl. Można tam znaleźć także gotowy scenariusz lekcji o kobietach: „Kobieca strona historii”.

„Wysokie Obcasy” objęły patronatem akcję „Gdzie są nasze Patronki”.

Korzystałam m.in. z książek: "The Innovators: How a Group of Hackers, Geniuses, and Geeks Created the Digital Revolution" Waltera Isaacsona, "A Female Genius: How Ada Lovelace, Lord Byron’s Daughter, Started the Computer Age" i "Jacquard’s Web. How a Hand-Loom Led to the Birth of the Information Age" Jamesa Essingera, oraz artykułów w "New York Timesie".

Tekst został opublikowany w Wysokich Obcasach Extra nr 3, wydanie z dnia 19/02/2015

Czytaj ten tekst i setki innych dzięki prenumeracie

Wybierz prenumeratę, by czytać to, co Cię ciekawi

Wyborcza.pl to zawsze sprawdzone informacje, szczere wywiady, zaskakujące reportaże i porady ekspertów w sprawach, którymi żyjemy na co dzień. Do tego magazyny o książkach, historii i teksty z mediów europejskich. Zrezygnować możesz w każdej chwili.