Rozmowa dotyczy papierowych indeksów. Jest nas troje, siedzimy w uczelnianym zakładzie, czekamy na czwartą osobę, która trochę się spóźnia. Czas umilają nam nieśmiertelne anegdoty o tym, jak to wykładowca X wyrzucał indeksy przez okno, a student Y, grając indeksem w cymbergaja, niechcący kopnął go pod drzwiami do sali, w której trwał egzamin. Jego zdziwienie było wielkie, kiedy indeks po chwili powrócił z piątką i komentarzem "za odwagę".
Dziś papierowych indeksów już nie ma. I za parę lat studenci nie będą już rozumieć, co w tych historiach zabawnego. Trochę szkoda całego tego folkloru, jakim indeksy obrosły przez lata. Z drugiej strony jestem pewien, że w dobie USOS-a narodzą się nowe opowieści. A może zresztą już się urodziły, tylko my – pogrążeni w nostalgii za papierowymi indeksami – po prostu ich jeszcze nie znamy.
W każdym razie rozmawiamy o indeksach. Od głupawych historyjek przechodzimy do najdziwniejszych rzeczy, które mamy w indeksie. Koleżanka opowiada o zajęciach z klasycznych tematów antropologii, które co roku dotyczyły innego problemu. Chodziła na nie akurat w semestrze, gdy poświęcone były magii. "Mam w indeksie piątkę z magii!" – chwali się. Brzmi fajnie. "Ciekawe, jak to się spodoba pracodawcom?" – komentujemy. I wtedy właśnie przypomina mi się Galina Lindquist.
Galina Lindquist była antropolożką. Urodziła się z Rosji, ale wyemigrowała i wyszła za Szweda. Stąd ważne dla tej historii połączenie rosyjskiego imienia i zachodniego nazwiska. Pod koniec lat 90. XX wieku Lindquist wróciła do Rosji, żeby prowadzić badania nad magią. Interesowało ją, dlaczego Rosjanie tak chętnie chodzą do wróżek i uzdrowicieli, dlaczego – mimo sceptycyzmu nauki, głównego nurtu mediów i Cerkwi prawosławnej – coraz większą popularnością cieszyły się dziwaczne kulty i wierzenia.
Latem 1999 r. odwiedzili ją w Moskwie mąż i syn. Lindquist zabrała ich do Mauzoleum Lenina. Gdy odstali już swoje w monstrualnej kolejce, milicjanci rzucili tylko okiem na paszporty męża i syna. "Obcokrajowcy. Możecie iść". Jednak dokumenty antropolożki nie spodobały im się. Zidentyfikowali ją jako zdrajczynię: Rosjankę, która wyrzekła się swojej ojczyzny. Zaczęli przetrząsać jej torebkę. Wreszcie z triumfem wygrzebali telefon komórkowy. "Niezgłoszonych telefonów komórkowych nie wolno wnosić na teren. Pójdzie pani z nami!".
Odciągnęli przerażoną kobietę na bok i zaczęli ją odpytywać. "Czego pani szuka w Rosji?". "Studiuję magię" – odpowiedziała Lindquist, wiedząc, że kłamstwo może ją drogo kosztować. "Co pani studiuje?!" "Magię" – potwierdziła antropolożka. Milicjanci wymienili przerażone spojrzenia, po czym oddali badaczce telefon, przypominając uprzejmie, żeby następnym razem pamiętała, by go zgłosić. Z kimś, kto studiuje magię, lepiej nie zadzierać…
Nie, to nie jest po prostu jedna z tych zabawnych anegdot, które wrzucamy do książki, by ją nieco ubarwić. Lindquist umieszcza tę historię we wstępie do pracy "Conjuring Hope. Healing and Magic in Contemporary Russia", bo – jak twierdzi – do było wydarzenie, które zmieniło jej podejście do magii i ustawiło całe badania pod nowym kątem.
"Każdy mieszkaniec Rosji – tłumaczy Galina Lindquist – może być w najmniej oczekiwanej chwili zdany na łaskę potężniejszych od siebie. Mechanizmy, przez które działa władza, są mętne i niezgłębione. Monstrualna biurokracja splata się z jednostkowymi intencjami i działaniami, kierowanymi raz emocjonalne impulsy, innym razem przez chłodną kalkulację. (…) Struktury władzy działają poprzez znaki. Te znaki różni ludzie odczytują w różny sposób, ale uznają ich efekty, które podporządkowane są pewnej podzielanej logice. Ta logika także wydaje się niezgłębiona, ale efekty są jak najbardziej rzeczywiste. Dokładnie tak jest z magią. Czyni cuda, ale w sposób, którego nigdy nie jesteśmy w stanie przewidzieć".
Książka Lindquist pokazuje, że badanie magii może dostarczyć doskonałego wglądu w to, jak Rosjanie doby transformacji postrzegali swoją sytuację życiową i wszystko, co się z nimi dzieje. Rozpad dawnych struktur komunistycznej biurokracji i narodziny nowych reguł kapitalistycznej oligarchii wytworzyły sytuację skrajnej niepewności. Czy ci, w których siłę i moc sprawczą wierzyliśmy dotychczas, okażą się zwycięzcami czy przegranymi transformacji? Czy dawne sposoby zdobywania i okazywania prestiżu albo potrzebnych w codziennym życiu dóbr pozostaną skuteczne? Wiara w magię była dla wielu badanych Rosjan sposobem na wyjaśnienie otaczającego ich świata, a często nawet na odzyskanie poczucia sprawczości i kontroli nad własnym życiem.
Humanista znający się na teorii magii okazuje się więc w takiej sytuacji doskonałym obserwatorem życia społecznego. Dla Lindquist, tak jak dla najlepszych w tej branży, magia nie była celem samym w sobie, lecz kluczem do zrozumienia tego, jak Rosjanie po pierestrojce interpretowali zachodzące wokół nich przemiany.
Jest wiele definicji humanistyki (wśród nich i takie, które mówią, że humanistyka z definicji wymyka się definicjom). Jednak szczególnie lubię te definicje, które odwołują się do rozumienia.
Potrzeba rozumienia otaczającego nas świata, nadania mu sensu, uporządkowania – to fundamentalna potrzeba człowieka. Dlatego właśnie sytuacje rozpadu ładu – nagłych przemian politycznych, gospodarczych czy technologicznych – domagają się natychmiastowej produkcji nowych mitów i opowieści, które wyjaśniłyby to, co się dzieje.
Nauki humanistyczne i społeczne są bardzo zróżnicowane, posługują się różnymi metodami, zwracają uwagę na odmienne przedmioty i aspekty życia. Tym, co je łączy, jest właśnie zainteresowanie mechanizmami rozumienia. Można więc powiedzieć, że u swych źródeł humanistyka jest zawsze próbą zrozumienia rozumienia. Ludzie próbują rozumieć świat wokół siebie, humaniści starają się zrozumieć to rozumienie. Problem polega oczywiście na tym, że humaniści też są ludźmi, a rozumienie rozumienia staje się samo przedmiotem rozumienia. I tak oto humanistyka wikła się ze swym przedmiotem w coraz bardziej skomplikowane sploty.
Trochę tak, jakby ryby zajmowały się ichtiologią…
Ale wróćmy do naszego prowokacyjnego pytania badawczego – do studiowania czarów. W tej perspektywie magia okazuje się, oczywiście, jednym z wielu sposobów wyjaśniania sobie świata i odzyskiwania nad nim kontroli. Z perspektywy badającego ją antropologa nie ma wielkiego znaczenia, czy magia działa (a to z kolei zależy od tego, jak zdefiniujemy "skuteczność"). Ważne jest, że stanowi narzędzie wyjaśniania świata. Poznanie jej w tej roli nie pozwoli nam wprawdzie wskrzeszać umarłych ani zamieniać ludzi w kamień. Bywa jednak bardziej przydatne, niż można się spodziewać na pierwszy rzut oka.
Różnica między myśleniem naukowym i magicznym od dawna stanowi przedmiot zainteresowania antropologii.
Claude Levi-Strauss, jeden z klasyków tej dyscypliny, stwierdza, że polega ona przede wszystkim na odmiennym rozumieniu przyczynowości: "magia postuluje przyczynowość ogólną i integralną". Nieco rzecz upraszczając: kiedy zadajemy pytanie "dlaczego" z punktu widzenia nauki, nasze myśli kierują się ku przyczynie. Z punktu widzenia magii i mitu "dlaczego" kieruje raczej ku sensowi, ku odpowiedzi na pytania o porządek świata lub przynajmniej osobowe sprawstwo.
Mój ulubiony przykład tej różnicy w podejściu do kwestii przyczynowości znajduje się na kartach "Hebanu" Ryszarda Kapuścińskiego. Abstrahując od pewnych kolonialnych uproszczeń, które zapewne wkradły do tego opisu, spróbujmy przyjrzeć się tej anegdocie jako zderzeniu dwóch "typów idealnych".
Mieszkańcy zachodniej Ugandy, opowiada Kapuściński, głęboko wierzą, że światem rządzą siły nadnaturalne: "Są to siły konkretne, duchy, które mają imiona, czary, które można określić. To one nadają bieg i sens zdarzeniom, rozstrzygają o naszym losie, decydują o wszystkim. Dlatego w tym, co się dzieje, nic nie jest przypadkowe, przypadek po prostu nie istnieje". Oto jak kierowca Kapuścińskiego, Sebuya, przekonywał go, że to podejście znacznie mądrzejsze, niż naukowe wyjaśnianie proponowane przez białych kolonizatorów. Gdyby na przykład Sebuya miał wypadek i zginął, pojawiłoby się pytanie: dlaczego akurat on miał wypadek, a nie któryś z milionów innych kierowców? Biali ludzie, skażeni podejściem naukowym, poszukaliby prostej przyczyny w rodzaju zepsutych hamulców.
Kapuściński rekonstruuje myślenie swego kierowcy: "Ale takie myślenie do niczego nie prowadzi, nic nie objaśnia. Bo dlaczego właśnie Sebui zepsuły się hamulce? Przecież tego samego dnia na całym świecie jechały miliony samochodów, które miały dobre hamulce, a właśnie Sebuya – złe. Dlaczego? Biali ludzie, których myślenie jest przecież szczytem naiwności, powiedzą, że Sebui zepsuły się hamulce, bo zawczasu nie pomyślał, aby je sprawdzić i naprawić. Ale dlaczego właśnie Sebuya miał pomyśleć? Przecież tego samego dnia miliony itd., itd. Widzimy więc, że sposób rozumowania białego człowieka prowadzi donikąd. Gorzej! Biały człowiek ustaliwszy, że przyczyną wypadku i śmierci Sebui były złe hamulce, sporządza o tym protokół i zamyka sprawę. Zamyka! Kiedy ona w tym momencie powinna się właśnie zacząć! Bo Sebuya zginął, gdyż ktoś na niego rzucił czary. To jest proste i oczywiste. Nie wiemy natomiast, kto był tym sprawcą i to właśnie musimy teraz ustalić".
Ta anegdota długo wydawała mi się zabawna. Aż pewnego dnia, jadąc samochodem, usłyszałem w radiu zrozpaczoną matkę mężczyzny, który zginął w katastrofie hali Międzynarodowych Targów Katowickich.
To była głośna sprawa. W styczniu 2006 r., podczas wystawy gołębi, zawalił się dach konstrukcji, zabijając 65 osób i raniąc ponad 170. Proces ciągnął się wiele lat, zarzuty stawiano wielu osobom. Wśród przyczyn katastrofy znalazły się między innymi błędy projektowe, niedostateczny nadzór, ale też brak usunięcia zalegającego na dachu śniegu. Z punktu widzenia nauki (i prawa) na tragedię złożyło się więc wiele drobnych przyczyn. Ale kobieta osobiście dotknięta nieszczęściem takie wyjaśnienie odebrała jak poważny cios. "Tyle miesięcy, badali szukali i na koniec co się okazuje? Nikt nie jest winny? Każdy po trochu? A ja chcę tylko wiedzieć, kto zabił mojego syna!"
Podobne głosy powtarzają się w kontekście każdej poważniejszej katastrofy. Odpowiedź o ciągu drobnych zaniedbań i nieszczęśliwych zbiegów okoliczności nie ma dla części ludzi siły przekonywania. Z punktu widzenia osób silnie emocjonalnie zaangażowanych, wygląda to na próbę rozmienienia na drobne i ukrycia prawdziwych winnych. Właśnie dlatego, że oczekują oni wyjaśnienia bardziej w duchu magii niż religii. I nie znaczy to, że ludzie nieusatysfakcjonowani wynikami oficjalnych śledztw są w jakikolwiek sposób "głupi" czy "upośledzeni kulturowo". Po prostu, zdominowany przez myślenie naukowe nowoczesny świat nie odpowiada na niektóre głęboko zakorzenione w nas potrzeby.
Humanista, który chodził na zajęcia antropologiczne na temat magii, pozwoliłby lepiej zrozumieć nieufne reakcje wobec wyroków sądowych czy ustaleń naukowców, które w skrajnych przypadkach przeradzają się w teorie spiskowe. Co więcej, dogłębne poznanie tych mechanizmów może pomóc sędziom czy komisjom badającym przyczyny wypadków, jak lepiej i skuteczniej komunikować wyniki swoich prac.
To doskonały przykład, że rozumienie mechanizmów (nie)rozumienia jest ważnym narzędziem zmieniania świata.
Ale magia to nie tylko teoria. To przede wszystkim praktyka. Wszak kiedy myślimy o wiedźmie albo czarnoksiężniku, nie wyobrażamy sobie myślicieli pogrążonych w spekulacjach, lecz ludzi aktywnie zmieniających rzeczywistość przez manipulację określonymi przedmiotami czy wypowiadanie pewnych słów. Każdy fan "Harrego Pottera" wie, że nie ma skutecznej magii bez różdżek, tiar i obco brzmiących inkantacji…
Do podobnego wniosku doszedł opisywany przez Franza Boasa i Claude’a Levi-Straussa rdzenny mieszkaniec okolic kanadyjskiego Vancouver o imieniu Quesalid.
Quesalid, choć miał sceptyczne usposobienie, poświęcił wiele miesięcy na studia z zakresu magii. Program jego edukacji nie przypominał wprawdzie rozkładu zajęć z Hogwartu, przedstawiał jednak fascynującą listę umiejętności takich jak "sztuka udawania omdleń, symulowania szoków nerwowych, nauka pieśni magicznych, technika powodowania u siebie wymiotów". Ukoronowaniem była sekretna technika dowodzenia, że choroba została usunięta z ciała pacjenta: stosowanie "stosowanie małej kulki z pierza, którą szaman ukrywa w kącie ust i wypluwa następnie w odpowiednim momencie, całkowicie zakrwawioną, dzięki ugryzieniu się w język lub spowodowaniu upływu krwi z dziąseł, aby pokazać ją uroczyście choremu oraz jego otoczeniu jako ciało patologiczne wydobyte dzięki ssaniu i innym zabiegom" (za: Claude Levi-Strauss, "Czarownik i jego magia", w: "Antropologia strukturalna", przeł. Krzysztof Pomian).
Pewnego razu nasz bohater trafia do sąsiedniego plemienia, którego szamani twierdzą, że leczą chorobę, ale pacjentowi pokazują jedynie wyplutą na dłoń ślinę. W porównaniu ze spektakularnymi umiejętnościami Quesalida, ich technika okazuje się niewiele warta. Skutecznie "uzdrawia" on pacjentów, których tamtejsi szamani nie potrafili wyleczyć. Konkurenci błagają Quesalida, aby wyjawił im swój sekret, ten jednak pozostaje niewzruszony.
Jako fachowy czarownik wie on, że zmiana świata musi przybrać materialną postać. Nie wystarczy powiedzieć choremu, że od teraz jest zdrowy. Nie wystarczy zapewnić, że złe duchy zostały odegnane. Pod wszystkimi długościami i szerokościami geograficznymi magia przybiera materialne formy.
Co więcej, poznając sekrety magii z różnych stron świata łatwo odkryć, że skuteczne materialne nośniki magii spełniają określone cechy. Doskonale nadają się do tego drobne przedmioty mieszczące się w dłoni (muszle, amulety, jajka). Nośnikiem bardziej abstrakcyjnej mocy może z kolei być woda. Jeżeli język, to archaizowany lub w ogóle niezrozumiały.
Może się komuś wydać, że ta lekcja magii przyda się tylko tym, którzy postanowią wybrać karierę szarlatana. Jest jednak zupełnie inaczej! Trudno wręcz wyliczyć miejsca, w których ta pozornie dziwaczna wiedza może się przydać.
"Magiczne" techniki materializowania wykorzystują dziś najskuteczniejsze promocje w supermarketach i nagradzane kampanie społeczne. Przede wszystkim jednak opowieść o Quesalidzie pozwala dostrzec jedną z ważnych słabości współczesnej medycyny. Choć jej sukcesy są wielkie, często terapie ciągną się latami, a o chorobie i zdrowiu dowiadujemy się z niezrozumiałych dla laika wyników badań. Musimy zaufać lekarzowi.
Tymczasem szarlatani doskonale przyswoili sobie lekcje ze szkoły magii i czarodziejstwa. "Strukturyzatory wody" i "generatory pola" mrugają wesoło lampkami i wydają pokrzepiające piknięcia. Codzienne sporządzanie dziwnych mikstur albo odliczanie wielkich dawek witaminy C także wydaje się namacalne. O cudotwórcach leczących przez nakładanie dłoni, wysyłanie pól i szeptanie magicznych formuł już nie wspomnę, bo ci wywodzą się wprost ze szkoły Quesalida.
Humanista, który zapoznał się na zajęciach z antropologii z magią, mógłby więc pracować w szpitalu albo firmie farmaceutycznej nad tym, aby w postaci materialnej unaoczniać pacjentom postęp ich terapii.
Nie chodzi tu o szamańskie sztuczki i wypluwanie pierza. Pacjenci w wielkich centrach onkologicznych nie dostają na przykład żadnych "kalendarzy" ilustrujących w namacalnej formie kolejne etapy otwierającej się przed nimi drogi ku zdrowiu. Nie dostają nawet map gigantycznych kompleksów, w których gubią się nieustannie, przenosząc to zagubienie i poczucie wyobcowania na brak zaufania do lekarzy i personelu. To szkolny błąd, którego żaden porządny szaman nie popełnia.
Z pewnego punktu widzenia to, co nazywamy "magią" może zostać zreinterpretowane jako zestaw technik zarządzania doświadczeniem choroby tak, żeby przeprowadzić przez nią pacjenta jak najłagodniej i zbudować jego zaufanie do opiekujących się nim ekspertów.
A kluczem do tego okazuje się – znów – rozumienie. Kulki z pierza w pewnej perspektywie jawią się jako narzędzia sprytnych oszustów. W innej okazać się jednak mogą narzędziami, które ułatwiają zrozumienie natury choroby i procesu zdrowienia.
Oczywiście, magia była tu tylko przykładem. Prowokacyjnym i dobranym tak, żeby nie ułatwiać sobie życia.
Bo jeżeli studiowanie magii może przynieść wymierne efekty w tak wielu dziedzinach życia, to o ileż łatwiej wymyślić praktyczne zastosowania ikonografii, antropologii kultury wizualnej albo badań nad kulturowymi wzorcami zachowań mężczyzn i kobiet.
W tym celu niezbędna wydaje się jednak zmiana sposobu, w jaki zwykle myślimy o humanistyce. Metafory, które najczęściej słyszę z ust kandydatów na studia, studentów i wykładowców, zorganizowane są wokół takich figur jak dziedzictwo, skarbiec, kanon. A więc to, co ważne samo w sobie. Wydaje mi się, że – nie podważając wcale wartości badań podstawowych, kultywowania tradycji i ochrony dziedzictwa – można zarazem myśleć o humanistyce jako o skrzynce z narzędziami.
Czegokolwiek uczymy się o najbardziej wysublimowanej sztuce, najodleglejszej historii, czy najdziwaczniejszych obyczajach, ostatecznie okazuje się próbą zrozumienia rozumienia. Im bardziej to rozumienie – obraz świata z nim związany, lęki, obawy, nadzieje – jest inne od naszego, tym bardziej wyostrzają się nasze narzędzia. A to, co za ich pomocą zrobimy, nie musi mieć nic wspólnego z Picassem, Cezarem ani Kwakiutlami.
W niskobudżetowych filmach akcji kandydat na wojownika ninja musi wynaleźć tysiąc sposobów, aby zabić swych wrogów przy użyciu dowolnego przedmiotu, który znajduje się w jego polu widzenia. Najlepsi humaniści, których znam, są jak mistrzowie ninja. Na ich wykładach, w ich książkach i artykułach, Cyceron, Goethe czy Polinezyjczycy stają się śmiertelnie skutecznymi narzędziami rozumienia świata.
Warto dostrzec tę magiczną naturę humanistyki. Choć posługuje się dziwnymi rytuałami i tajemniczymi zaklęciami, to w gruncie rzeczy służy do rozumienia i zmieniania świata.
Każdy król wie, że dobrze mieć na swoim dworze zaufanego czarnoksiężnika.
Dr hab. MARCIN NAPIÓRKOWSKI (ur. 1985) jest semiotykiem kultury, zajmuje się mitologią współczesną, pamięcią zbiorową i kulturą popularną. Absolwent kulturoznawstwa i socjologii, doktor nauk humanistycznych w zakresie filozofii, w 2015 r. uzyskał habilitację w dziedzinie nauk humanistycznych. Autor książek "Mitologia współczesna" (2013), "Władza wyobraźni" (2014) i "Powstanie Umarłych. Historia pamięci 1944-2014" (2016).
Zacznijmy od szczęścia.
Ludzkość od wieków poszukiwała na nie recepty. Pierwsze pytania o warunki życia szczęśliwego zaczęto stawiać już w starożytności, a w epoce postoświeceniowej filozofia moralna nadała tym badaniom nowy impet. Z kolei w XX wieku szukający szczęścia filozofowie znaleźli wsparcie w psychologach, socjologach i ekonomistach, a także wśród niektórych, bardziej humanistycznie zorientowanych neurobiologów. Także wielkie religie nieprzerwanie mówią o warunkach koniecznych do osiągnięcia wiecznego szczęścia. Jeśli dodać do tego, że ideologie polityczne stanowią – w swojej najbardziej ogólnej formie – przepisy na jego osiągnięcie, wychodzi na to, że nie da się uciec od myślenia o szczęściu.
O co właściwie humanista ma pytać, gdy studiuje tak ulotne zjawisko jak szczęście?
Podstawowe pytania, jakie się nasuwają, są oczywiste: czym jest szczęście? Jakie czynniki zwiększają jego poziom? Czy można je zmierzyć? Czy można tworzyć warunki dla życia szczęśliwego?
Zagadnienie szczęścia, jak każdy ważny problem, jest interdyscyplinarne. Odpowiedź na pytanie o to, czym jest szczęście, wikła nas najpierw w dyskusje etyczne. Ale potem, jeśli już przyjmiemy jakąś jego definicję, wówczas pojawiają się kolejne pytania, np. czy uda się na jej podstawie wypracować optymalne polityki publiczne? A jeśli tak, to czy możliwy jest system polityczny, który je wprowadzi w życie? A jeżeli taki system jest możliwy – lub jeśli przynajmniej jest on do pomyślenia – to czy nie okaże się on jedynie fantasmagorią, która w praktyce się nie sprawdzi?
W latach 60. XX wieku problematyka szczęścia zaczęła interesować psychologów. Ale skoncentrowali się oni na drugiej stronie medalu, a mianowicie na przyczynach życia nieszczęśliwego. W dalszej kolejności szczęście zaczęło interesować ekonomistów, którzy rozpoczęli badania nad stopniem szczęścia na poziomie jednostek, grup i całych społeczeństw. Zaczęli też oni porównywać osiągane dane empiryczne i szukać warunków sprzyjających osiągnięciu stanu szczęśliwości. A także odpowiedzi na pytanie: czy państwa są w stanie podnieść poziom szczęścia swoich społeczeństw?
Następnie przeformułowano samo pojęcie szczęścia. Zamiast pytać o szczęście, dziś pyta się o dobre samopoczucie (subjective well-being). Dobre samopoczucie można mierzyć na poziomie indywidualnym i zbiorowym, subiektywnym i obiektywnym (występują również mieszane metody, łączące każdy z tych poziomów).
Psychologom zdarza się badać indywidualne, subiektywne poczucie szczęścia, które nosi nazwę satysfakcji z życia. Jest ona niczym innym, jak subiektywną oceną jakości własnej egzystencji. Badania nad tak rozumianym szczęściem doprowadziły do ustalenia, że ludzie szczęśliwsi są zdrowsi, mają silniejsze relacje z innymi, i że są bardziej aktywni. Okazuje się też, że w zamożnych społeczeństwach zachodnich stosunek ludzi szczęśliwych do nieszczęśliwych wynosi jak 3 do 1.
Ruut Veenhoven przeprowadził metaanalizę 245 badań w 32 państwach, który były poświęcone czynnikom sprzyjającym prowadzeniu szczęśliwego życia. Co z nich wynikło? Że, mówiąc w uproszczeniu, osoby szczęśliwe żyją w bogatych państwach, gdzie panują wolność i demokracja, a scena polityczna jest stabilna. Jako bardziej szczęśliwe postrzegają się osoby należące raczej do większości niż do mniejszości w społeczeństwie. Co nie powinno dziwić, statystycznie bardziej szczęśliwe są osoby, którym się lepiej powodzi niż te, którym powodzi się gorzej. Osoby szczęśliwe pozostają też zazwyczaj w związku małżeńskim oraz mogą poszczycić się kręgiem przyjaciół.
Niektóre teorie utrzymują, że poczucie szczęścia zmienia się cyklicznie: po bardziej szczęśliwych okresach ma pojawiać się okres mniej radosny. Teorie takie zakładają sumę zerową poziomu szczęśliwości. Czas nieszczęścia jest neutralizowany przez okres większego szczęścia. Z kolei inne teorie utrzymują, że poziom odczuwalnego szczęścia jest względnie stały przez całe życie, choć w okresie dorastania następują jego większe wahania.
Choć teorie te zdają się sugerować, że poziom szczęśliwości jest z góry ustalony, to nie zostały one potwierdzone w badaniach empirycznych. Poprawniej byłoby powiedzieć, że każdy z nas ma tendencję do osiągnięcia określonego poziomu szczęścia, ale w indywidualnych przypadkach możemy się znaleźć poniżej lub powyżej, w zależności od okoliczności życiowych.
Niektórzy ze starożytnych filozofów twierdzili, że życie szczęśliwe to życie spokojne, skromne, kontemplacyjne, zdyscyplinowane. I choć w świetle powyższych twierdzeń o stabilności poziomu szczęścia może wydawać się to bezpodstawne, to w drugiej połowie XX wieku przeprowadzono szereg eksperymentów, które wskazywałyby, że odpowiednie ćwiczenia mogą lekko podwyższyć poziom szczęścia, choć nie wiadomo na jak długo.
Jak już wspomnieliśmy, nad sposobami mierzenia szczęścia – i ewentualnego wykorzystania uzyskanych rezultatów – głowią się także ekonomiści. I choć szczęście jest doznaniem subiektywnym, to od dłuższego czasu próbuje się je zobiektywizować.
Sztandarową próbą takiej obiektywizacji było zaproponowanie w latach 70. XX wieku w Królestwie Bhutanu wskaźnika Narodowego Szczęścia Brutto, zamiast powszechnie stosowanego w świecie Produktu Krajowego Brutto. Celem NSB jest mierzenie w sposób całościowy, a nie jedynie ekonomiczny, jakości życia społeczeństwa. Ma on także znaczenie praktyczne, ponieważ NSB jest jednym z czynników branych pod uwagę w trakcie planowania rozwoju społeczno-gospodarczego.
Innym przykładem, znacznie nam bliższym, było powołanie w 2008 r. do życia przez ówczesnego prezydenta Francji Nicolasa Sarkozy’ego Komisji ds. Pomiaru Gospodarki i Postępu Społecznego. Jej przewodniczącym został wybitny ekonomista, laureat Nagrody Nobla Joseph E. Stiglitz. Komisja zarekomendowała uzupełnienie wskaźników ekonomicznych o inne mierzalne i obiektywne miary, w tym o pomiary szczęścia.
Każdy chce być szczęśliwy. I mimo że szczęście zajmuje wysokie miejsce na liście życiowych celów każdego człowieka, to na pierwszy rzut oka trudno jest sobie wyobrazić, że można naukowo opisywać, mierzyć, a nawet uczyć życia szczęśliwego. Tymczasem to właśnie przedstawiciele nauk humanistycznych i społecznych – poczynając, jak już wykazaliśmy, od filozofów, następnie przez psychologów i socjologów, a na ekonomistach kończąc – badali szczęście.
Jednym z niebywałym osiągnięć tej interdyscyplinarnej sztafety naukowej jest możliwość wykorzystania rezultatów naukowych w planowaniu polityk publicznych i ocenianiu stanu gospodarek poszczególnych krajów.
Nie jest łatwo dyskutować o szczęściu. Ale jeszcze trudniej jest nie dyskutować.
Drugie ważne słowo, którym chcemy się tu zająć, to wolność. Oraz – wolna wola.
Zapytajmy najpierw: kto podejmuje nasze decyzje? My sami? Czy może jesteśmy jedynie zaprogramowanym biologicznym mechanizmem, a wolna wola jest tylko złudzeniem?
Dyskusja o wolnej woli to jedna z najdłużej trwających dyskusji w dziejach myśli ludzkiej. Jej rozstrzygnięcie ma fundamentalne znaczenie praktyczne, ponieważ wolność jest warunkiem odpowiedzialności moralnej i prawnej. Brak wolności to brak odpowiedzialności. Tymczasem to właśnie humanistyka broni dziś wolności człowieka w zakresie, w jakim może być ona podważana przez interpretacje eksperymentów naukowych.
Skąd taki wniosek?
Ostatnie dekady XX wieku to rozwój neuronauk, czyli dyscyplin naukowych badających sposób funkcjonowania mózgu. Studia takie dotyczą nie tylko budowy mózgu i jego funkcjonowania na najbardziej podstawowym, biologicznym poziomie, ale są również jego funkcjonowania w sytuacjach podejmowania decyzji – od prostych decyzji motorycznych po złożone decyzje moralne. Spektrum podejmowanych tu problemów jest szerokie. Neuronaukowcy studiują działanie mózgu człowieka słuchającego muzyki, rozwiązującego trudne zadania matematyczne, a także podejmującego decyzje związane z wolną wolą.
Swego czasu słynny był tu eksperyment, który przeprowadził Benjamin Libet z University of California w San Francisco. Chciał on zbadać współdziałanie podświadomych i świadomych procesów, wpływających na podejmowanie prostych decyzji motorycznych.
Umieszczając elektrody na głowach uczestników eksperymentów, odkrył on, że aktywność mózgu pojawia się 350-400 milisekund przed momentem, w którym uczestnicy raportowali moment podjęcia świadomej decyzji o wykonaniu ruchu ręką. A następnie mija kolejnych 200 milisekund, zanim uczestnicy istotnie ręką ruszali.
Eksperyment Libeta został zinterpretowany jako dowód na brak wolnej woli. Twierdzono, że decyzję o poruszeniu ręką mózg podejmuje poza naszą świadomą kontrolą, zaś od nas zależy jedynie, czy ją zablokować. Mielibyśmy więc 200 milisekund (jedną piątą sekundy) na zmianę decyzji podjętej przez nasz mózg. Nie mamy wolnej woli – twierdzili zwolennicy tej teorii – lecz tylko wolne weto, które możemy wykorzystać. Ale tylko w ciągu owej jednej piątej sekundy przez wykonaniem decyzji.
Czy eksperyment Libeta zadał ostateczny cios koncepcji wolnej woli, na której zbudowaliśmy nasze systemy moralne, prawne i społeczne? Niekoniecznie, ponieważ filozofowie zaczęli szukać dziury w całym – i znaleźli nie jedną, lecz kilka takich dziur.
Przykładowo, filozof i kognitywista Daniel Dennett uznał, że ten typ interpretacji wolnej woli to przykład złego myślenia. Libet i jego zwolennicy – dowodził Dennett – nieprecyzyjnie definiują wolną wolę, zakładając, iż jest ona wprawdzie zależna od człowieka, ale już nie od jego kory mózgowej. Tymczasem czyż mózg nie jest częścią człowieka? Bo jeśli nie jest, to gdzie go szukać…?
Poza tym, jak zauważa neurobiolog i filozof Daniel Gazzaniga, takie eksperymenty zakładają liniowe działanie mózgu: aktywizować miałaby się najpierw jedna jego część, potem druga, trzecia i czwarta, aż w końcu podejmujemy decyzję. Tymczasem – twierdził Gazzaniga – mózg to nie domino. Nasze mózgi pracują raczej symultanicznie, gdzie procesy wpływają na siebie wzajemnie, w czasie rzeczywistym.
Ponadto właściwie dlaczego ruchy palców, rąk czy nadgarstków mają być uznane za wzorcowe przypadki podejmowanych przez ludzi decyzji? Filozof Adina Roskies uważa, że to zdecydowanie za mało, aby przyjąć, iż człowiek podejmujący decyzję np. o kupnie domu, kradzieży zegarka czy przekroczeniu prędkości na drodze jest jedynie wykonawcą rezultatów procesów mózgowych, których nie kontroluje.
Jaka z tego konkluzja dla naszych rozważań o pożytkach z humanistyki?
Otóż taka, że wnikliwe studiowanie założeń eksperymentów naukowych, użytych w nich pojęć i metod, to domena również nauk humanistycznych. W tym sensie humanistyka – stojąc na straży precyzji pojęciowej i rzetelności metodologicznej – stoi jednocześnie na straży wolnej woli. Nie można uciec od poprawnego myślenia o myśleniu. Nawet gdy dysponuje się najnowocześniejszym sprzętem badawczym.
I wreszcie trzecie pojęcie, będące tematem naszych rozważań: sprawiedliwość.
Ona towarzyszy nam nieustannie. Nie możemy uwolnić się od poczucia sprawiedliwości. Nieustannie oceniamy, czy konkretny człowiek, grupa albo państwo są sprawiedliwe. Zastanawiamy się, czy ich działania (lub zaniechania) można uznać za sprawiedliwe. A przecież w kategoriach sprawiedliwości oceniamy nie tylko ludzi lub organizacje – oraz ich postępowanie – lecz również obowiązujące prawa, reguły, umowy. Wcale nierzadko oceniamy też, czy jakiś stan rzeczy można uznać za sprawiedliwy – np. gdy cierpi dobra osoba, a osobie złej nic bolesnego się nie przydarza. Patrzymy na świat przez soczewki sprawiedliwości.
Także gdy twierdzimy, że ludzie, zachowania albo stany rzeczy, które są do siebie bardzo podobne, powinny być traktowane tak samo – wtedy mówimy językiem sprawiedliwości formalnej. Z kolei pytając o to, co właściwie znaczy, że należy traktować je tak samo, wchodzimy na teren sprawiedliwości materialnej. Podpowiada ona, że każdy zasługuje na to, co wynika z obowiązków, które przyjął na siebie własnym dobrowolnym działaniem (to sprawiedliwość komutatywna). Jeśli ja zgadzam się na określone warunki współpracy i ty się na nie zgadzasz, to umowa taka jest sprawiedliwa. Mamy również drugą stronę materialnego rozumienia sprawiedliwości, która nie jest już tak jednoznaczna, ponieważ zgodnie z jej wskazaniami sprawiedliwe jest to, co każdy otrzymuje stosownie do wykonanej pracy, potrzeb lub zasług – lub też każdy otrzymuje to samo. Myśląc i mówiąc w ten sposób, mówimy, zwykle nieświadomie, językiem Arystotelesa.
To właśnie Filozof (przez wielkie „F”: tak był on z szacunkiem określany w średniowieczu) zaproponował podział na sprawiedliwość komutatywną, realizującą się dzięki siłom rynkowym oraz dystrybutywną, która nakazywała traktować ludzi nie w sposób arbitralny, ale w sposób wyznaczony przez przyjętą wcześniej zasadę. I choć od tego czasu studia humanistyczne zaproponowały nowe rozumienia sprawiedliwości i nowe jej rodzaje, to wiele z nich opiera się na podziale zaproponowanym przez Filozofa.
Dzisiaj humaniści i przedstawiciele nauk społecznych badają nasze poczucie sprawiedliwości w eksperymentach, które niekiedy dają zaskakujące rezultaty. W ramach tak różnych dyscyplin jak filozofia eksperymentalna, psychologia moralna czy ekonomia behawioralna próbują dociec, co ludzie uznają za sprawiedliwe i dlaczego. Tymczasem zrozumienie naszego poczucia sprawiedliwości może mieć fundamentalne znaczenie np. dla kształtu systemu podatkowego lub prawa karnego.
Weźmy taki przykład: prostą grę interpersonalną. Bo nie tylko matematycy i ekonomiści lubią grać w gry. Niektórymi grami zainteresowali się również humaniści. A jedną z nich jest tzw. gra ultimatum.
W grze ultimatum biorą udział dwie osoby. Na początku gracz, nazwijmy go Kowalski, otrzymuje 100 złotych. Następnie musi podzielić tę kwotę między siebie i drugą osobę, która pozostanie anonimowa także po zakończeniu gry (dlatego nazwijmy ją Anonimem). W pierwszym kroku Kowalski dzieli otrzymaną sumę. W drugim kroku Anonim musi podjąć decyzję, czy akceptuje taki podział. Jeśli zaakceptuje, obie osoby odejdą z pewną sumę pieniędzy, podzieloną przez Kowalskiego. Jeśli odrzuci, żaden z graczy nie otrzyma wypłaty.
Najbardziej racjonalną decyzją Kowalskiego byłby – teoretycznie – podział 99 do 1, ponieważ 99 to maksymalna stawka, jaką może sobie zaproponować, jednocześnie proponując tylko 1 złoty Anonimowi. Z kolei Anonim powinien – teoretycznie – przyjąć tę ofertę, gdyż 1 złoty to zawsze więcej od zero złotych.
Eksperymenty pokazują, że średnia oferta Kowalskiego mieści się w granicach 30-40 złotych, i że z kolei Anonimy bardzo rzadko odrzucają oferty mieszące się w granicach 40-50 złotych. Ale jeśli zaoferuje się im mniej niż 20 złotych, wtedy prawie połowa z nich ofertę odrzuci. Innymi słowy, Anonimy rezygnują z wypłaty, aby ukarać gracza, który ich zdaniem postąpił niesprawiedliwie.
Jaki z tego wniosek? Że ludzie są w stanie zrezygnować z pewnej sumy pieniędzy, aby zaspokoić własne poczucie sprawiedliwości. Dążenie do sprawiedliwego podziału dóbr jest cenione niekiedy wyżej, niż opłacalność takiego podziału.
Ryszard Kapuściński zauważył kiedyś, że żyjemy coraz bardziej w gospodarce, a coraz mniej w społeczeństwie. Studia humanistyczne nad sprawiedliwością mogą być jedną z kotwic utrzymujących nas w społeczeństwie – dowodzą one dobitnie, że same wartości rynkowe nie mogą być fundamentem nowoczesnego społeczeństwa.
Jeśli zaś będziemy wiedzieć, jak działa poczucie sprawiedliwości, to będziemy w stanie budować lepsze społeczeństwo, które będzie i sprawiedliwe, i zamożne.
Nie da się dziś mówić o szczęściu, wolności i sprawiedliwości, pomijając przy tym dorobek humanistów. A nikt przecież nie zaprzeczy, że instytucje publiczne mają m.in. stać na straży sprawiedliwości i tworzyć warunki dla szczęśliwego życia obywateli. Z kolei studia nad wolnością pozwalają oswajać osiągnięcia nauk biologicznych i poskramiać je tam, gdzie za fakty naukowe uznaje się ich błędne interpretacje.
Tak kiedyś, jak i dziś nauki humanistyczne pozwalają zrozumieć świat, w którym żyjemy. Humanistyka ma nie tylko bogatą przeszłość. Ma także teraźniejszość i przyszłość.
Dr RADOSŁAW ZYZIK (ur. 1984) jest doktorem prawa, wicedyrektorem Instytutu Nauk o Polityce i Administracji w Akademii Ignatianum w Krakowie. Zajmuje się behawioralną ekonomiczną analizą prawa, polityką i teorią prawa, neuroprawem oraz teorią decyzji.
Jej dziadkowie ze strony ojca nazywali się Franciszek Wójcicki i Janina Kozłowska. Franciszek był prawnikiem i działaczem Polskiego Stronnictwa Ludowego, za co po II wojnie światowej trafił na kilka lat do komunistycznego więzienia. Z kolei jej rodzice to Stanley Wojcicki, profesor fizyki, oraz Esther Wojcicki, dziennikarka pochodzenia rosyjsko-żydowskiego. Oboje przybyli do Ameryki jeszcze przed rokiem 1939.
Ojciec osiągnął tytuł profesora na Uniwersytecie Stanforda. Zarówno Susan (rocznik 1968), jak też jej dwie młodsze siostry od najmłodszych lat obracały się w środowisku akademików. Rodzina Wojcickich mieszkała na terenie kampusu w Palo Alto w Kalifornii, gdzie sąsiadowali z licznymi naukowcami. Przyjacielem domu był m.in. wybitny matematyk George Dantzig.
Za sprawą matki, humanistyka miała w domu Wojcickich mocną pozycję. Esther Wojcicki zdobyła licencjat z politologii i magisterium z dziennikarstwa. Później studiowała jeszcze filologię francuską i historię Francji na paryskiej Sorbonie. Rozpoczynając pracę w szkole średniej, zorganizowała tam jedną z pierwszych klas o profilu dziennikarskim.
Uczniowie w szkole, a córki w domu dowiadywały się więc od Esther, że najważniejsza w życiu umiejętność to klarowne formułowanie myśli – oraz umiejętność dzielenia informacji na te mniej i bardziej istotne. "Zawsze miałam w sobie przekonanie, że jeśli córki nauczą się myśleć logicznie, a następnie przelewać myśli na papier, to pomoże im dobrze wykonywać swoją pracę, jakikolwiek zawód by wybrały" – mówiła potem Esther Wojcicki w rozmowie z magazynem "Fortune".
Atmosfera domu rodzinnego i środowisko, w jakim się obracały sprawiły, że wszystkie córki Wojcickich zdobyły dobre wykształcenie. Janet, Ann i Susan uczęszczały do jedynej w Palo Alto publicznej szkoły średniej, gdzie redagowały szkolną gazetkę "The Oracle".
Rodzinny etos naukowy miał znaczący wpływ na ich przyszłość. Susan wielokrotnie wspominała, że kiedy była dzieckiem, chodziła z mamą do biblioteki z… koszem na bieliznę. Nie z torbą czy plecakiem na książki, ale właśnie z koszem na bieliznę, ponieważ tylko on mógł pomieścić porcję wiedzy odpowiednią dla wszystkich członków rodziny. Równocześnie jeszcze w latach 90. XX wieku Wojciccy byli pierwszą rodziną w sąsiedztwie, która kupiła komputer. Potem to Esther uczyła córki, jak nawigować po rodzącej się sieci.
W wywiadzie dla magazynu "Fast Company" z 2014 r. Susan Wojcicki tłumaczyła, że rodzice zawsze starali się rozbudzić w niej możliwie najszersze zainteresowania: "Ich celem nie było stać się bogatym czy sławnym. Powtarzali mi, że najważniejsze to znaleźć w życiu coś interesującego. Mieć pasję i za nią podążać".
Susan zaczęła studia na Uniwersytecie Harvarda w 1986 r. Wybrała historię i literaturę, co najbardziej odpowiadało jej zainteresowaniom. Rodzice nie starali się przekonać jej, aby postawiła na bardziej "praktyczny" kierunek. Ona sama raczej nie dopuszczała wtedy do siebie myśli, że mogłaby pracować w biznesie. Najbardziej naturalnym kierunkiem rozwoju wydawała się jej kariera naukowa, poważnie myślała o doktoracie. Jednak po trzecim roku studiów stało się coś, co pokrzyżowało te plany.
Jak zawsze podczas wakacji, Wojcicki – wzorem większości amerykańskich studentów – wykonywała najróżniejsze prace dorywcze. Traf chciał, że tym razem zatrudniono ją jako recepcjonistkę w jednej z wyrastających wówczas jak grzyby po deszczu firm technologicznych. Energia i optymizm ludzi zajmujących się komputerami i programowaniem bardzo jej zaimponowały. Wtedy też – jak potem wspominała – po raz pierwszy uświadomiła sobie, że internet w połączeniu z nowymi technologiami ma potencjał, aby zmienić świat.
To doświadczenie sprawiło, że wraz z początkiem czwartego roku studiów Wojcicki zapisała się na informatyczny kurs CS50. Musiała zmierzyć się z takimi zagadnieniami jak podstawy języka programowania, teoria algorytmów czy projektowanie rozwoju sieci.
O motywach swojej decyzji tak opowiadała po latach w rozmowie z dziennikiem "Financial Times": "Żyjemy w czasach nowej rewolucji przemysłowej. Nagle, w ciągu kilku dekad, większość ludzi nauczyła się korzystać z komputerów. Ale uświadomiłam sobie, że bez umiejętności pisania kodów będziemy skazani na rolę biernego czytelnika, nie stworzymy nic nowego w języku komputerów". Wojcicki uważa, że marnujemy w ten sposób ogromny potencjał: "Pomyślmy tylko, jak uboga byłaby światowa literatura, gdyby czytać i pisać potrafiło jedynie kilkanaście procent ludzi" – podkreśla.
Była wtedy jedynym na całej uczelni studentem humanistycznego kierunku, który zdecydował się wziąć udział w kursie CS50. Po latach przyznała, że tamto doświadczenie "zmieniło jej życie".
Dyplom absolwentki historii i literatury, a także rosnące zainteresowanie światem nowych technologii, skłoniły ją do rozpoczęcia podyplomowych studiów ekonomicznych na Uniwersytecie Kalifornijskim w Los Angeles. Później, w 1998 r., zdobyła jeszcze dyplom MBA na UCLA Anderson School of Management.
Zapytana o to, co uważa za najcenniejszą umiejętność zdobytą dzięki studiom humanistycznym, odpowiadała później bez wahania, że jest to umiejętność "opisu świata własnymi słowami", a nie hasłami zapożyczonymi od innych.
Jej kariera zawodowa zaczęła się w informatycznej firmie Intel.
Przypadek chciał, że w okolicy września 1998 r. natknęła się na dwóch młodych studentów informatyki. Siergiej Brin i Larry Page szukali miejsca, które byłoby jednocześnie ich biurem i warsztatem. Ceny wynajmu nieruchomości w kalifornijskiej Dolinie Krzemowej były jednak na tyle wysokie, że musieli szukać lokalizacji poza centrum miasta.
Wtedy to Susan Wojcicki postanowiła odstąpić im garaż w swoim nowym domu, za 1700 dolarów miesięcznie. Właśnie tam, pod adresem 232 Santa Margarita w Menlo Park, narodziła się mała firma o niewiele wtedy mówiącej nazwie: Google Inc.
"Wraz z mężem mieliśmy na głowie kredyt i początkowo interesowało mnie tylko to, aby oni na czas płacili czynsz. Ale im więcej czasu spędzałam z nimi w tym garażu, tym bardziej stawało się dla mnie jasne, że ta usługa ma ogromny, rewolucyjny wręcz potencjał" – mówiła Wojcicki podczas wykładu, wygłoszonego w 2017 r. na Kongresie Innowatorów Europy Środkowo-Wschodniej w Warszawie.
Nie minęło kilka miesięcy, a zatrudniono ją – jako szesnastego pracownika firmy Google’a. W roli szefowej działu marketingu, miała, jak się wtedy wydawało, zadanie karkołomne: stworzyć rozpoznawalną na świecie markę, nie mając do dyspozycji wielkiego budżetu ani personelu.
Wojcicki nigdy nie była "twarzą" firmy. Przez długi czas pozostawała w cieniu, jako jeden z kilkunastu wicedyrektorów – choć to jej dział przynosił większość dochodów. Niechęć do rozgłosu sprawiła, że w Dolinie Krzemowej żartobliwie nazywano ją nawet "najważniejszą osobą w reklamie, o której nigdy nie usłyszycie".
Jej to nie przeszkadzało, bo wszyscy najważniejsi ludzie "w branży" i tak wiedzieli, że to ona stoi np. za pomysłem, aby umożliwić darmowe umieszczanie wyszukiwarki na dowolnych stronach internetowych. Również z jej inicjatywy firma Google zaczęła rozwijać mechanizm AdSense, który pomaga wydawcom online zarabiać na reklamach, dopasowujących się do profilu użytkownika. Współpracowała także przy uruchomieniu systemu AdWords, gdzie reklamodawcy płacą tylko wtedy, gdy internauta kliknie na reklamę i odwiedzi daną stronę. Kolejnym inspirowanym przez Wojcicki ruchem było kupno w 2007 r. firmy DoubleClick, odpowiadającej za wyświetlanie spersonalizowanych reklam.
Ale jednym z głównych wyzwań, stojących przed Google w walce o "rząd dusz" w internecie, było prześcignięcie popularnego, stworzonego w 2005 r. serwisu umożliwiającego udostępnianie i oglądanie filmów wideo. Wojcicki szybko zorientowała się, że w rywalizacji z platformą YouTube – bo o niej mowa – Google stoi na straconej pozycji. Uznała, że lepszym rozwiązaniem będzie wykupienie całego serwisu.
Wojcicki przyznała potem, że do takiej decyzji przekonał ją film, na którym dwóch studentów z Chin poruszało ustami do piosenki zespołu Backstreet Boys. To amatorskie nagranie osiągnęło niewiarygodną wówczas liczbę miliona wyświetleń, czyli o wiele więcej niż oficjalny wideoklip przygotowany przez profesjonalne studio. Wojcicki przekonała wówczas Brina i Page’a, że filmy wideo staną się wkrótce tak samo ważną częścią internetu jak strony informacyjne czy blogi.
Ostatecznie YouTube został przejęty przez Google’a w 2006 r. za kwotę 1,65 mld dolarów. Była to wtedy największa co do wielkości transakcja firmy. Osiem lat później, gdy Wojcicki została prezesem YouTube, serwis był już jedną z najbardziej dochodowych części korporacji Google’a.
Poza tym, że jest kobietą i humanistką z wykształcenia, Wojcicki wyróżnia jeszcze jedna rzecz: jest matką pięciorga dzieci.
Pierwsze urodziła raptem kilka miesięcy po tym, jak rzuciła pracę w Intelu i zatrudniła się w Google’u. W licznych wywiadach wciąż musi więc odpowiadać na pytania, jak łączy tak wymagającą pracę z domem. Zwykle podkreśla wtedy, że macierzyństwo i kariera wcale się nie wykluczają. Poza tym zawsze stara się być w domu przed godziną 18, aby zjeść kolację wraz z rodziną. Zapewnia też, że czas wolny w weekendy w całości poświęca dzieciom.
Wojcicki miała znaczący wpływ na kształtowanie się kultury korporacyjnej Google’a, stawiającej na luz, swobodę i kreatywność pracowników. W technologicznym światku nazywa się ją nawet "matką Google’a".
To za jej sprawą firma Brina i Page’a – jako pierwsza w Dolinie Krzemowej – zaczęła wyposażać swoje siedziby w kuchnie i stołówki. Obecna szefowa YouTube od dawna zajmuje też mocne stanowisko w dyskusji na temat wspierania przez amerykańskich pracodawców matek z dziećmi. Stany Zjednoczone pozostają jedynym z krajów należących do Organizacji Współpracy Gospodarczej i Rozwoju (OECD), gdzie płatny urlop macierzyński nie jest gwarantowany przez państwo – tymczasem w Google’u, dzięki Wojcicki, wynosi on teraz 18 tygodni. W 2014 r. dziennik "The Wall Street Journal" opublikował jej artykuł, w którym wzywała przedsiębiorców, aby potraktowali urlop macierzyński jako inwestycję, która w dłuższej perspektywie opłaca się obu stronom.
Wojcicki jest też orędowniczką zwiększenia udziału kobiet w branży informatycznej – obecnie stanowią one jedynie 26 proc. zatrudnionych przez firmy IT (dane American Association of University Women na koniec 2016 r.). Dużą część winy za ten stan rzeczy ponosi brak pozytywnych wzorców i dominujące przekonanie, że programowanie to "męska rzecz". Proponowanym przez nią rozwiązaniem, mającym zwiększyć szanse dziewczyn w tej dziedzinie, jest upowszechnienie informatyki jako przedmiotu obowiązkowego na poziomie szkół podstawowych. Szefowa YouTube angażuje się też w inicjatywy mające zwiększyć szanse edukacyjne dzieci z najbiedniejszych części świata. Zasiada m.in. w radzie fundacji "Room to Read", która stawia sobie za cel walkę z analfabetyzmem wśród najmłodszych.
Wojcicki głęboko wierzy, że jej praca ma swój humanistyczny wymiar. Opowiadając o tym, często przywołuje historię swojej babci, która po tym, jak przybyła do USA jako imigrantka, pracowała w Bibliotece Kongresu: "Traktowała swoją pracę bardzo poważnie, ponieważ towarzyszyło jej przekonanie, że pomaga innym, dostarczając im informacji. Sama lubię myśleć, że w jakiś sposób kontynuuję jej dzieło. Od kilkunastu lat współtworzę narzędzie, które inspiruje i pozwala rozwijać się ludziom na całym świecie" – mówiła podczas wizyty w Polsce w 2017 r.
Dziś, ponad 10 lat po przejęciu przez Google’a, YouTube jest największym serwisem wideo na świecie. Co minutę na platformie pojawia się kilkaset godzin nowych treści, a jej wartość rynkowa szacowana jest już na 75 mld dolarów.
Pytana o przyszłość firmy, Wojcicki stawia sobie dalekosiężne cele: chce uczynić YouTube realną konkurencją dla klasycznej telewizji. Dlatego pod jej kierownictwem serwis zaczął mocno wspierać profesjonalizację popularnych kanałów, którym stara się ułatwić dotarcie do jeszcze szerszego grona odbiorców.
W związku z tym w 2016 r. internetowy gigant rozpoczął w USA transmitowanie w czasie rzeczywistym programów ok. 40 stacji, w tym telewizji informacyjnych (abonament za usługę wynosi 35 dolarów miesięcznie). W planach Wojcicki są także niezależne produkcje telewizyjne, dzięki którym YouTube mógłby podjąć rywalizacją z popularnymi dziś platformami, takimi jak np. Netflix.
Kariera Susan Wojcicki i innych humanistów, którzy osiągnęli sukces w branży technologicznej – jak np. Peter Thiel, współzałożyciel PayPala, który studiował filozofię i prawo – dowodzi, że budowanie sprzeczności między humanizmem a "skutecznością" na rynku pracy czy "przydatnością" dla branż generujących największe zapotrzebowanie na wykwalifikowanych pracowników jest tworzeniem sztucznego podziału. Jako teza co prawda dobrze sprzedaje się to w mediach, ale niewiele ma wspólnego z rzeczywistością.
W istocie takiego przeciwieństwa nie ma. Wiedza z zakresu kultury, historia idei, literatura, sztuka, filozofia są niezbędne do budowania mostów między ludźmi o różnych, czasem biegunowo odległych specjalizacjach.
Jeszcze do niedawna na rynku pracy panowało graniczące z pewnością przekonanie, że tzw. stara humanistyka – wymagająca czasu, zawsze niepewna, nieefektywna rynkowo i osadzona ideologicznie – zostanie za moment zastąpiona przez analizy wielkiej ilości danych, przeprowadzanych przez algorytmy. Ale wbrew trendowi związanemu ze wzrostem znaczenia "Big Data", wbrew dążeniu coraz większej liczby firm do digitalizacji, a także przetwarzaniu i analizowaniu niemal wszystkiego co możliwe – nasza zdolność do intuicyjnego rozumienia świata będzie nabierać znaczenia. Typowo ludzkie, subiektywne myślenie nie tylko nadal będzie w cenie, ale zyska na wartości – także rynkowej.
Scott Hartley – autor opublikowanej w 2016 r. książki "The Fuzzy and the Techie" (w branży informatycznej "Fuzzy" to termin określający absolwentów kierunków humanistycznych) – przewiduje, że w przyszłości to właśnie literaturoznawcy, socjologowie i historycy będą najbardziej poszukiwanymi pracownikami firm technologicznych.
"Humaniści przejawiają wyjątkową umiejętność dookreślenia, dlaczego dane rozwiązanie jest potrzebne, dostarczają w tej sposób niezbędnego społecznego kontekstu dla konkretnych już innowacji technicznych" – pisze Hartley.
W przyszłości generowanie bogactwa przesunie się więc w kierunku odpowiedniego wykorzystania wynalezionych już technologii i filtrowania ich przez pryzmat rozumienia zagadnień z zakresu psychologii, socjologii czy kulturoznawstwa. W kontaktach z rynkiem, takie umiejętności jak analiza logiczna, rozumienie faktów w różnych perspektywach i konfiguracjach staną się narzędziami poszukiwanymi. Kluczowa stanie się też umiejętność rozpoznania odpowiednich innowacji i dopasowania ich do potrzeb konkretnych jednostek, grup, społeczeństw i kultur.
Wielu wchodzących dziś na rynek pracy humanistów spogląda na historię Susan Wojcicki jak na inspirację.
W 2014 r. szefowa YouTube przemawiała podczas uroczystości wręczenia dyplomów absolwentom John Hopkins University. Wracając pamięcią do czasów, gdy opuszczała mury uczelni, pozdrowiła studentów "mało użytecznych" kierunków, jak historia i literatura. Przypomniała, że będąc na ich miejscu, miała konkretne plany zawodowe: "Myślałam o pracy jako dyplomata, o zdaniu egzaminu i przystąpieniu do służby cywilnej. Potem chciałam nawet otworzyć własną cukiernię".
Jednak te jej zamiary zostały szybko zweryfikowane. Rodzice dali jej bowiem do zrozumienia, że powinna iść do jakiejkolwiek pracy, zamiast czekać na "tę właściwą".
Wtedy przypomniała sobie o kursie CS50 i zatrudniła się w technologicznym startupie w Palo Alto. Wspominała: "To nauczyło mnie, że idealne plany nie istnieją i z reguły się nie sprawdzają. Musicie być gotowi, aby decyzje o przyszłości podejmować na podstawie tego, co was spotka – i jak zmienia się świat".
Spotykamy się w siedzibie jego firmy przy ul. Gdańskiej w Bydgoszczy. Vivid Games mieści się w stylowym budynku z czerwonej cegły, pamiętającym czasy sprzed II wojny światowej. W środku – cisza sprzyjająca pracy. W miejscu, w którym powstają gry popularne na całym świecie, można liczyć na twórcze skupienie.
Remigiusz Kościelny, jeden z twórców i szef studia Vivid Games, dba o swój czas.
– Ostatnio bardzo się staram, żeby dzielić go na pracę i życie prywatne – mówi. – Pracuję przez kilka godzin, potem mam przerwę i po południu wracam. Odpoczynek dla ciała i umysłu może przynieść większe efekty, niż praca bez przerwy przez kilkanaście godzin.
– To typowy lider – mówi Jarosław Wojczakowski, który z Kościelnym zna się od 20 lat, a od kilkunastu współpracuje. – Zna swój cel i potrafi zorganizować zespół tak, żeby ten cel osiągnąć.
Wiele już mu się udało. Tymczasem on, założyciel firmy produkującej gry na globalną skalę, jeden z najbardziej przedsiębiorczych bydgoszczan, zarządzający kilkudziesięcioosobowym zespołem, to absolwent historii na Uniwersytecie Kazimierza Wielkiego – do branży komputerowej wkraczał jako samouk.
– W świecie napędzanym przez technologię i opartym na danych, paradoksalnie to umiejętności humanistyczne mogą okazać się nie mniej potrzebne – mówi Remigiusz Kościelny, rocznik 1979.
A ja spieszę z pytaniem, jak to w ogóle możliwe.
Vivid Games działa na rynku gier od 2006 r. Jest producentem i wydawcą gier na smartfony i tablety na całym świecie. Najważniejszą marką w dorobku firmy jest seria Real Boxing, która – jak czytamy w informacjach prasowych firmy – trafiła już do ponad 42,5 mln odbiorców. W grach z tej serii można wcielić w jednego z bokserów światowej sławy. Vivid Games uzyskała licencję od hollywoodzkiej wytwórni MGM na wykorzystanie marek Rocky Balboa i Creed, znanych z kinowych hitów, a także wizerunku słynnego boksera Manny’ego Pacquiao.
W czerwcu 2012 r. Vivid Games zadebiutowała na rynku NewConnect, finansującym małe i średnie przedsiębiorstwa o dużym potencjale rozwoju. Cztery lata później spółka przeniosła notowania swoich akcji na rynek główny Giełdy Papierów Wartościowych w Warszawie. Przychody firmy liczy się dziś w milionach złotych. Co kwartał spółka notuje kolejne, kilkudziesięcioprocentowe wzrosty.
Choć firma działa globalnie, ciągle pozostaje ważną częścią gospodarczego krajobrazu Bydgoszczy, rodzinnego miasta Remigiusza Kościelnego.
– Tu się urodziłem i tu wychowałem – mówi twórca Vivid Games. – Wyznaję zasadę, że wykorzystywać trzeba zasoby, choćby ludzkie, dostępne w danym miejscu i czasie. Pod tym względem Bydgoszcz nie jest wyjątkowa: w całej Polsce w branży gier szukanie prawdziwych talentów bywa trudne. Ale nasz przykład pokazuje, że może się to skończyć sukcesem.
Wysoki, szczupły, w szarym sweterku i z kolorową bransoletką na nadgarstku, siada za stołem w przeszklonym gabinecie.
– Vivid Games istnieje od ponad 10 lat – mówi. – Ale wszystko zaczęło się dużo wcześniej.
W latach 90. XX wieku Bydgoszcz zmaga się z problemami, które dotykają cały kraj. Część flagowych zakładów produkcyjnych z czasów PRL upada, część zostaje przekształcona w oddziały większych koncernów i grup kapitałowych. Wiele ludzi traci pracę.
Miasto, które było gospodarczą stolicą Pomorza i Kujaw, do którego zjeżdżali pracownicy z Włocławka, Torunia czy Golubia-Dobrzynia, nagle musi radzić sobie z ekonomicznym załamaniem. Ci, którzy pracy nie stracili, zaczepiają się m.in. w Unileverze (dawnej Pollenie), oddziale łódzkiej firmy Atlas czy wreszcie w Zakładach Naprawczych Taboru Kolejowego (przyszłej "Pesie").
Remigiusz Kościelny już od wczesnych lat interesuje się komputerami. W drugiej klasie szkoły podstawowej dostaje pierwszy, na dzisiejsze czasy prymitywny, a wówczas unikatowy 8-bitowy komputer. Przejdzie też okres konsol do gier i w końcu klasycznego "peceta". To wtedy zdobywa wiedzę i umiejętności, które dziś nazywa "user experience" (ang. doświadczenie użytkownika).
– Wszystko, co dzisiaj wykorzystuję w pracy, poznałem poprzez własne doświadczenia, ale także lektur i internetu. Uczyłem się tego sam. Nigdy nie skończyłem studiów czy nawet kursu projektowania grafiki komputerowej czy programowania. I nie żałuję – przyznaje.
Po szkole podstawowej wybiera technikum elektroniczne i klasę o profilu ogólnym. Jak każdy, ma swoje ulubione przedmioty. Ale po maturze nie będzie wiązał przyszłości z żadnym z nich. Bo już wtedy wie, że ma przed sobą jedną drogę: biznes.
Skąd w młodym chłopaku pewność co do zawodowej przyszłości? – Chyba zawsze miałem "żyłkę" przedsiębiorcy – mówi Remigiusz Kościelny. – Już w szkolnych czasach chwytałem się różnych zajęć. Głównie tworzenie grafiki czy tekstów na strony internetowe. To był dobry moment: nie każdy dysponował wtedy komputerem, więc moje usługi były przydatne.
W technikum lubi historię. Zatem na Akademii Bydgoskiej (dziś Uniwersytecie Kazimierza Wielkiego) wybiera nie informatykę, ale właśnie historię. W tym samym czasie otwiera pierwszy biznes: firmę Vivid Design, w której wykorzystuje komputerowe umiejętności. Jest pewny, że specjalizacja nauczycielska, którą wybrał na studiach, nigdy mu się nie przyda.
– Mentorem, który dzieli się wiedzą, mogę być – mówi. – Nauczycielem ani wykładowcą już nie.
Jarosław Wojczakowski to przyjaciel i współpracownik Kościelnego.
– Znamy się od 1997 r. – mówi. – Trudno mi rozgraniczyć świat zawodowy i prywatny, bo znam Remigiusza z każdego z nich.
Poznają się jeszcze w technikum, chodzą do różnych klas. Kilka lat później zaczynają działać na tzw. "demoscenie". To nieformalna grupa, rodzaj subkultury użytkowników komputerów, zajmujących się tworzeniem niekomercyjnych "dem", czyli prezentacji pokazujących ich informatyczne umiejętności. Robią coraz większe postępy, a ich projekty są uznawane na najlepsze na świecie w swoich kategoriach. W 2001 r. tworzą pierwsze komercyjne projekty.
– Większość osób w polskiej branży gier to osoby, które tak jak ja umiejętności zdobywały w praktyce – mówi dziś Kościelny. – Jeśli przyjrzeć się ich życiorysom, zauważy się, że pochodzą z tej samej "bajki", tych samych czasów i rzeczywistości. Przechodzili podobną drogę: od podstawowych komputerów do najbardziej nowoczesnych. Wszystko, co osiągnęli, mogą zawdzięczać własnej pracy.
Kościelny zwraca uwagę, że wpływ ma na to stan polskiej edukacji. – Poziom nauczania z zakresu tworzenia gier komputerowych jest o wiele niższy od tego w Wielkiej Brytanii – tłumaczy. – Jednocześnie polscy twórcy gier odnoszą sukcesy na skalę globalną.
Gdyby mógł cofnąć czas, wybrałby informatykę? – Chyba nie – odpowiada.
Twierdzi, że to studiowanie w ogóle, a nie sam kierunek studiów, dało mu najwięcej. – Kończyłem historię w trybie zaocznym, jednocześnie prowadząc biznes – mówi Kościelny. – Nauczyło mnie to organizacji czasu i radzenia w trudnych sytuacjach. Sama historia to także nauka procesu przyczynowo-skutkowego, który trzeba poznać i zrozumieć. Zupełnie tak jak w grach komputerowych.
Według Kościelnego, edukacja i szkolnictwo powinny łączyć teorię z praktyką. – W moich czasach nikt nie przykładał wagi do tego, by nauczyć nas publicznie występować – mówi. – Dziś to bardzo cenna umiejętność, której brakuje wielu absolwentom studiów wyższych.
Drugi deficyt: współpraca szkół wyższych z biznesem. Twórca Vivid Games uważa, że dziś takich relacji bardzo brakuje. Podaje przykład projektu Code.org: organizacji non-profit, która stawia sobie za cel promocję wiedzy o programowaniu komputerowym wśród uczniów i studentów w Stanach Zjednoczonych. Dzięki stronie internetowej projektu każdy – nawet mól książkowy czy filozof – może poznać tajniki informatyki.
– Mój 14-letni syn ma na informatyce to, czego uczono 10 lat temu – narzeka Kościelny.
Czy humanista może być skuteczny w biznesie?
Opinie, jakie o Remigiuszu Kościelnym można znaleźć na jego profilu w portalu Linkedin.com, chyba to potwierdzają. Greg Robinson, dyrektor firmy z branży gier Boomdash Digital, wskazuje na gotowość do współpracy i przywiązanie zespołu Kościelnego do najdrobniejszych detali. Volker Hirsch twierdzi, że na "Remim" – jak o nim pisze – zawsze można polegać, bo "mówi wprost" i osiąga wspaniałe wyniki. Aleksander Zemke z wrocławskiej firmy Loca Bikes zauważa, że praca Kościelnego cechuje się wysoką jakością i zawsze "mieści się w budżecie".
Bycie humanistą w biznesie, mówi sam twórca Vivid Games, to przede wszystkim posiadanie umiejętności miękkich. – To zdolność w odnajdywaniu się w relacjach międzyludzkich – wylicza. – Tworzenie czegoś dla ludzi również wymaga wiedzy o ich zachowaniach i szczególnej kreatywności.
Jarosław Wojczakowski to potwierdza: – Natura humanisty u Remigiusza sprawdza się w budowaniu relacji z klientami i ludźmi oraz pracą twórczą nad naszymi projektami. Przydaje się również w byciu "twarzą" firmy w relacjach inwestorskich. Dużo łatwiej jest mu ubierać w odpowiednie słowa myśli, które chcę przekazać. Całość jest składanką doświadczenia i mądrości.
Sam Remigiusz Kościelny uważa, że łączy w sobie cechy umysłu ścisłego i humanistycznego. – Dzięki temu potrafię patrzeć na wyzwania z różnych perspektyw, myśleć poza schematami, łączyć niewidoczne dla innych punkty w całość – przyznaje. A jakich ludzi szuka do swojej firmy? – Najważniejszą cechą jest odpowiednie podejście: zaangażowanie, odpowiedzialność, orientacja na realizację celów, chęć uczenia się i odpowiedni warsztat – wylicza Kościelny.
W procesie rekrutacji w Vivid Games skończone studia nie są najważniejszym czynnikiem. – Dają pewien pogląd, ale nie decydują – mówi Kościelny. – Nawet jeśli masz braki w doświadczeniu, dzięki odpowiedniej postawie bardzo szybko je nadrobisz.
Według Jarosława Wojczakowskiego, w pracy zespołowej ważne jest wzajemne uzupełnianie się. – Remigiusz jest bardzo "zwinny" – mówi współpracownik Kościelnego. – To znaczy, że kiedy tylko widzi okazję, próbuje ją realizować. Czasem spontanicznie. Ja jestem jego przeciwieństwem. Zawsze lubię mieć plan i spojrzeć szerzej na dane rozwiązanie.
W zespole firmy są także humaniści. – Na różnych stanowiskach pracują osoby o wykształceniu dziennikarskim, psychologicznym, socjologicznym – wylicza Kościelny. – Dają zupełnie inne, świeże spojrzenie na dany projekt. Jeśli w grupie pracuje pięciu programistów, to szósty może nie wnieść niczego nowego. Za to perspektywa kogoś, kto skończył psychologię czy dziennikarstwo, może okazać się niezwykle cenna.
Twórcę Vivid Games pytam, co powiedziałby młodemu humaniście, który właśnie startuje na rynku pracy. – Realizuj własne marzenia. Kieruj się pasją. Nawet jeśli sytuacja temu nie sprzyja – mówi.
Po chwili dodaje: – Często stajemy się ofiarami swoich wcześniejszych decyzji. Wybieramy kierunek studiów, ale zdarza się, że kiedy odbieramy dyplom, jesteśmy już inni, coś innego nas pociąga. W takiej sytuacji warto sobie zaufać i pozwolić sobie na zmianę, pójść za głosem serca. W ten sposób zbudujemy swoje unikalne doświadczenie, naszą własną perspektywę, która dla przyszłego pracodawcy może okazać się bardzo ciekawa.
Jemu praca zajmuje większość czasu. To ciągłe spotkania, telefony, wyjazdy. Ale też ciężka praca na miejscu, w koordynacji zespołu, ciągłym dopieszczaniu najmniejszych szczegółów. Gracze to środowisko wyczulone na nielogiczności i błędy. Gra musi być skończonym dziełem: nie może zawierać uchybień, a do tego musi zwyczajnie sprawiać graczom przyjemność.
Prowadzenie firmy to niekończące się formalności i liczne przeszkody. Remigiusz Kościelny przyznaje: – W Polsce mamy małą tolerancję na porażkę. Na przykład w Dolinie Krzemowej błąd jest okazją do rozwoju. Potknąłeś się? Musisz więc coś poprawić, czegoś się nauczyć, następnym razem zrobisz to lepiej. W Polsce, jeśli jakiś projekt się nie uda, staramy się go na siłę reanimować, przez co często grzęźniemy w miejscu. Ja staram się iść dalej. Choć gdybym wypisał błędy, które popełniłem, zapełnilibyśmy całą tablicę. Najważniejsze, żeby czerpać z nich lekcje, które pozwolą być lepszym w przyszłości.
Oprócz pracy Kościelny lubi wyjechać gdzieś daleko, na chwilę odciąć się od świata, pozwolić sobie na "nicnierobienie". Od czas do czasu chce też poczuć nagły przypływ adrenaliny. Niedawno skoczył ze spadochronem, wspina się także w całkiem wysokich górach – w planach ma Mont Blanc (4810 metrów).
Przyznaje, że niedawno zwolnił: coraz częściej pozwala sobie na chwilę przerwy w ciągu dnia, żeby odetchnąć i odświeżyć umysł. Nie chce też zaniedbywać rodziny, dorastającego syna i córki.
Na Facebooku publikuje ostatnio obrazek z wiele mówiącym napisem: "Otaczaj się ludźmi, którzy mają marzenia, pragnienia i ambicję. Pomogą ci zrealizować twoje własne".
Jedną z pracownic Vivid Games zaczepiam tak, żeby Remigiusz Kościelny nie widział. Czy szef ma w ogóle jakieś wady? – pytam. – Wie pan, on bardzo dużo pracuje – mówi dziewczyna. – I czasem sobie myślę, że może aż za dużo…
Prof. BARBARA CHYROWICZ: Postęp szeroko rozumianej biomedycyny sprawił, że pojawiło się bardzo dużo nowych problemów, które nie mieściły się w tradycyjnie rozumianej etyce medycznej.
Wykraczające poza problemy dotyczące relacji lekarz-pacjent. Dyskusja nad kwestią dopuszczalności metod in vtro, aborcji lub eutanazji wymaga odwołania do antropologicznych przesłanek. Odpowiedzi na pytanie, kim jesteśmy, jaka jest relacja pomiędzy rozumnością a cielesnością, jaka jest wartość cielesności oraz czy – a jeśli tak, to w jaki sposób – należy wytyczyć granice moralnej dopuszczalności ingerowania w ludzki organizm. Dyskusja nad tymi problemami ma charakter zdecydowanie filozoficzny.
Związany z podstawowymi pytaniami natury filozoficznej: na czym polega specyfika ludzkiego bytu, jak rozumieć pojęcie osoby, jaka jest wartość ludzkiego życia i jak w związku z tym należy rozumieć zobowiązania moralne tak wobec drugich, jak i samego siebie. To stare filozoficzne pytania. Ale rozwój biomedycyny sprawił, że podjęliśmy je w zupełnie nowym kontekście. A ponieważ są to problemy związane istotnie z życiem każdego z nas, to bioetyczne spory dotyczące początku i kresu ludzkiego życia lub kontrowersyjnych terapii są dyskutowane nie tylko w wąskim kręgu specjalistów.
Powiększa się, choć to powiększanie niekoniecznie wiąże się wprost z przyrostem problemów filozoficznych.
Mogę sobie wyobrazić, że pojawi się np. jakaś zupełnie nowa możliwość ingerowania w ludzki genotyp, która niekoniecznie będzie nowym problemem natury etycznej. Bo etycy, starając się odpowiedzieć na pytanie o moralną dopuszczalność jej przeprowadzania, będą przywoływać kwestie, znane i powtarzane już przy okazji innych genetycznych ingerencji: gdzie są granice ingerowania w ludzką naturę? Czy takie ingerencje nie naruszają osobowej tożsamości? Czy zważywszy na ich koszty, nie pojawi się nowy obszar niesprawiedliwości? Pytań natury filozoficznej nie przybywa więc w bioetyce proporcjonalnie do pojawiających się, nowych możliwości i problemów natury biomedycznej.
Jest dyscypliną filozoficzną – subdyscypliną etyki. Jako taka zaliczana jest do dziedziny nauk humanistycznych. Nie wchodzę tutaj w dyskusję, czy filozofia jest, czy też nie jest nauką humanistyczną, bo to też jest przedmiotem dyskusji. Ponadto niektórzy nie nadają bioetyce statusu odrębnej subdyscypliny etycznej.
Są zdania, że bioetyka jest interdyscyplinarnym dyskursem, a nie nauką.
Od samego początku problematyką bioetyczną byli zainteresowani przedstawiciele różnych dyscyplin naukowych: filozofowie, teologowie, psychologowie, socjologowie, biolodzy, medycy, prawnicy, współcześnie również naukowcy z obszaru neuronauk. Przy tak różnorodnym podejściu trudno zadecydować, jakiego rodzaju nauką miałaby być ostatecznie bioetyka.
Z moralnego punktu widzenia to trochę pułapka. Dyskurs sam w sobie nie jest normatywny. Wymiana poglądów, spojrzenie na problem z wielu różnych aspektów nie uprawnia do stwierdzenia, że jakieś działanie uznane za problematyczne jest słuszne względnie niesłuszne. Tym samym tak rozumiana bioetyka traciłaby charakter normatywny.
Trzeba odróżnić uznanie bioetyki za rodzaj interdyscyplinarnego dyskursu i nazywanie jej interdyscyplinarną dyscypliną od prowadzenia w ramach bioetyki interdyscyplinarnych dyskusji. Do takich interdyscyplinarnych debat możemy zaprosić etyków, teologów, prawników, lekarzy, a także innych naukowców zainteresowanych omawianym problemem. Każdy z nich będzie analizował problem z właściwego reprezentowanej dyscyplinie aspektu, posługując się właściwą dlań metodologią. Lekarz odniesie się do medycznego ryzyka związanego z ingerencją. Psycholog będzie się zastanawiał, czy taka ingerencja nie narusza osobowej tożsamości. Etyk, opierając się zarówno na ich opiniach, jak i na przyjmowanym systemie wartości będzie formułował sądy natury normatywnej. To znaczy będzie określał, czy jest ona dopuszczalna moralnie i uzasadniał, dlaczego tak właśnie należałoby ją ocenić. Traktując bioetykę jako dyskurs, możemy w sytuacjach spornych odwołać się co najwyżej do konsensu. Natomiast konsens nie zawsze odznacza trafną odpowiedź na problem. Ponadto może się zmienić wraz ze zmianą tych, którzy mieliby prawo o nim stanowić.
Mówienie o interdyscyplinarnej nauce jest błędem z punktu widzenia metodologii nauk. Nie istnieją interdyscyplinarne nauki. Istnieją interdyscyplinarne dyskusje czy projekty badawcze, ale nie nauki.
Tak i nie. Nie istnieje przecież etyka jako etyka. Istnieją różne teorie etyczne, także bioetyczne. Bioetycy nie mówią jednym głosem, mają różne zdania na temat aborcji czy eutanazji. W regulacjach prawnych – w sposób szczególny w demokratycznych społeczeństwach – pojawiają się z konieczności rozwiązania kompromisowe. Etycy będą wykluczać, jakoby oceny i normy mogły być wyrazem kompromisu. A zatem to, co jest dopuszczalne prawnie, z moralnego punktu widzenia dalej będzie niedopuszczalne. Kompromis aborcyjny nie satysfakcjonuje w pełni żadnej ze stron moralnego sporu, stąd nieustanne próby zmiany ustawy. Potrzeba kompromisu pojawia się w przypadku kwestii spornych – istnieje cały szereg sytuacji, co do których moralna ocena jest jednoznaczna. Nikt nie podważa dzisiaj, że nie wolno kraść lub zabijać.
Owszem – raz po raz, a szczególnie wtedy, kiedy jesteśmy świadkami brutalnych morderstw pojawiają się głosy, żeby tę karę przywrócić. Teoretycznie jednak jakoś sobie już z tym problem poradziliśmy.
Zakaz aborcji jest uszczegółowieniem normy nie zabijaj". O ile nikt nie ma dzisiaj wątpliwości co do ogólnego sformułowania normy, to pokaźna część bioetyków podważa, jakoby na etapie życia prenatalnego można już było mówić o osobowym, to jest normatywnym statusie rozwijającej się ludzkiej istoty. Prawnik – korzystający z eksperckich usług etyka – spotka się zatem z różnymi opiniami, bo – jak już wyżej zauważyliśmy – zdania w tej kwestii są podzielone.
Jeśli ustawodawca opiera się na opinii etyka i stanowi prawo zgodnie z tą opinią, to – zależnie od tego, na jakiej opinii się oprze – będzie próbował przeforsować różne rozstrzygnięcia natury prawnej. Bioetycy będą formułowali kategoryczne sądy typu: "aborcja jest zawsze złem" albo "aborcja jest tylko czasami złem". Każda ze stron tego sporu twierdzi, że ma rację. Ponieważ rozstrzygnięcia prawne są wtórne w stosunku do moralnych, politycy – stając przed stanowieniem prawa – będą zatem dysponowali różnymi rozstrzygnięciami natury moralnej. Zakładam też, będą mieli swoje własne zdanie co do godziwości/niegodziwości działania, którego dopuszczalność ma być określana prawnie.
To pytanie dotyka kilku problemów. Najpierw to kwestia normy i chronionej przez nią wartości, która jest podstawą moralnego usytuowania sporu. To ogólna norma "nie zabijaj", której pozytywne sformułowanie brzmi: "chroń życie". Szczepionki służą ochronie zdrowia i życia – ich celem jest prewencja, chodzi o to, by dzieci szczepione nie zachorowały na konkretną chorobę i nie zarażały innych. Nie chodzi zatem tylko o ochronę zdrowia i życia szczepionych, to także kwestia odpowiedzialności za zdrowie i życie niezaszczepionych.
Stawia pytanie o to, czy nieracjonalna decyzja rodziców odnośnie do własnego dziecka winna być bezwzględnie respektowana – rodzice mają przecież prawo decydować o leczeniu dziecka. Zwykle wtedy, kiedy rodzice nie działają w najlepiej pojętym interesie własnych dzieci, zostają im odebrane względnie zawieszone prawa rodzicielskie, w kontekście decyzji o podjęciu/zaniechaniu terapii sąd mógłby orzec o leczeniu dziecka wbrew woli rodziców. W przypadku szczepień trudno tak rygorystycznie stawiać sprawę, ponieważ szczepienia dotyczą zdrowych dzieci.
Jeżeli lekarz potrafi jednoznacznie stwierdzić, ze decyzja o konieczności szczepienia służy dobru dziecka – oraz każdemu, z kim dziecko to będzie się spotykać – to znaczy, że rodzice odmawiający szczepienia nie działają dla dobra dziecka. Problem w tym, że antyszczepionkowcy są święcie przekonani o swoich racjach, a lekarzom i firmom produkującym szczepionki zarzucają oszustwo.
Jeśli w szeroko rozumianej praktyce medycznej istnieją rzadkie wprawdzie, ale jednak przypadki usprawiedliwiające przymus leczenia, to należałoby się zastanowić, czy w przypadku odmowy szczepień nie powinniśmy wprowadzić jakichś sankcji. Bezpośredni przymus nie wydaje się w tej sytuacji właściwy, wolno przypuszczać, że wywołałby on wręcz odwrotny skutek. Nie chodzi absolutnie o odbieranie dzieci rodzicom, lecz o znalezienie silnego czynnika motywującego, który sprawi, iż rodzice jednak dziecko zaszczepią. Od czasu wynalezienia szczepień wydawało się nam, że są one dobrodziejstwem…
Do niedawna. Pediatrzy, z którymi ostatnio rozmawiałam, zupełnie nie rozumieją, skąd się wziął taki silny opór nielicznej przecież grupy rodziców odmawiających szczepienia dzieci.
Tak, przy czym chodzi o ochronę życie zarówno dziecka, jak też – powtórzę – wszystkich tych, z którymi będzie się ono spotykać. Bywa, że rodzice rozumieją to niestety inaczej. Tymczasem nieszczepione dzieci są potencjalnymi roznosicielami odry, ospy, kokluszu itd. Kilkadziesiąt lat temu nikt osób dorosłych na te choroby nie szczepił, czyli ci z dorosłych, którzy tych chorób w wieku dziecięcym nie przeszli, mogą zarazić się od nieszczepionych dziś dzieci. A jak wiemy, dorośli znacznie gorzej przechodzą te choroby.
Lekarze, bioetycy nie decydują o procedurach medycznych. Lekarze mogą pokazać statystyki, z których jasno wynika, że szczepionki pomagają, a powikłania to rzadkość. Ciężko zrozumieć, że postawy antyszczepionkowe mogą być tak popularne w stuleciu, w którym wszystko chcemy uzasadniać naukowo. Kiedy w dyskusjach na temat in vitro lub aborcji pojawiają się argumenty natury antropologicznej zwykle są odrzucane jako nienaukowe, a tutaj jest dokładnie na odwrót: odrzucane są twarde dane naukowe. Przedstawiających wyniki badań naukowców oskarża się nadto o manipulowanie danymi.
Ale z faktu, że to "moje dziecko" nie wynika, że mogę z nim robić wszystko, co wydaje mi się słuszne. Dziecko to nie własność, za to ogromna odpowiedzialność. Nazywanie dziecka "swoim" nie oznacza niczym nieskrępowanego dysponowania jego życiem. Rodzice, którzy nie chcą szczepić swojego dziecka twierdzą, że chcą je chronić. Lekarze też, i może jednak warto ich posłuchać – to oni są tutaj specjalistami.
Jeśli lekarze, strajkując, zapewniają pacjentom opiekę, czyli strajk nie jest związany z zagrożeniem życia i zdrowia pacjentów, to trudno lekarzom odmówić prawa do strajku. Lekarze – podobnie jak przedstawiciele innych zawodów – mają prawo do godziwej zapłaty za pracę, mają rodziny, którym muszą zapewnić utrzymanie. Nie można oczekiwać, że lekarze będą grupą zawodową, która będzie się poświęcać pracy, nie zważając na własne potrzeby. Dobro pacjenta jest dla lekarza rzeczą podstawową, ale lekarz nie zawsze jest w pracy, poza pracą ma prywatne życie, podobnie jak przedstawiciele wszystkich innych zawodów. Lekarze powinni być świadomi, że ich zawód jest niezwykle wymagający. Mamy rację twierdząc, że pieniądze to nie wszystko, ale strajk nie oznacza, że lekarze wyżej cenią zarobki niż dobro pacjentów. To uproszczenie. Jeśli zależy nam na sprawnym funkcjonowaniu służby zdrowia, lekarze powinni być godziwie opłacani, to leży w interesie nas wszystkich, a pacjentów w szczególności.
Zgadzam się, że to trudna sytuacja. Niemniej jednak uważam, że – uwzględniając powyższe zastrzeżenia – nie można odbierać lekarzowi prawa do strajku.
To zarazem i służba, i ochrona zdrowia. Nie można jednak, co powtarzam raz jeszcze, obligować ludzi pełniących ten zawód do poświęcania dla drugich, polegającego na rezygnacji z własnych potrzeb, zgody na niższe uposażenie itd. Trzeba odróżnić pracę z poświęceniem od bezwarunkowego poświęcenia dla pracy. Jeśli ktoś tę drugą sytuację wybiera – to jest jego decyzja. O ile do pracy z poświęceniem można lekarzy obligować, to do poświęcania się (własnego życia) dla pracy już nie. Ponadto np. strajk rezydentów nie dotyczy tylko wynagrodzeń, ale również nakładów na ochronę zdrowia. Poprawa warunków pracy lekarzy to równocześnie poprawa funkcjonowania służby zdrowia, ostatecznie pacjent na tym zyska.
Możliwość bycia dawcą organów powinna być elementem edukacji, także wczesnoszkolnej. Młody człowiek powinien wiedzieć, że jego zgoda (nie wyrażanie sprzeciwu) na bycie dawcą może kiedyś komuś uratować życie. Jeśli oswoi się z tą myślą jako dziecko, to będąc dorosłym nie będzie z tym miał większego problemu. Trudno nadto zgodę (nie wyrażanie sprzeciwu) na bycie dawcą po śmierci uznać za decyzję heroiczną, bo nic na tym nie tracimy. Nie potrzebujemy ciała po śmierci.
Zdecydowanie nie. Ale to nie znaczy, że przymuszanie do bycia dawcą, czyli pobieranie organów po śmierci bez pytania o zgodę, byłoby dobrym rozwiązaniem. Chodzi o szacunek dla osoby, która za życia była właścicielem ciała. Z drugiej strony uważam, że jeśli wiemy o zmarłym, że chciał być dawcą, to mamy prawo ignorować zdanie głośno protestującej rodziny. Rozumiem taki protest, ale skoro szanujemy wolę zmarłego odnośnie do pozostawionych przez niego rzeczy materialnych, to tym bardziej powinniśmy respektować wolę odnośnie do bycia dawcą.
Tych problemów można by uniknąć, prowadząc wspomnianą już wyżej edukację i szeroką akcję informacyjną. Znacznie zmniejszyłoby to liczbę ludzi, która nie odniosłaby się w żaden sposób za życia do tego problemu. Innym wyjściem byłoby zobligowanie ludzi do wyrażenia tego rodzaju deklaracji, ale to wydaje się skomplikowane.
Zapewne zyskuje się w ten sposób więcej dawców. Sądzę jednak, że przymus w tak delikatnej kwestii nie jest najlepszym rozwiązaniem. Ludzie mają swoje fobie i obawy i należy to uszanować. Natarczywe nagabywanie o zgodę na dawstwo organów może te fobie wzmocnić, ludzie zaczną podejrzewać, że lekarze – zamiast wykorzystać wszystkie dostępne metody leczenia – będą rezygnować z walki o życie pacjentów w nadziei pozyskania ich organów do przeszczepów.
Zwykle – niestety – nie dyskutujemy o bioetycznych problemach spokojnie. Nie argumentujemy, włączamy emocje. A to trudne i wrażliwe moralnie kwestie, które wymagają spokojnej i rzetelnej dyskusji. Debaty, które toczą się w mediach, zazwyczaj przekonują już przekonanych. W tego typu dyskusjach zawsze będą odmienne zdania.
W filozofii zawsze były spory, począwszy od starożytności. Należy zatem z góry wykluczyć możliwość uzyskania powszechnej zgody. Znajomość argumentów strony, z którą się nie zgadzam, ma jednak kolosalne znaczenie dla sposobu prowadzonej dyskusji. Rolą filozofów-bioetyków byłoby zatem sprowadzać ten spór na racjonalną płaszczyznę. To nie sprawi, że spór zniknie, być może zostaniemy przy swoim zdaniu. Ale znajomość racji interlokutora sprawi, że nie będzie traktowany jak wróg, tylko jak człowiek, który ma inne poglądy. Miejmy świadomość, że sądy normatywne, w tym sądy formułowane na gruncie bioetyki, nie cieszą się taką oczywistością, jak sądy formułowane w naukach szczegółowych i formalnych. Problemy bioetyczne są nadto trudne – wymagają spokojnej analizy. Nie tak łatwo na przykład wyjaśnić, dlaczego metody wspomaganej prokreacji miałyby być niesłuszne z moralnego punktu widzenia.
Sama metoda jest problematyczna. Kiedy zastanawiamy się nad prawną regulację metody, pojawia się tych problemów jeszcze więcej. Przykładowo: w dyskusji nad prawną regulacją metod in vitro pojawia się propozycja adopcji nadliczbowych zarodków. I od razu mamy cały szereg problemów: czy należy te zarodki testować, czy rodzice adopcyjni powinni znać jakieś dane na temat rodziców biologicznych, ile lat powinni mieć rodzice adopcyjni, czy stawiane im warunki powinny być podobne do warunków stawianych rodzicom adoptującym dzieci, czy w adopcji zarodków powinno się brać wzgląd na rasę itd. itp.
Jeśli mówimy o ustawie, to ustawodawca musi to określić.
A kto ma mu w tym pomóc? Być może ci, którzy są autorami prawa adopcyjnego. Nawet jeśli piszący ustawę korzysta z rad ekspertów, to sposób jej procedowania podlega demokratycznym regułom stanowienia prawa.
Prawo zawsze zakłada jakąś aksjologię. Zwróciliśmy już jednak uwagę, że jeśli chodzi o trudne kwestie bioetyczne, to zdania specjalistów są podzielone. Nikt nie przeczy, że życie ludzkie jest wartością. Kiedy jednak postawi się pytanie, od którego momentu w rozwoju prenatalnym należy chronić życie i czy wartość życia ciężko upośledzonego, nienarodzonego dziecka jest równa wartości życia dziecka zdrowego, to od razu ujawnia się polaryzacja poglądów. W dyskusjach na temat początku ludzkiego życia wykorzystuje się zarówno dane biologiczne, jak też antropologiczne teorie dotyczące tego, na czym polega istota człowieczeństwa. Niestety – nie ma jednej teorii antropologicznej, znowu mamy wielość poglądów.
Wiedza biologiczna jest istotnym elementem tych dyskusji. Dla biologa początek życia ludzkiego jest faktem, nie poglądem. Tam gdzie filozofowie się spierają, biolog mógłby wskazać na twarde dane. Pamiętajmy przy tym, że podstawowe pytanie nie dotyczy tego, kiedy powstaje ludzkie życie, lecz od kiedy ludzkie życie należy otoczyć wartością. Czy ludzki zarodek stanowi pełnowartościowe ludzkie życie? Na te pytania nie odpowiemy bez filozofii.
Tak, to już etyka. Włączamy do debaty filozofię, w sposób szczególny antropologię i etykę. Obok faktów biologicznych pojawiają się filozoficzne poglądy. Staramy się uwzględnić w debacie zarówno wiedzę z zakresu biologii, jak też filozoficzne argumenty. Faktem jest np., że pokaźna część zarodków ulega samoistnemu poronieniu. Stając przed tym faktem, bioetyk może najpierw zwrócić uwagę na to, że wczesne poronienia są efektem naturalnej selekcji, a następnie podkreślić, że nasza moralna odpowiedzialność dotyczy tego, co jest w zasięgu naszego działania. Nie odpowiadamy za naturalne procesy. Odpowiadamy za podjęte decyzje, a więc także za niszczenie zarodków.
Ale czy intuicja tutaj nam coś prosto podpowiada?
Do problemu początku ludzkiego życia można podejść zdroworozsądkowo.
Każdy dorosły Jan był kiedyś dzieckiem, a życie każdego dziecka i Jana, który z niego wyrośnie, zaczęło się w momencie ukonstytuowania ludzkiego organizmu. Gdybyśmy na tym wczesnym etapie rozwojowym zniszczyli zarodek, Jan by się nie urodził. Ostatecznie chodzi o to, aby wykazać, że dorosły Jan i zarodek to ta sama ludzka istota, jakkolwiek nie taka sama. Zniszczymy zarodek – nie będzie Jana!
Mówiąc o bioetyce, mówimy o szczegółowej dyscyplinie etyki/filozofii. Bioetyka ma znaczenie zarówno teoretyczne, jak i praktyczne. Teoria jest nam potrzebna, bo intuicje w skomplikowanych bioetycznych kwestiach okazują się niewystarczające. Etyka, także bioetyka, jest teorią odnoszącą się do działania. I jak już stwierdziliśmy, tych teorii jest wiele…
Teorie etyczne są wynikiem podejmowanych przez człowieka prób racjonalizowania fenomenu moralności. Szukamy racji dla naszych intuicji – nie jesteśmy w ich podawaniu jednomyślni, ale sam fakt ich poszukiwania jest oczywiście wartościowy. Gdyby w prowadzonej w naszym kraju debacie bioetycznej było więcej racji, a mniej emocji, to zapewne zupełnie inaczej by ona wyglądała. Nie możemy przy tym zapominać, że od etyki nie można wymagać takiej ścisłości, jak od nauk formalnych czy szczegółowych – to dlatego, między innymi, pojawiają się w etyce różne teorie. Istotą bioetycznych sporów wydaje się nadto ostatecznie sposób, w jaki należy rozumieć nasze człowieczeństwo – chodzi w nich o to, kim właściwe jesteśmy. To odwieczne, filozoficzne pytanie. Będziemy się zatem spierać dalej…
Bioetyka, a szerzej etyka i filozofia, mają przyszłość, bo stawiają podstawowe pytania dotyczące naszej egzystencji. Nie możemy przestać pytać o to, kim jesteśmy i jaki jest cel naszego życia i zmagania. Bioetyka jest dyscypliną, która prowokuje nas do stawiania takich pytań.
Nie jesteśmy tylko biologicznym organizmem, nie jesteśmy tylko genami, nie jesteśmy tylko mózgiem – nie można nas zredukować do biologii. Gdyby tak było, niepotrzebna by nam była żadna etyka. Jesteśmy racjonalnymi naturami. Stawiamy pytania o sens naszego życia właśnie dlatego, że nasze życie wykracza poza gatunkowe przyporządkowanie. Dyskutujemy nad początkiem i kresem naszego życia, uznając naszą wyjątkowość wśród innych żyjących istot. I nie jest to wyjątkowość ze względu na biologiczną naturę.
Spory w naukach szczegółowych dotyczą interpretacji faktów naturalnych. Stawiamy hipotezy, weryfikujemy je. Takie spory się kończą, gdy uda się nam dowieść względnie pokazać, która z konkurujących hipotez okazała się lepsza względnie błędna. Powstają nowe paradygmaty nauki i kolejne teorie. Tak się rozwijają nauki szczegółowe.
W filozofii stawiamy wciąż te same pytania… Zmieniają się konteksty i nasz zasób wiedzy o otaczającym nas świecie, a pytania zostają.
Proszę pana, kolosalną (śmiech)… Tylko niekoniecznie jesteśmy w tym dobrzy. Powiedział kiedyś George Bernard Shaw, że dwa procent ludzi myśli, trzy procent ludzi myśli, że myśli, zaś cała reszta ludzi prędzej umrze niż pomyśli.
Rozmawiał Radosław Zyzik
BARBARA CHYROWICZ (ur. 1960) jest filozofką, teolożką i etyczką, profesorem Katolickiego Uniwersytetu Lubelskiego, gdzie kieruje Katedrą Etyki Szczegółowej. Należy do Zgromadzenia Misyjnego Służebnic Ducha Świętego. Jest członkiem Komitetu Bioetycznego przy PAN. Autorka książek, m.in.: "Bioetyka i ryzyko. Argument "równi pochyłej" w dyskusji wokół osiągnięć współczesnej genetyki"; "O sytuacjach bez wyjścia w etyce. Dylematy moralne, ich natura, rodzaje i sposoby rozstrzygania" (otrzymała za nią w 2009 r. Nagrodę im. ks. Józefa Tischnera) oraz "Bioetyka. Anatomia sporu".
Obiektywizacja pojęcia "szczęście" – poprzez powiązanie go z dochodem i majątkiem – miało pozwolić na oszacowanie poziomu szczęścia całych społeczeństw. Początkowo wierzono, że im większy wzrost Produktu Krajowego Brutto, tym większy wzrost szczęścia. Co miało mieć teraz znaczenie, to poziom zamożności społeczeństw.
Założenie o związku między zamożnością i szczęściem wydaje się być zdroworozsądkowe. Ludzie na całym świcie strajkują, ponieważ uważają, że powinni więcej zarabiać. A im więcej zarabiają, tym więcej rzeczy mogą nabyć, mogą też posłać dzieci do lepszych szkół, zadbać o swoją przyszłość itd.
Jednak im bliżej przyglądano się związkowi między pieniędzmi i szczęściem, tym ten związek okazywał się coraz bardziej skomplikowany. Na przykład: im bogatszy człowiek, tym mniej czerpie satysfakcji z kolejnych zysków. A im biedniejszy człowiek, tym większy wpływ ma dodatkowy dochód na jego poziom satysfakcji z życia.
Poczucie szczęścia okazało się być bardziej złożone, niż to się początkowo wydawało. Dziś niektórzy ekonomiści twierdzą, że jeśli jesteś zamożny, to wzrost dochodu podnosi twój poziom szczęścia jedynie czasowo, a potem ta dodatkowa satysfakcja znika. Inni twierdzą, że jeśli w danym kraju poziom dochodu przekroczy kwotę 15 tys. dolarów na mieszkańca, wówczas dalszy wzrost zamożności niewiele zmienia w poczuciu szczęścia.
W konwencjonalnej ekonomii zakładano, że poziom szczęścia jednostki jest niezależny od poziomu szczęścia współobywateli. Inaczej mówiąc: że nie interesuje nas to, jak miewają się członkowie naszej rodziny, sąsiedzi czy mieszkańcy tego samego osiedla.
Jednak człowiek nie jest samotną wyspą. Nasze samopoczucie określa się również w relacji do innego człowieka. Osoba zamożna może być bardziej nieszczęśliwa niż osoba biedna, jeśli żyje w społeczności składającej się ludzi znacznie bardziej od niej zamożnych.
Lubimy się bowiem porównywać. I jeśli okazuje się, że wszystkim się poprawia, że koszty życia rosną, lub że średnia pensja w gospodarce wzrasta, wówczas poziom odczuwanego szczęścia wraca do poziomu pierwotnego.
Przeprowadzone badania pozwoliły stwierdzić, że ludzie w ciągu czterech lat przyzwyczajają się do większego poziomu zarobków, a tym samym ich poziom szczęścia w ciągu czterech lat rośnie, aby pod koniec tego okresu znów spaść (choć nie do początkowego poziomu). W literaturze przedmiotu zjawisko to nosi nazwę hedodnicznej adaptacji – lub, jak twierdzą niektórzy, hedonicznego kieratu.
Choć wzrost zamożności odgrywa istotną rolę dla wzrostu szczęścia, to występują istotne różnice pomiędzy ludźmi o takim samym dochodzie, jak również pomiędzy krajami o podobnym PKB, liczonym na głowę mieszkańca. Nie da się zrozumieć tych różnic – oraz zmian w odczuwaniu szczęścia – jeśli nie weźmiemy pod uwagę także czynników poza-finansowych.
A jednym z takich kluczowych czynników jest – jeśli można tak to ująć – etyczna kondycja społeczeństwa. Jeśli członkowie jakiegoś społeczeństwa czują, że mogą sobie zaufać, i że nie muszą nieustannie się pilnować, żeby ktoś ich nie oszukał, wówczas poziom satysfakcji z życia rośnie. Zaufanie jest kluczowe, a zaufanie wynika z zachowań etycznych. Dlatego studia nad czynnikami promującymi takie zachowania są również istotne w debacie nad kwestią szczęścia.
Innym, na pozór może nawet zaskakującym czynnikiem, który zwiększa poziom szczęścia, okazuje się poczucie wspólnoty. Bycie członkiem wspólnoty (religijnej lub społecznej), w której promuje się określone wartości, daje poczucie przynależności do grupy i również zwiększa poziom naszej satysfakcji z życia. Ujmując to inaczej: jeśli chcemy mieć szczęśliwsze społeczeństwo, to jego członkowie niekoniecznie powinni wybierać skrajny indywidualizm jako strategię funkcjonowania.
Kolejnym czynnikiem, który niezwykle trudno zmierzyć (jeśli w ogóle jest to możliwe), a który również ma tutaj istotne znaczenie, jest klimat kulturowy wynikający z określonego systemu wierzeń. To z kolei przekłada się na promowany poziom konformizmu czy też poziom aktywności społecznej i kulturowej. Tym samym humanistyka, naświetlając różne aspekty dominujących wzorców kulturowych, może pomóc w zrozumieniu mechanizmu, wedle którego kultura wpływa na poziom szczęścia jednostek.
Szacuje się, że w zamożnych społeczeństwach proporcja ludzi szczęśliwych do nieszczęśliwych wynosi trzy do jednego. Choć jest to niezły wynik, to mówimy tu jednak o społeczeństwach zamożnych i bezpiecznych, ze względnie stabilnymi systemami politycznymi. Tymczasem proporcje te zmieniają się drastycznie, gdy zaczynamy badać np. biedne kraje afrykańskie czy azjatyckie.
Jeśli wiemy już, że osiągnięcie pewnego poziomu dochodu gwarantuje nam wzrost poziomu szczęścia, to pojawia się pytanie: co dalej robić? Jak uszczęśliwić tę jedną czwartą społeczeństwa? Wydaje się, że w grę muszą wchodzić czynniki niemierzalne – takie jak właśnie wpływ kultury, poziom zaufania między ludźmi, poczucie wspólnoty czy możliwość autoekspresji i kontroli nad własnym życiem…
Bo badań nad szczęściem nie da się zredukować do prostych rozważań ilościowych. Nie da się policzyć go w tabelce Excela. Humanistyka naprawdę ma jeszcze wiele do zaoferowania, gdy chodzi o studia nad szczęściem.
Dr RADOSŁAW ZYZIK (ur. 1984) jest doktorem prawa, wicedyrektorem Instytutu Nauk o Polityce i Administracji w Akademii Ignatianum w Krakowie. Zajmuje się behawioralną ekonomiczną analizą prawa, polityką i teorią prawa, neuroprawem oraz teorią decyzji.