Obserwuj wątek
X
Obserwuj wątek
Ateiści czepiają się czasem teologii i podśmiewają się z niej twierdząc, że nie jest ona „naukowa”. Weźmy więc i ten zarzut pod lupę.
Ateiści czepiają się czasem teologii i podśmiewają się z niej twierdząc, że nie jest ona „naukowa”. Pisząc „naukowa” mają oczywiście na myśli „naukowość” w sensie nauk przyrodniczych, czy jak kto woli „empirycznych”, takich jak fizyka lub biologia. W niniejszym eseju postaram się więc z grubsza zastanowić na ile słuszny jest ten zarzut. Będzie to też dobra okazja ku temu aby rozważyć to czym w ogóle jest „nauka” i czy potrafimy odróżnić tę ostatnią od tego czym „nauka” nie jest. Na samym końcu spróbuję też przynajmniej wstępnie odpowiedzieć na pytanie o to jaki w ogóle jest status twierdzeń teologii. Będzie to jednak bardziej moja osobista propozycja niż jakaś ostatecznie gotowa odpowiedź.
Czy więc teologia nie jest „naukowa”? Aby choć prowizorycznie odpowiedzieć na to pytanie musimy wpierw przynajmniej postarać się ustalić co znaczy samo pojęcie „naukowa”. Rozpocznijmy więc od historii bez której nie będziemy w stanie nic w tych wszystkich kwestiach w zasadzie odnotować. Przynajmniej pokrótce należy zarysować to jak kształtowała się dyskusja wokół definicji pojęcia „nauka” oraz związanego z tym statusu poznawczego nauk przyrodniczych (nie da się skrótowo omówić wszystkich kryteriów demarkacji w metodologii nauki, omawiam więc tylko te najważniejsze, pomijając mniej ciekawe, takie jak konwencjonalizm). Szeroko pojęta nauka istniała oczywiście na długo przed narodzinami jej obecnej współczesnej formy, zrodzonej głównie w epoce Oświecenia i rozwijanej następnie przez pozytywistów. Fundamenty współczesnej nauki, takie jak logika i matematyka, istniały już w starożytności. Obecna logika nie jest tym samym czym była logika w starożytności, podobnie jak matematyka, niemniej jednak bez narodzin tych dziedzin już w starożytności trudno byłoby w ogóle odpowiedzieć na pytanie o to czy istniałyby one dzisiaj i czym byłaby wtedy współczesna nauka.
Nas jednak bardziej interesuje ogólny status poznawczy nauk empirycznych więc skupię się przede wszystkim na tym gdyż „ateiści naukowi”, odmawiając jakiegokolwiek statusu poznawczego teologii, wyraźnie przeciwstawiają jej nauki przyrodnicze. U zarania dziejów nowoczesnej nauki sądzono, że wszystko jest proste i oczywiste w kwestii statusu poznawczego nauki i przed ówczesną nauką miało stać już niewiele zagadek do rozwiązania (złudzenie to trwa pośród „naukowych ateistów” aż po dziś dzień). Niejaki MacLaurin pisał na przykład w 1748 roku, że Newton zostawił potomnym niewiele do zrobienia, poza obserwowaniem nieba i obliczaniem jego modeli. Fizyka newtonowska jednak załamała się po propozycjach Einsteina i sytuacja wróciła do punktu wyjścia. Na samym początku domniemywano także, że równie proste jest udowadnianie hipotez naukowych i określanie w ten sposób co naukowe jest lub nie jest. Wystarczy wyobrazić sobie jakiś zespół obserwacji, które dowodziłyby słuszności teorii – i gotowe (większość ludzi naiwnie sądzi po dziś dzień, że teorie w nauce biorą się z obserwacji, podczas gdy w rzeczywistości jest zupełnie odwrotnie). Oto mamy przepis na uprawianie nauki i przy okazji zdefiniowanie czym jest ta „prawdziwa nauka”: „prawdziwa nauka” polega na empirycznej sprawdzalności teorii i następnie na indukcyjnym uogólnieniu tego w jakieś „prawa przyrody”. Nic bardziej prostszego być nie mogło.
Czas pokazał jednak, że nic tu nie jest proste. Tak zwani „logiczni empiryści”, wywodzący się z neopozytywizmu i głoszący te wymienione przed chwilą tezy jako „proste i oczywiste”, zostali niemal spaleni w ogniu przytłaczających trudności o charakterze epistemologicznym i logicznym. Na początku sądzili oni, że wszystko co nie daje się odnieść do doświadczenia przestaje być już nauką i staje się metafizyką, czyli zbiorem zdań bezsensownych (według ich kategorii pojmowania metafizyki). Okazało się jednak, że sam pozytywizm logiczny również opiera się na mnóstwie nieweryfikowalnych założeń, które są jedynie kolejną metafizyką. Przykładając miarę pozytywizmu logicznego do niego samego krytycy tego nurtu zauważyli, że program pełnego zerwania z wszelką metafizyką jest niewykonalny. Na przykład naczelna zasada tego systemu – wymóg weryfikowalności empirycznej – wymaga cichego założenia realności istnienia świata materialnego oraz jego racjonalnej, przewidywalnej struktury. Oba te założenia są czysto metafizyczne – nie można ich samych dowieść empirycznie i trzeba je po prostu przyjąć na wiarę. A z takich koncepcji chcieli właśnie oczyścić filozofię pozytywiści logiczni. Dalsze szczegółowe badania logiczne rozmaitych teorii i pojęć występujących w fizyce pokazały, że lwia część podstawowych teorii w fizyce nie jest weryfikowalna empirycznie. Jest tak nie tylko z powodów praktycznych, ale często na skutek samej konstrukcji logicznej tych teorii. Przykładem nieweryfikowalnej zasady jest na przykład zasada zachowania energii. Nie sposób bowiem w skończonej liczbie doświadczeń dowieść prawdziwości hipotezy dotyczącej wszystkich zjawisk w ogóle.
Pozytywiści poszukiwali również możliwości budowy wiedzy w ramach systemów formalnych, takich jak logika i matematyka. Ostateczny cios tym działaniom zadały prace Kurta Gödla, a zwłaszcza jego twierdzenie o niezupełności systemów aksjomatycznych zawierających arytmetykę liczb naturalnych. W ramach tych prac Gödel dowiódł, że każdy system aksjomatyczny pierwszego rzędu musi zawierać zdania niemożliwe do dowiedzenia, o ile jest niesprzeczny. Zbiór zdań generowanych (dowodzonych) przez system formalny nigdy nie będzie równy ze zbiorem zdań prawdziwych teorii. Może on być albo mniejszy od zbioru zdań prawdziwych (system niesprzeczny, ale niezupełny), albo większy od niego (system zupełny ale sprzeczny). Oznacza to, że niemożliwe jest przedstawienie zespołu wiedzy matematycznej w zamkniętej formie, w postaci zamkniętego systemu formalnego, jak chcieli tego przedstawiciele prądów pozytywistycznych.
Z czasem na „pozytywistów logicznych” spadały coraz większe ciosy i to ze strony tych obszarów, z których wcześniej spodziewali się oni akurat największego wsparcia. Jednym z tych obszarów była właśnie sama logika. Okazuje się bowiem, że ściśle logiczne dedukcje pozwalają nam jedynie wnioskować (przekazywać prawdę), ale nie dowodzić jej (ustalać prawdę). Po prostu żadna logika nie może w niezawodny sposób zwiększać treści empirycznej (pominąwszy problem, że nawet same reguły dedukcyjne nie są wcale aż takie pewne na jakie wyglądają). Jakby tego było mało to żadna skończona koniunkcja twierdzeń faktualnych nie może wystarczyć aby dowieść teorii ogólnej. W nieskończonym Wszechświecie o potencjalnie nieskończonej liczbie możliwości każda skończona ilość „dowodów” nie uprawdopodobni nawet teorii do poziomu prawdopodobieństwa większego od zera (każda skończona liczba doświadczeń podzielona przez nieskończoną liczbę nowych potencjalnych doświadczeń da w wyniku zawsze zero). Tym samym dana teoria może być pseudonaukowa nawet wtedy gdy przemawiają za nią wszystkie „fakty”. Naukowy bądź nienaukowy charakter danej teorii może być więc ustalany niezależnie od „faktów”. Zdanie może zgadzać się z faktami, choć nie istnieje niezawodny sposób na to, by to stwierdzić.
Nierozwiązywalny jest nie tylko problem dowodzenia zdań ogólnych na podstawie zdań jednostkowych ale równie nierozwiązywalny jest nawet problem dowodzenia faktualnych twierdzeń jednostkowych na podstawie innych faktualnych twierdzeń jednostkowych. Wybór zarówno takich zdań jak i teorii (spośród innych) jako „prawdziwych” oraz „dowiedzionych” może odbywać się wyłącznie arbitralnie i dokonywać się zupełnie dowolnie, na przykład w subiektywnym świecie estetycznych gustów.
Istnieje również nieprzezwyciężalny problem z ustaleniem samego statusu logicznego tak zwanych „zdań obserwacyjnych”. Twierdzenia można bowiem jedynie wyprowadzać z innych twierdzeń, ale już nie z „faktów”. Jest to jedna z podstawowych zasad elementarnej logiki i szczególny przypadek ogólnej tezy, że logiczne relacje w rodzaju logicznego prawdopodobieństwa czy niesprzeczności odnoszą się do zdań. A zatem, na przykład twierdzenie, że „przyroda jest niesprzeczna” jest zdaniem fałszywym lub po prostu bezsensownym gdyż przyroda sama w sobie nie jest przecież zdaniem ani koniunkcją zdań.
Kolejnym nieprzezwyciężalnym problemem dla pozytywistów logicznych okazało się zagadnienie tak zwanego teoretycznego obciążenia wszelkich zdań obserwacyjnych. Okazuje się bowiem, że wszystkie twierdzenia obserwacyjne są skażone, czy jak kto woli przesiąknięte jakąś teorią. Nie można niczego powiedzieć o dowolnej obserwacji bez jakiejś uprzedniej teorii presuponującej tę obserwację. Weźmy choćby takie pozornie proste i oczywiste „zdanie obserwacyjne”: „tam w rogu stoi drzewo”. Zdanie to nie ma żadnego sensu jeśli wpierw ktoś nie zdefiniuje nam czym w ogóle jest „drzewo”, odwołując się jeszcze przed obserwacją do jakiejś klasyfikacyjnej teorii z zakresu dendrologii. A zatem teoria jest zawsze przed każdą obserwacją i wyprzedza wszelką obserwację. Już nawet sam język w jakim musimy przecież wyrazić każdą obserwację zawiera terminy przesycone jakąś teorią. Ponownie weźmy pod lupę choćby takie funkcjonujące nawet w codziennym języku potocznym podstawowe pojęcia jak „czas”, „przestrzeń” i „grawitacja”. W świecie pojęć klasycznej fizyki newtonowskiej pojęcia te są czymś zupełnie innym niż w świecie pojęć fizyki einsteinowskiej. Czas jest zawsze constans u Newtona, zaś u Einsteina jest już zmienny w swej zależności od jakiegoś układu odniesienia. To samo tyczy się także innych pojęć, takich jak „masa” i tak dalej (masa jest zawsze stała u Newtona i zmienna u Einsteina, w zależności od tego jak przemieszczamy dany obiekt względem jakiegoś układu odniesienia). Jak widzimy nawet takie znane wszystkim określenia, z jakimi spotykamy się na co dzień, mogą mieć różne definicje w zależności od danego ujęcia teoretycznego. Wniosek z tego jest taki, że obciążone teoretycznie są już więc nawet najbardziej podstawowe i pozornie oczywiste terminy naszego języka, w których wyrażamy wszelkie obserwacje.
Nie istnieje więc coś takiego jak „czysta obserwacja”, a skoro ona nie istnieje to nie istnieje również jakiekolwiek kryterium pozwalające nam odróżnić zdania obserwacyjne od teoretycznych, w tym metafizycznych. Wnioski z tego są ponownie druzgocące dla poglądów wszelkiej maści „logicznych empirystów” i ateistycznych scjentystów: skoro nie da się odróżnić teorii od obserwacji, to obserwacja nie ma żadnego znaczenia. Od tej pory żaden pogląd naukowy nie tylko nie może być ustalony w świetle jakiejkolwiek obserwacji, ale nie może też być obalony w świetle jakiejkolwiek obserwacji. Obserwacja jest więc bez znaczenia i tym samym zawsze liczy się przede wszystkim teoria. Nie mamy więc żadnego dowodu na to, że nauki „empiryczne” w sposób rozstrzygający opierają się na obserwacji. Nie istnieje żadne kryterium, które pozwoliłoby odróżnić ich sądy od sądów dowolnej nieobserwacyjnej metafizyki. Wszystkie twierdzenia naukowe, zarówno te a priori jak i te a posteriori są równie teoretyczne i tym samym mogą być zawodne, będąc niczym więcej jak tylko przypuszczeniami. Mówiąc wprost – nie ma żadnych dowodów na to, że „nauki empiryczne” są w ogóle empiryczne. Z tych samych przyczyn nie ma nawet żadnych dowodów na to, że są one choćby „racjonalne”. Określenie „racjonalne” to bowiem tylko kolejny pusty termin, którego żaden scjentysta ani „racjonalista” nie jest w stanie z sukcesem zdefiniować, unikając przy tym kolistości w rozumowaniu, a co dopiero mówić o wykazaniu zasadności tego terminu (w tym również po połączeniu go z zagadnieniem nauki).
Ostatecznym gwoździem do trumny „logicznego empiryzmu” było zamordowanie zasadności wnioskowania indukcyjnego. Wnioskowanie indukcyjne jest jak wiadomo absolutnym fundamentem rozumowania dla przedstawicieli współczesnych nauk empirycznych. Okazuje się jednak, że wnioskowanie to jest po prostu błędne logicznie przy wszelkich próbach wykazania jego zasadności lub prawomocności. Wnioskowanie to zakłada bowiem bezpodstawnie, że dowolna skończona ilość obserwacji może zostać rozszerzona na nieskończoną ilość pozostałych przypadków, których jeszcze nie zaobserwowaliśmy (nieuprawniona ekstrapolacja ex post). Na przykład powiedzmy, że naukowiec X wykonując eksperyment Y przy pomocy próbówki zakłada, że wyniki tego eksperymentu będą zawsze takie same w przyszłości, w dowolnym miejscu przestrzeni i czasu, czyli po prostu w całym Wszechświecie (zakłada on tak również wstecz, do całej zaistniałej już przeszłości). Jednak każda próba uzasadnienia tego założenia musi odwołać się do tegoż właśnie założenia jako uzasadnienia dla niego samego, co jest klasycznym błędnym kołem w rozumowaniu. Wszelkie próby uzasadnienia indukcji kończyły się tylko uzasadnianiem indukcji przy pomocy indukcji i nikt nie był w stanie przezwyciężyć tego problemu ponieważ w końcu końców zawsze było to jedyne wyjście jakie pozostawało. Powszechnie przyjmuje się, że to filozof David Hume jako pierwszy wykazał wadliwość logiczną rozumowania indukcyjnego, zaś Karl Popper doprowadził po nim tę krytykę niemal do perfekcji (Poppera nazywano nawet „prześladowcą indukcji”). Nie jest to jednak do końca prawdą gdyż krytyka wnioskowania indukcyjnego pojawiała się już w zarodkowej formie wśród starożytnych sceptyków greckich (kontynuatorzy szkoły pirrońskiej, zwłaszcza Menodotos z Nikomedii). Niemniej jednak faktem pozostaje, że Hume i Popper rozwinęli krytykę tego zagadnienia do bardzo zaawansowanego i profesjonalnego poziomu, domykając ostatecznie wszelkie możliwe konkluzje w tej kwestii. Wszystkie te konkluzje były negatywne i druzgocące dla rozumowania indukcyjnego.
Wziąwszy pod uwagę całokształt wszystkich powyższych problemów epistemologicznych, „logiczny empiryzm” i pozytywizm nie miały innego wyjścia jak tylko intelektualnie zbankrutować. Myliłby się jednak ten kto uznałby, że skapitulowały one całkowicie gdyż zaczęto wysuwać różne „rozwiązania zastępcze” w miejsce szeregu problemów zasygnalizowanych powyżej. Rudolf Carnap doszedł na przykład do wniosku, że problem niemożności udowodnienia jakiejkolwiek teorii naukowej należy zastąpić zagadnieniem uprawdopodobnienia danej teorii. Nie możemy już dowieść prawdziwości żadnej koncepcji naukowej, możemy ją jednak uprawdopodobnić. Zastąpiono dowód przez prawdopodobieństwo. Takie rozwiązanie zaczęło się jawić jako bardzo atrakcyjne dla wielu zwolenników nauki więc nic dziwnego, że przywitali je z otwartymi ramionami (myślenie takie pokutuje również i dziś wśród wielu „naukowych ateistów”). Niemniej jednak Karl Popper w swej książce pt. Logika odkrycia naukowego wykazał, że wszystkie twierdzenia naukowe mają prawdopodobieństwo równe zeru, bez względu na ilość potwierdzeń. Co więcej, Popper wykazał również w swej książce, że nie tylko wszelkie teorie naukowe mają prawdopodobieństwo równe zeru, ale również wszelkie metody chcące „uwiarygodnić probabilistycznie” hipotezy naukowe również są nieprawdopodobne w świetle siebie samych. Probabilizm jest pozbawiony bazy empirycznej (sądy probabilistyczne jedynie zakładają swe podobieństwo do prawdy) i tym samym również ląduje w przegródce o nazwie „metafizyka”. Te same problemy epistemologiczne, które zrujnowały indukcjonizm, w równej mierze zdemolowały probabilizm.
Carnapowski probabilizm okazał się więc kuszącą propozycją ratowania wiarygodności twierdzeń nauki, niemniej jednak była to kolejna ślepa uliczka. Wydawało się, że sceptycyzm reprezentowany w XX wieku głównie przez filozofów nauki skupionych wokół Karla Poppera zwyciężył już bezapelacyjnie. I wtedy przyszła pomoc z najmniej oczekiwanej strony, czyli właśnie od samego Karla Poppera. To on zaproponował nowe kryterium oceny tego jak odróżnić teorię naukową od takiej, która z nauką nie ma nic wspólnego. Zaproponował słynny falsyfikacjonizm jako kryterium demarkacji, czyli koncepcję, że nie możemy już co prawda udowodnić żadnej teorii przy pomocy dowolnej ilości potwierdzeń obserwacyjnych, możemy jednak wskazać co jest naukowe przez eliminację teorii fałszywych. Naukowa okaże się tylko taka teoria, która przetrwa w świetle ogromnej ilości surowych testów obalających, w czasie gdy jej konkurentki nie przetrwają takich samych lub podobnych testów. Popper stwierdził po prostu, że naukowe są tylko te teorie, które byłyby w stanie określić jakie obserwacje, warunki lub testy obalą je. Czy to było to wyjście, na które wszyscy wielbiciele nauki czekali z utęsknieniem po całej tej nawałnicy krytyki logicznej i epistemologicznej, jaką streściłem wyżej?
Odtrąbianie sukcesu i strzelanie korkami szampanów byłoby tu jednak przedwczesne. Falsyfikacjonizm Poppera okazał się interesującą propozycją, podobnie jak wspomniana już wyżej propozycja Carnapa, niemniej jednak towarzyszyło tej propozycji równie wiele problemów co innym koncepcjom mającym za zadanie odnaleźć jakieś wiarygodne kryterium demarkacji. Przede wszystkim należy zauważyć, że falsyfikacjonizm całkowicie zrezygnował z obrony zasad mających potwierdzać daną teorię naukową. Zamiast tego falsyfikacjonizm wręcz podkreśla zawodność teorii naukowych i na tejże właśnie zawodności się koncentruje. A przecież to właśnie obserwacyjna potwierdzalność, a nie zawodność, była tym o co przede wszystkim chodziło „logicznym empirystom” i pozytywistom. Z tego co jest zawodne nie dowiadujemy się też wcale przez eliminację co jest niezawodne gdyż istnieje potencjalnie nieskończona ilość konkurujących ze sobą teorii naukowych, tłumaczących tak samo dobrze ten sam zespół obserwacji. Mówiąc inaczej – dochodzenie do prawdziwej teorii przez eliminację teorii fałszywych może trwać bez końca. W ten sposób nigdy nie dowiemy się, która teoria jest prawdziwa, nawet jeśli będziemy wiedzieli, które teorie są fałszywe. Teoria uczenia się z samych obaleń jest więc dość jednostronna i wydaje się niewystarczająca do budowania przyrostu wiedzy, która powinna być raczej wiedzą pozytywną niż wyłącznie negatywną. Wiedza o tym co jest fałszywe nie dostarcza nam raczej żadnych informacji o tym co jest prawdziwe. W ten oto sposób zwiększamy jedynie świadomość własnej ignorancji, niekoniecznie zaś wiedzy o prawdzie. Bardzo dyskusyjne jest też to, czy w ogóle można ustalić czym jest błąd, nie posiadając uprzednio teorii rozpoznawania prawdy i dochodzenia do niej, z czego Popper postanowił zrezygnować w tym punkcie, oddając się idei tropienia fałszywości. Falsyfikacjonizm wydawał się jednak popperystom na początku lepszy ponieważ od wnioskowania indukcyjnego przechodził do wnioskowania dedukcyjnego, nakierowanego co prawda na eliminację, ale pewniejszego ze swej natury. Wydawało się, że oto na horyzoncie pojawia się rozwiązanie pewnych wcześniejszych problemów.
Ale wcale tak nie było. Falsyfikacjonizm okazał się pełen dziur, niczym ser, który nawet po zjedzeniu wciąż je zawiera. Przede wszystkim nie da się uciec od wniosku, że falsyfikacjonizm popperowski powtarza te same błędy, które krytykował w indukcjonizmie. Aby bowiem jakaś obserwacja w ogóle mogła doprowadzić do obalenia danej teorii naukowej to wpierw sama musi być obserwacją pewną i wiarygodną. Jak jednak pamiętamy, Popper wykazywał, że nie istnieją wiarygodne obserwacje ponieważ albo są one obciążone teoretycznie, albo w nieskończonym świecie będzie ich zawsze zbyt mało aby dowieść czegokolwiek. Obalanie też jest przecież dowodzeniem czegoś w procesie falsyfikacji, w tym wypadku dowodzeniem błędności teorii. Ponadto jeśli popperysta uzna, że jakiś zespół obserwacji sfalsyfikował daną teorię, to w sytuacji gdy przyroda lub my sami unieważnimy już te obserwacje teoria okaże się zwycięską w świetle testów krytycznych. Możemy też zmienić lub wręcz unieważnić teorię, na której wspiera się nasza obserwacja mająca sfalsyfikować teorię główną. Wtedy nasza obserwacja falsyfikująca również zostanie unieważniona, gdyż wiemy już, że każda obserwacja nie znaczy nic bez teorii ją wspierającej. Nawet sam świat i jego „prawa” mogą nagle zmienić się na korzyść lub niekorzyść danej teorii, w tym na korzyść teorii, którą już uznaliśmy za sfalsyfikowaną.
Sfalsyfikowana teoria może więc nadal pozostawać prawdziwa (choć możemy nie być w stanie tej prawdziwości w ogóle wykazać). W dodatku obserwacje obalające daną teorię mogą też być unieważnione przez samego eksperymentatora lub obrońcę teorii. Obrońca teorii może odpierać negatywne dla niego obserwacje przez różne reinterpretacje danej obserwacji, poprawki (jak czynił to choćby Newton w swych listach do krytykującego jego teorię Flamsteeda) lub przez hipotezy wyjaśniające ad hoc, odwołujące się na przykład do jakiegoś niewykrytego jeszcze czynnika, który zakłócił pomiar w momencie gdy przyroda zdawała się wykrzykiwać swe falsyfikacyjne veto dla danej teorii. Zgodnie z tezą Duhema-Quine’a, każdą teorię można bez końca bronić przed obaleniami, dokonując odpowiednich poprawek w tak zwanej wiedzy towarzyszącej, w której ta teoria jest osadzona. Obrońca teorii może też unieważnić wszelkie próby jej falsyfikacji przez zmianę znaczeń pojęć, rozszerzenie znaczenia tych pojęć, zwiększanie lub zmniejszanie ogólności pomiarów świadczących na korzyść lub niekorzyść teorii i tak dalej. Bywały nawet przypadki, że obrońcy danej teorii przekształcali obserwacje falsyfikujące w obserwacje „potwierdzające” (jak choćby robili zwolennicy teorii Newtona). Jeszcze inne obserwacje były uznane za falsyfikacje dopiero wtedy gdy ktoś dalej rozwijał nieobserwacyjne elementy jakiejś teorii (tak było w przypadku eksperymentu Chadwicka, co do którego dopiero z czasem zorientowano się, że ów eksperyment kwestionuje prawo zachowania energii). Można też potraktować wcześniejsze obserwacje falsyfikujące daną teorię za „nieważne” w świetle nowych sprawdzianów (jak to zrobił w 1936 roku niejaki Shankland, chcący wskrzesić do życia zarzuconą wcześniej teorię Bohra-Kramersa-Slatera). Możliwości jest tu nieskończenie wiele i jak ponownie widać to teoria decyduje wpierw o tym jaki jest charakter danej obserwacji, więc jeśli zwolennicy danej teorii zechcą, to przy odrobinie elastyczności i tak zawsze obronią ją przed każdą obserwacją potencjalnie ją falsyfikującą. Jest tak właśnie dlatego, że jak już wspomniałem wyżej – teoria jest zawsze ważniejsza od obserwacji, ma przed nią pierwszeństwo i bezkompromisowo stoi ponad nią, decydując w sposób całkowicie dowolny o tym jaki charakter ma dana obserwacja. To właśnie argument samych popperystów, poniekąd bardzo słuszny, który jednak uderza rykoszetem w ich własną zasadę falsyfikacji, jako sposobu, który za pomocą obserwacji negatywnych miał za zadanie stać się kryterium odróżnienia tego co naukowe, od tego co nie jest naukowe. Na marginesie warto dodać, że Popper nigdy nie przedstawił też żadnych wskazówek co do tego jak sfalsyfikować jego własną zasadę falsyfikacji. Nie wyjaśnił też czemu ta zasada miałaby bardziej skutecznie prowadzić do prawdy niż inne zasady demarkacji w nauce. Historia nauki jest ponadto przepełniona całą masą przypadków gdy naukowcy nie porzucali teorii tylko dlatego, że przeczyły im jakieś obserwacje. Traktowali je co najwyżej jako zwykłe anomalie, w jakich nauka jest zanurzona zresztą po uszy, do których to anomalii będzie można wrócić jeszcze później, po czym odkładali temat na półkę. Weźmy choćby anomalne peryhelium Merkurego, które miało sfalsyfikować teorię newtonowską. W rzeczywistości anomalia ta była znana przez dziesięciolecia i nie falsyfikowała teorii Newtona. Nawet na przykładzie pozornie oczywistych obserwacji można ukazać, że falsyfikacja nie jest wcale takim łatwym procesem. Teza „wszystkie kruki są czarne” wydaje się prosta do sfalsyfikowania przez zaledwie jedną pozornie oczywistą obserwację kruka białego. Ale nawet taka pozornie oczywista obserwacja kruka białego może zostać zakwestionowana przez wątpliwości w rodzaju „a może tego kruka ktoś tylko pomalował?”, albo „a może ten kruk jedynie zmienił kolor pod wpływem jakiejś choroby?”.
Powyższe rozważania nieuchronnie prowadzą nas do wniosku, że nie istnieje kryterium, które pozwoliłoby odróżnić naukę od tego, co nią nie jest. Tym samym dowolna hipoteza naukowa nie posiada w swej strukturze nic, co odróżniałoby ją w jakiś znaczący sposób od dowolnego zabobonu lub systemu metafizycznego. Nie dziwi więc fakt, że mając na względzie te problemy o jakich wspomniałem wyżej Larry Laudan napisał w 1983 roku ciekawy artykuł pt. The Demise of Demarcation Problem, w którym rozpatrując zagadnienie demarkacji wyraził się jasno, że pomiędzy nauką science a dowolnymi wierzeniami kultury ludzkiej nie ma żadnej różnicy jakościowej. Artykuł wywołał dużą wrzawę i poruszenie wśród metodologów nauki i był przedrukowywany w wielu periodykach specjalistycznych oraz szeroko dyskutowany. Polecam zapoznanie się zarówno z tym artykułem jak i reakcjami na niego.
Problem polegający na odnalezieniu ostatecznej definicji „nauki” jest w zasadzie problemem teoretycznym już u samych swych podstaw. Zawsze będziemy musieli bowiem wyjść poza naukę i obserwacje aby w ogóle móc stworzyć jakiekolwiek, choćby nawet robocze kryterium tego, co jest „naukowe”. Każde kryterium jakie stworzymy zrodzi jednak od razu zapytanie o kolejne kryteria, które wpłynęły na naszą decyzję – i tak w nieskończoność. Nieuchronnie stajemy tu przed regresem ad infinitum. Nie da się zająć stanowiska zewnętrznego wobec zagadnienia definicji prawdziwej wiedzy (w tym wypadku – nauki). Tym samym problem polegający na określeniu czym nauka jest i czym nie jest na zawsze pozostanie problemem nierozstrzygalnym, nie tylko na obszarze samej nauki, ale w ogóle. Nie wspominając już nawet o kolejnej nieprzezwyciężalnej trudności polegającej na tym, że nauka nie może sama dla siebie określać kryteriów tego co jest naukowe i co nie jest, ponieważ znalazłaby się nieuchronnie w błędnym kole (żaden system wiedzy nie może oceniać siebie samego wyłącznie na mocy siebie samego – patrz choćby słynny paradoks kłamcy).
A zatem, jak po tym wszystkim co napisałem wyżej wygląda pytanie o to, czy teologia jest nauką? Sądzę, że to pytanie nie ma po prostu żadnego sensu. Równie bezsensowne jest więc też pytanie o to, czy fizyka lub biologia są nauką. Wszystkie te pytania są jednakowo bezsensowne ponieważ nikt nie jest w stanie podać jakiegokolwiek sensownego i zasadnego kryterium, przy pomocy którego moglibyśmy rozsądzić co nauką jest, a co nią nie jest. Nie ma sensu odpowiadać na pytanie „co jest lub nie jest nauką” skoro nikt nie jest w stanie wyjaśnić co termin „nauka” właściwie oznacza. Na nic zda się też odwoływanie do rzekomych praktycznych sukcesów nauki, głównie w wymiarze technologicznym, jako kryterium, które miałoby wyczerpywać znamiona pojęcia „nauka”. W ten sposób wskazujemy bowiem jedynie na technologię, która nauką nie jest. Wskazywanie z kolei na obszary, w których nauka zdaje się mieć sukcesy poza obrębem technologii, też nie jest podaniem poszukiwanego kryterium naukowości ponieważ ludzkość odnosi widzialne sukcesy również w wielu obszarach ewidentnie nieuznawanych za naukowe, takich jak sztuka, sport i tak dalej. Jedyne wyjście jakie w tym momencie pozostaje to konwencjonalizm. Możemy po prostu całkowicie arbitralnie i bez jakichkolwiek podstaw uznać, że fizyka i biologia są nauką, zaś teologia nią nie jest. To twierdzenie będzie jednak niemożliwe do zweryfikowania. Stwierdzenie przeciwne, które równie arbitralnie orzeknie, że teologia jest nauką, będzie równosilne względem stwierdzenia poprzedniego, odmawiającego teologii naukowego charakteru. Warto też na tym miejscu dodać, że jeśli arbitralnie przyjmiemy „indukcjonistyczno-empiryczną” definicję nauki jako jedynie słuszną, jak czyni to większość wojujących przy pomocy nauki ateistów, to okaże się, że nie tylko teologia nie będzie „naukowa” ale będziemy musieli odmówić statusu „naukowości” również takim gałęziom wiedzy jak historia, archeologia, prawo, ekonomia, psychologia, filozofia, socjologia i nawet matematyka, która również nie ma charakteru empirycznego. W tym punkcie bardzo wyraźnie widać jak wulgarne i zawężone jest pojmowanie charakteru nauki przez scjentycznych ateistów. W zasadzie zatrzymali się oni ze swym rozumieniem nauki na bardzo infantylnym etapie prymitywnej ideologii baconowskiej, która zapadła się pod wpływem zmasowanej krytyki logicznej i epistemologicznej, o której wspomniałem wyżej.
Na zakończenie spróbuję pokrótce odpowiedzieć na pytanie o to jaki status mają twierdzenia teologii, co obiecywałem na początku niniejszego tekstu. Moim zdaniem status twierdzeń teologicznych znajduje się gdzieś pomiędzy matematyką i filozofią. Teologia, podobnie jak matematyka, przyjmuje pewne aksjomaty od których wyprowadza dalsze wnioski prawdziwe o tyle, o ile słuszne są jej aksjomaty. Aksjomaty zaś dowodzeniu nie podlegają, nawet w matematyce. To jest to miejsce gdzie teologia jest nieco podobna do matematyki. Odróżnia ją od matematyki zaś to, że twierdzenia teologii nie są dedukcyjne, ani ścisłe, co z kolei upodabnia teologię do filozofii. Jak wspomniałem już jednak wyżej, zasadność wnioskowania dedukcyjnego jest również zagadnieniem nieco dyskusyjnym, więc brak procesu dedukcyjnego w teologii nie musi jej od razu dyskredytować. Wręcz przeciwnie, pewna elastyczność wniosków, która dzięki temu w teologii istnieje, może być bardziej jej zaletą niż wadą. Świat i przyroda nie są ścisłe, matematyczne i dedukcyjne – to tylko pewne umowne i schematyczne kalki przez jakie próbujemy sortować sobie „rzeczywistość”. Fizyka i biologia też zresztą dedukcyjne nie są, będąc raczej dużo bardziej indukcyjnymi wnioskowaniami. Jest to jednak już zagadnienie poboczne i wracając do sedna niniejszego akapitu tak właśnie na obecną chwilę widzę status twierdzeń teologii. Jak wspomniałem na początku tego tekstu, mój punkt widzenia w tej kwestii jest jednak tylko pewną hipotezą roboczą i tym samym może podlegać dalszym rewizjom w przyszłości.
Jan Lewandowski, sierpień 2017
Czy więc teologia nie jest „naukowa”? Aby choć prowizorycznie odpowiedzieć na to pytanie musimy wpierw przynajmniej postarać się ustalić co znaczy samo pojęcie „naukowa”. Rozpocznijmy więc od historii bez której nie będziemy w stanie nic w tych wszystkich kwestiach w zasadzie odnotować. Przynajmniej pokrótce należy zarysować to jak kształtowała się dyskusja wokół definicji pojęcia „nauka” oraz związanego z tym statusu poznawczego nauk przyrodniczych (nie da się skrótowo omówić wszystkich kryteriów demarkacji w metodologii nauki, omawiam więc tylko te najważniejsze, pomijając mniej ciekawe, takie jak konwencjonalizm). Szeroko pojęta nauka istniała oczywiście na długo przed narodzinami jej obecnej współczesnej formy, zrodzonej głównie w epoce Oświecenia i rozwijanej następnie przez pozytywistów. Fundamenty współczesnej nauki, takie jak logika i matematyka, istniały już w starożytności. Obecna logika nie jest tym samym czym była logika w starożytności, podobnie jak matematyka, niemniej jednak bez narodzin tych dziedzin już w starożytności trudno byłoby w ogóle odpowiedzieć na pytanie o to czy istniałyby one dzisiaj i czym byłaby wtedy współczesna nauka.
Nas jednak bardziej interesuje ogólny status poznawczy nauk empirycznych więc skupię się przede wszystkim na tym gdyż „ateiści naukowi”, odmawiając jakiegokolwiek statusu poznawczego teologii, wyraźnie przeciwstawiają jej nauki przyrodnicze. U zarania dziejów nowoczesnej nauki sądzono, że wszystko jest proste i oczywiste w kwestii statusu poznawczego nauki i przed ówczesną nauką miało stać już niewiele zagadek do rozwiązania (złudzenie to trwa pośród „naukowych ateistów” aż po dziś dzień). Niejaki MacLaurin pisał na przykład w 1748 roku, że Newton zostawił potomnym niewiele do zrobienia, poza obserwowaniem nieba i obliczaniem jego modeli. Fizyka newtonowska jednak załamała się po propozycjach Einsteina i sytuacja wróciła do punktu wyjścia. Na samym początku domniemywano także, że równie proste jest udowadnianie hipotez naukowych i określanie w ten sposób co naukowe jest lub nie jest. Wystarczy wyobrazić sobie jakiś zespół obserwacji, które dowodziłyby słuszności teorii – i gotowe (większość ludzi naiwnie sądzi po dziś dzień, że teorie w nauce biorą się z obserwacji, podczas gdy w rzeczywistości jest zupełnie odwrotnie). Oto mamy przepis na uprawianie nauki i przy okazji zdefiniowanie czym jest ta „prawdziwa nauka”: „prawdziwa nauka” polega na empirycznej sprawdzalności teorii i następnie na indukcyjnym uogólnieniu tego w jakieś „prawa przyrody”. Nic bardziej prostszego być nie mogło.
Czas pokazał jednak, że nic tu nie jest proste. Tak zwani „logiczni empiryści”, wywodzący się z neopozytywizmu i głoszący te wymienione przed chwilą tezy jako „proste i oczywiste”, zostali niemal spaleni w ogniu przytłaczających trudności o charakterze epistemologicznym i logicznym. Na początku sądzili oni, że wszystko co nie daje się odnieść do doświadczenia przestaje być już nauką i staje się metafizyką, czyli zbiorem zdań bezsensownych (według ich kategorii pojmowania metafizyki). Okazało się jednak, że sam pozytywizm logiczny również opiera się na mnóstwie nieweryfikowalnych założeń, które są jedynie kolejną metafizyką. Przykładając miarę pozytywizmu logicznego do niego samego krytycy tego nurtu zauważyli, że program pełnego zerwania z wszelką metafizyką jest niewykonalny. Na przykład naczelna zasada tego systemu – wymóg weryfikowalności empirycznej – wymaga cichego założenia realności istnienia świata materialnego oraz jego racjonalnej, przewidywalnej struktury. Oba te założenia są czysto metafizyczne – nie można ich samych dowieść empirycznie i trzeba je po prostu przyjąć na wiarę. A z takich koncepcji chcieli właśnie oczyścić filozofię pozytywiści logiczni. Dalsze szczegółowe badania logiczne rozmaitych teorii i pojęć występujących w fizyce pokazały, że lwia część podstawowych teorii w fizyce nie jest weryfikowalna empirycznie. Jest tak nie tylko z powodów praktycznych, ale często na skutek samej konstrukcji logicznej tych teorii. Przykładem nieweryfikowalnej zasady jest na przykład zasada zachowania energii. Nie sposób bowiem w skończonej liczbie doświadczeń dowieść prawdziwości hipotezy dotyczącej wszystkich zjawisk w ogóle.
Pozytywiści poszukiwali również możliwości budowy wiedzy w ramach systemów formalnych, takich jak logika i matematyka. Ostateczny cios tym działaniom zadały prace Kurta Gödla, a zwłaszcza jego twierdzenie o niezupełności systemów aksjomatycznych zawierających arytmetykę liczb naturalnych. W ramach tych prac Gödel dowiódł, że każdy system aksjomatyczny pierwszego rzędu musi zawierać zdania niemożliwe do dowiedzenia, o ile jest niesprzeczny. Zbiór zdań generowanych (dowodzonych) przez system formalny nigdy nie będzie równy ze zbiorem zdań prawdziwych teorii. Może on być albo mniejszy od zbioru zdań prawdziwych (system niesprzeczny, ale niezupełny), albo większy od niego (system zupełny ale sprzeczny). Oznacza to, że niemożliwe jest przedstawienie zespołu wiedzy matematycznej w zamkniętej formie, w postaci zamkniętego systemu formalnego, jak chcieli tego przedstawiciele prądów pozytywistycznych.
Z czasem na „pozytywistów logicznych” spadały coraz większe ciosy i to ze strony tych obszarów, z których wcześniej spodziewali się oni akurat największego wsparcia. Jednym z tych obszarów była właśnie sama logika. Okazuje się bowiem, że ściśle logiczne dedukcje pozwalają nam jedynie wnioskować (przekazywać prawdę), ale nie dowodzić jej (ustalać prawdę). Po prostu żadna logika nie może w niezawodny sposób zwiększać treści empirycznej (pominąwszy problem, że nawet same reguły dedukcyjne nie są wcale aż takie pewne na jakie wyglądają). Jakby tego było mało to żadna skończona koniunkcja twierdzeń faktualnych nie może wystarczyć aby dowieść teorii ogólnej. W nieskończonym Wszechświecie o potencjalnie nieskończonej liczbie możliwości każda skończona ilość „dowodów” nie uprawdopodobni nawet teorii do poziomu prawdopodobieństwa większego od zera (każda skończona liczba doświadczeń podzielona przez nieskończoną liczbę nowych potencjalnych doświadczeń da w wyniku zawsze zero). Tym samym dana teoria może być pseudonaukowa nawet wtedy gdy przemawiają za nią wszystkie „fakty”. Naukowy bądź nienaukowy charakter danej teorii może być więc ustalany niezależnie od „faktów”. Zdanie może zgadzać się z faktami, choć nie istnieje niezawodny sposób na to, by to stwierdzić.
Nierozwiązywalny jest nie tylko problem dowodzenia zdań ogólnych na podstawie zdań jednostkowych ale równie nierozwiązywalny jest nawet problem dowodzenia faktualnych twierdzeń jednostkowych na podstawie innych faktualnych twierdzeń jednostkowych. Wybór zarówno takich zdań jak i teorii (spośród innych) jako „prawdziwych” oraz „dowiedzionych” może odbywać się wyłącznie arbitralnie i dokonywać się zupełnie dowolnie, na przykład w subiektywnym świecie estetycznych gustów.
Istnieje również nieprzezwyciężalny problem z ustaleniem samego statusu logicznego tak zwanych „zdań obserwacyjnych”. Twierdzenia można bowiem jedynie wyprowadzać z innych twierdzeń, ale już nie z „faktów”. Jest to jedna z podstawowych zasad elementarnej logiki i szczególny przypadek ogólnej tezy, że logiczne relacje w rodzaju logicznego prawdopodobieństwa czy niesprzeczności odnoszą się do zdań. A zatem, na przykład twierdzenie, że „przyroda jest niesprzeczna” jest zdaniem fałszywym lub po prostu bezsensownym gdyż przyroda sama w sobie nie jest przecież zdaniem ani koniunkcją zdań.
Kolejnym nieprzezwyciężalnym problemem dla pozytywistów logicznych okazało się zagadnienie tak zwanego teoretycznego obciążenia wszelkich zdań obserwacyjnych. Okazuje się bowiem, że wszystkie twierdzenia obserwacyjne są skażone, czy jak kto woli przesiąknięte jakąś teorią. Nie można niczego powiedzieć o dowolnej obserwacji bez jakiejś uprzedniej teorii presuponującej tę obserwację. Weźmy choćby takie pozornie proste i oczywiste „zdanie obserwacyjne”: „tam w rogu stoi drzewo”. Zdanie to nie ma żadnego sensu jeśli wpierw ktoś nie zdefiniuje nam czym w ogóle jest „drzewo”, odwołując się jeszcze przed obserwacją do jakiejś klasyfikacyjnej teorii z zakresu dendrologii. A zatem teoria jest zawsze przed każdą obserwacją i wyprzedza wszelką obserwację. Już nawet sam język w jakim musimy przecież wyrazić każdą obserwację zawiera terminy przesycone jakąś teorią. Ponownie weźmy pod lupę choćby takie funkcjonujące nawet w codziennym języku potocznym podstawowe pojęcia jak „czas”, „przestrzeń” i „grawitacja”. W świecie pojęć klasycznej fizyki newtonowskiej pojęcia te są czymś zupełnie innym niż w świecie pojęć fizyki einsteinowskiej. Czas jest zawsze constans u Newtona, zaś u Einsteina jest już zmienny w swej zależności od jakiegoś układu odniesienia. To samo tyczy się także innych pojęć, takich jak „masa” i tak dalej (masa jest zawsze stała u Newtona i zmienna u Einsteina, w zależności od tego jak przemieszczamy dany obiekt względem jakiegoś układu odniesienia). Jak widzimy nawet takie znane wszystkim określenia, z jakimi spotykamy się na co dzień, mogą mieć różne definicje w zależności od danego ujęcia teoretycznego. Wniosek z tego jest taki, że obciążone teoretycznie są już więc nawet najbardziej podstawowe i pozornie oczywiste terminy naszego języka, w których wyrażamy wszelkie obserwacje.
Nie istnieje więc coś takiego jak „czysta obserwacja”, a skoro ona nie istnieje to nie istnieje również jakiekolwiek kryterium pozwalające nam odróżnić zdania obserwacyjne od teoretycznych, w tym metafizycznych. Wnioski z tego są ponownie druzgocące dla poglądów wszelkiej maści „logicznych empirystów” i ateistycznych scjentystów: skoro nie da się odróżnić teorii od obserwacji, to obserwacja nie ma żadnego znaczenia. Od tej pory żaden pogląd naukowy nie tylko nie może być ustalony w świetle jakiejkolwiek obserwacji, ale nie może też być obalony w świetle jakiejkolwiek obserwacji. Obserwacja jest więc bez znaczenia i tym samym zawsze liczy się przede wszystkim teoria. Nie mamy więc żadnego dowodu na to, że nauki „empiryczne” w sposób rozstrzygający opierają się na obserwacji. Nie istnieje żadne kryterium, które pozwoliłoby odróżnić ich sądy od sądów dowolnej nieobserwacyjnej metafizyki. Wszystkie twierdzenia naukowe, zarówno te a priori jak i te a posteriori są równie teoretyczne i tym samym mogą być zawodne, będąc niczym więcej jak tylko przypuszczeniami. Mówiąc wprost – nie ma żadnych dowodów na to, że „nauki empiryczne” są w ogóle empiryczne. Z tych samych przyczyn nie ma nawet żadnych dowodów na to, że są one choćby „racjonalne”. Określenie „racjonalne” to bowiem tylko kolejny pusty termin, którego żaden scjentysta ani „racjonalista” nie jest w stanie z sukcesem zdefiniować, unikając przy tym kolistości w rozumowaniu, a co dopiero mówić o wykazaniu zasadności tego terminu (w tym również po połączeniu go z zagadnieniem nauki).
Ostatecznym gwoździem do trumny „logicznego empiryzmu” było zamordowanie zasadności wnioskowania indukcyjnego. Wnioskowanie indukcyjne jest jak wiadomo absolutnym fundamentem rozumowania dla przedstawicieli współczesnych nauk empirycznych. Okazuje się jednak, że wnioskowanie to jest po prostu błędne logicznie przy wszelkich próbach wykazania jego zasadności lub prawomocności. Wnioskowanie to zakłada bowiem bezpodstawnie, że dowolna skończona ilość obserwacji może zostać rozszerzona na nieskończoną ilość pozostałych przypadków, których jeszcze nie zaobserwowaliśmy (nieuprawniona ekstrapolacja ex post). Na przykład powiedzmy, że naukowiec X wykonując eksperyment Y przy pomocy próbówki zakłada, że wyniki tego eksperymentu będą zawsze takie same w przyszłości, w dowolnym miejscu przestrzeni i czasu, czyli po prostu w całym Wszechświecie (zakłada on tak również wstecz, do całej zaistniałej już przeszłości). Jednak każda próba uzasadnienia tego założenia musi odwołać się do tegoż właśnie założenia jako uzasadnienia dla niego samego, co jest klasycznym błędnym kołem w rozumowaniu. Wszelkie próby uzasadnienia indukcji kończyły się tylko uzasadnianiem indukcji przy pomocy indukcji i nikt nie był w stanie przezwyciężyć tego problemu ponieważ w końcu końców zawsze było to jedyne wyjście jakie pozostawało. Powszechnie przyjmuje się, że to filozof David Hume jako pierwszy wykazał wadliwość logiczną rozumowania indukcyjnego, zaś Karl Popper doprowadził po nim tę krytykę niemal do perfekcji (Poppera nazywano nawet „prześladowcą indukcji”). Nie jest to jednak do końca prawdą gdyż krytyka wnioskowania indukcyjnego pojawiała się już w zarodkowej formie wśród starożytnych sceptyków greckich (kontynuatorzy szkoły pirrońskiej, zwłaszcza Menodotos z Nikomedii). Niemniej jednak faktem pozostaje, że Hume i Popper rozwinęli krytykę tego zagadnienia do bardzo zaawansowanego i profesjonalnego poziomu, domykając ostatecznie wszelkie możliwe konkluzje w tej kwestii. Wszystkie te konkluzje były negatywne i druzgocące dla rozumowania indukcyjnego.
Wziąwszy pod uwagę całokształt wszystkich powyższych problemów epistemologicznych, „logiczny empiryzm” i pozytywizm nie miały innego wyjścia jak tylko intelektualnie zbankrutować. Myliłby się jednak ten kto uznałby, że skapitulowały one całkowicie gdyż zaczęto wysuwać różne „rozwiązania zastępcze” w miejsce szeregu problemów zasygnalizowanych powyżej. Rudolf Carnap doszedł na przykład do wniosku, że problem niemożności udowodnienia jakiejkolwiek teorii naukowej należy zastąpić zagadnieniem uprawdopodobnienia danej teorii. Nie możemy już dowieść prawdziwości żadnej koncepcji naukowej, możemy ją jednak uprawdopodobnić. Zastąpiono dowód przez prawdopodobieństwo. Takie rozwiązanie zaczęło się jawić jako bardzo atrakcyjne dla wielu zwolenników nauki więc nic dziwnego, że przywitali je z otwartymi ramionami (myślenie takie pokutuje również i dziś wśród wielu „naukowych ateistów”). Niemniej jednak Karl Popper w swej książce pt. Logika odkrycia naukowego wykazał, że wszystkie twierdzenia naukowe mają prawdopodobieństwo równe zeru, bez względu na ilość potwierdzeń. Co więcej, Popper wykazał również w swej książce, że nie tylko wszelkie teorie naukowe mają prawdopodobieństwo równe zeru, ale również wszelkie metody chcące „uwiarygodnić probabilistycznie” hipotezy naukowe również są nieprawdopodobne w świetle siebie samych. Probabilizm jest pozbawiony bazy empirycznej (sądy probabilistyczne jedynie zakładają swe podobieństwo do prawdy) i tym samym również ląduje w przegródce o nazwie „metafizyka”. Te same problemy epistemologiczne, które zrujnowały indukcjonizm, w równej mierze zdemolowały probabilizm.
Carnapowski probabilizm okazał się więc kuszącą propozycją ratowania wiarygodności twierdzeń nauki, niemniej jednak była to kolejna ślepa uliczka. Wydawało się, że sceptycyzm reprezentowany w XX wieku głównie przez filozofów nauki skupionych wokół Karla Poppera zwyciężył już bezapelacyjnie. I wtedy przyszła pomoc z najmniej oczekiwanej strony, czyli właśnie od samego Karla Poppera. To on zaproponował nowe kryterium oceny tego jak odróżnić teorię naukową od takiej, która z nauką nie ma nic wspólnego. Zaproponował słynny falsyfikacjonizm jako kryterium demarkacji, czyli koncepcję, że nie możemy już co prawda udowodnić żadnej teorii przy pomocy dowolnej ilości potwierdzeń obserwacyjnych, możemy jednak wskazać co jest naukowe przez eliminację teorii fałszywych. Naukowa okaże się tylko taka teoria, która przetrwa w świetle ogromnej ilości surowych testów obalających, w czasie gdy jej konkurentki nie przetrwają takich samych lub podobnych testów. Popper stwierdził po prostu, że naukowe są tylko te teorie, które byłyby w stanie określić jakie obserwacje, warunki lub testy obalą je. Czy to było to wyjście, na które wszyscy wielbiciele nauki czekali z utęsknieniem po całej tej nawałnicy krytyki logicznej i epistemologicznej, jaką streściłem wyżej?
Odtrąbianie sukcesu i strzelanie korkami szampanów byłoby tu jednak przedwczesne. Falsyfikacjonizm Poppera okazał się interesującą propozycją, podobnie jak wspomniana już wyżej propozycja Carnapa, niemniej jednak towarzyszyło tej propozycji równie wiele problemów co innym koncepcjom mającym za zadanie odnaleźć jakieś wiarygodne kryterium demarkacji. Przede wszystkim należy zauważyć, że falsyfikacjonizm całkowicie zrezygnował z obrony zasad mających potwierdzać daną teorię naukową. Zamiast tego falsyfikacjonizm wręcz podkreśla zawodność teorii naukowych i na tejże właśnie zawodności się koncentruje. A przecież to właśnie obserwacyjna potwierdzalność, a nie zawodność, była tym o co przede wszystkim chodziło „logicznym empirystom” i pozytywistom. Z tego co jest zawodne nie dowiadujemy się też wcale przez eliminację co jest niezawodne gdyż istnieje potencjalnie nieskończona ilość konkurujących ze sobą teorii naukowych, tłumaczących tak samo dobrze ten sam zespół obserwacji. Mówiąc inaczej – dochodzenie do prawdziwej teorii przez eliminację teorii fałszywych może trwać bez końca. W ten sposób nigdy nie dowiemy się, która teoria jest prawdziwa, nawet jeśli będziemy wiedzieli, które teorie są fałszywe. Teoria uczenia się z samych obaleń jest więc dość jednostronna i wydaje się niewystarczająca do budowania przyrostu wiedzy, która powinna być raczej wiedzą pozytywną niż wyłącznie negatywną. Wiedza o tym co jest fałszywe nie dostarcza nam raczej żadnych informacji o tym co jest prawdziwe. W ten oto sposób zwiększamy jedynie świadomość własnej ignorancji, niekoniecznie zaś wiedzy o prawdzie. Bardzo dyskusyjne jest też to, czy w ogóle można ustalić czym jest błąd, nie posiadając uprzednio teorii rozpoznawania prawdy i dochodzenia do niej, z czego Popper postanowił zrezygnować w tym punkcie, oddając się idei tropienia fałszywości. Falsyfikacjonizm wydawał się jednak popperystom na początku lepszy ponieważ od wnioskowania indukcyjnego przechodził do wnioskowania dedukcyjnego, nakierowanego co prawda na eliminację, ale pewniejszego ze swej natury. Wydawało się, że oto na horyzoncie pojawia się rozwiązanie pewnych wcześniejszych problemów.
Ale wcale tak nie było. Falsyfikacjonizm okazał się pełen dziur, niczym ser, który nawet po zjedzeniu wciąż je zawiera. Przede wszystkim nie da się uciec od wniosku, że falsyfikacjonizm popperowski powtarza te same błędy, które krytykował w indukcjonizmie. Aby bowiem jakaś obserwacja w ogóle mogła doprowadzić do obalenia danej teorii naukowej to wpierw sama musi być obserwacją pewną i wiarygodną. Jak jednak pamiętamy, Popper wykazywał, że nie istnieją wiarygodne obserwacje ponieważ albo są one obciążone teoretycznie, albo w nieskończonym świecie będzie ich zawsze zbyt mało aby dowieść czegokolwiek. Obalanie też jest przecież dowodzeniem czegoś w procesie falsyfikacji, w tym wypadku dowodzeniem błędności teorii. Ponadto jeśli popperysta uzna, że jakiś zespół obserwacji sfalsyfikował daną teorię, to w sytuacji gdy przyroda lub my sami unieważnimy już te obserwacje teoria okaże się zwycięską w świetle testów krytycznych. Możemy też zmienić lub wręcz unieważnić teorię, na której wspiera się nasza obserwacja mająca sfalsyfikować teorię główną. Wtedy nasza obserwacja falsyfikująca również zostanie unieważniona, gdyż wiemy już, że każda obserwacja nie znaczy nic bez teorii ją wspierającej. Nawet sam świat i jego „prawa” mogą nagle zmienić się na korzyść lub niekorzyść danej teorii, w tym na korzyść teorii, którą już uznaliśmy za sfalsyfikowaną.
Sfalsyfikowana teoria może więc nadal pozostawać prawdziwa (choć możemy nie być w stanie tej prawdziwości w ogóle wykazać). W dodatku obserwacje obalające daną teorię mogą też być unieważnione przez samego eksperymentatora lub obrońcę teorii. Obrońca teorii może odpierać negatywne dla niego obserwacje przez różne reinterpretacje danej obserwacji, poprawki (jak czynił to choćby Newton w swych listach do krytykującego jego teorię Flamsteeda) lub przez hipotezy wyjaśniające ad hoc, odwołujące się na przykład do jakiegoś niewykrytego jeszcze czynnika, który zakłócił pomiar w momencie gdy przyroda zdawała się wykrzykiwać swe falsyfikacyjne veto dla danej teorii. Zgodnie z tezą Duhema-Quine’a, każdą teorię można bez końca bronić przed obaleniami, dokonując odpowiednich poprawek w tak zwanej wiedzy towarzyszącej, w której ta teoria jest osadzona. Obrońca teorii może też unieważnić wszelkie próby jej falsyfikacji przez zmianę znaczeń pojęć, rozszerzenie znaczenia tych pojęć, zwiększanie lub zmniejszanie ogólności pomiarów świadczących na korzyść lub niekorzyść teorii i tak dalej. Bywały nawet przypadki, że obrońcy danej teorii przekształcali obserwacje falsyfikujące w obserwacje „potwierdzające” (jak choćby robili zwolennicy teorii Newtona). Jeszcze inne obserwacje były uznane za falsyfikacje dopiero wtedy gdy ktoś dalej rozwijał nieobserwacyjne elementy jakiejś teorii (tak było w przypadku eksperymentu Chadwicka, co do którego dopiero z czasem zorientowano się, że ów eksperyment kwestionuje prawo zachowania energii). Można też potraktować wcześniejsze obserwacje falsyfikujące daną teorię za „nieważne” w świetle nowych sprawdzianów (jak to zrobił w 1936 roku niejaki Shankland, chcący wskrzesić do życia zarzuconą wcześniej teorię Bohra-Kramersa-Slatera). Możliwości jest tu nieskończenie wiele i jak ponownie widać to teoria decyduje wpierw o tym jaki jest charakter danej obserwacji, więc jeśli zwolennicy danej teorii zechcą, to przy odrobinie elastyczności i tak zawsze obronią ją przed każdą obserwacją potencjalnie ją falsyfikującą. Jest tak właśnie dlatego, że jak już wspomniałem wyżej – teoria jest zawsze ważniejsza od obserwacji, ma przed nią pierwszeństwo i bezkompromisowo stoi ponad nią, decydując w sposób całkowicie dowolny o tym jaki charakter ma dana obserwacja. To właśnie argument samych popperystów, poniekąd bardzo słuszny, który jednak uderza rykoszetem w ich własną zasadę falsyfikacji, jako sposobu, który za pomocą obserwacji negatywnych miał za zadanie stać się kryterium odróżnienia tego co naukowe, od tego co nie jest naukowe. Na marginesie warto dodać, że Popper nigdy nie przedstawił też żadnych wskazówek co do tego jak sfalsyfikować jego własną zasadę falsyfikacji. Nie wyjaśnił też czemu ta zasada miałaby bardziej skutecznie prowadzić do prawdy niż inne zasady demarkacji w nauce. Historia nauki jest ponadto przepełniona całą masą przypadków gdy naukowcy nie porzucali teorii tylko dlatego, że przeczyły im jakieś obserwacje. Traktowali je co najwyżej jako zwykłe anomalie, w jakich nauka jest zanurzona zresztą po uszy, do których to anomalii będzie można wrócić jeszcze później, po czym odkładali temat na półkę. Weźmy choćby anomalne peryhelium Merkurego, które miało sfalsyfikować teorię newtonowską. W rzeczywistości anomalia ta była znana przez dziesięciolecia i nie falsyfikowała teorii Newtona. Nawet na przykładzie pozornie oczywistych obserwacji można ukazać, że falsyfikacja nie jest wcale takim łatwym procesem. Teza „wszystkie kruki są czarne” wydaje się prosta do sfalsyfikowania przez zaledwie jedną pozornie oczywistą obserwację kruka białego. Ale nawet taka pozornie oczywista obserwacja kruka białego może zostać zakwestionowana przez wątpliwości w rodzaju „a może tego kruka ktoś tylko pomalował?”, albo „a może ten kruk jedynie zmienił kolor pod wpływem jakiejś choroby?”.
Powyższe rozważania nieuchronnie prowadzą nas do wniosku, że nie istnieje kryterium, które pozwoliłoby odróżnić naukę od tego, co nią nie jest. Tym samym dowolna hipoteza naukowa nie posiada w swej strukturze nic, co odróżniałoby ją w jakiś znaczący sposób od dowolnego zabobonu lub systemu metafizycznego. Nie dziwi więc fakt, że mając na względzie te problemy o jakich wspomniałem wyżej Larry Laudan napisał w 1983 roku ciekawy artykuł pt. The Demise of Demarcation Problem, w którym rozpatrując zagadnienie demarkacji wyraził się jasno, że pomiędzy nauką science a dowolnymi wierzeniami kultury ludzkiej nie ma żadnej różnicy jakościowej. Artykuł wywołał dużą wrzawę i poruszenie wśród metodologów nauki i był przedrukowywany w wielu periodykach specjalistycznych oraz szeroko dyskutowany. Polecam zapoznanie się zarówno z tym artykułem jak i reakcjami na niego.
Problem polegający na odnalezieniu ostatecznej definicji „nauki” jest w zasadzie problemem teoretycznym już u samych swych podstaw. Zawsze będziemy musieli bowiem wyjść poza naukę i obserwacje aby w ogóle móc stworzyć jakiekolwiek, choćby nawet robocze kryterium tego, co jest „naukowe”. Każde kryterium jakie stworzymy zrodzi jednak od razu zapytanie o kolejne kryteria, które wpłynęły na naszą decyzję – i tak w nieskończoność. Nieuchronnie stajemy tu przed regresem ad infinitum. Nie da się zająć stanowiska zewnętrznego wobec zagadnienia definicji prawdziwej wiedzy (w tym wypadku – nauki). Tym samym problem polegający na określeniu czym nauka jest i czym nie jest na zawsze pozostanie problemem nierozstrzygalnym, nie tylko na obszarze samej nauki, ale w ogóle. Nie wspominając już nawet o kolejnej nieprzezwyciężalnej trudności polegającej na tym, że nauka nie może sama dla siebie określać kryteriów tego co jest naukowe i co nie jest, ponieważ znalazłaby się nieuchronnie w błędnym kole (żaden system wiedzy nie może oceniać siebie samego wyłącznie na mocy siebie samego – patrz choćby słynny paradoks kłamcy).
A zatem, jak po tym wszystkim co napisałem wyżej wygląda pytanie o to, czy teologia jest nauką? Sądzę, że to pytanie nie ma po prostu żadnego sensu. Równie bezsensowne jest więc też pytanie o to, czy fizyka lub biologia są nauką. Wszystkie te pytania są jednakowo bezsensowne ponieważ nikt nie jest w stanie podać jakiegokolwiek sensownego i zasadnego kryterium, przy pomocy którego moglibyśmy rozsądzić co nauką jest, a co nią nie jest. Nie ma sensu odpowiadać na pytanie „co jest lub nie jest nauką” skoro nikt nie jest w stanie wyjaśnić co termin „nauka” właściwie oznacza. Na nic zda się też odwoływanie do rzekomych praktycznych sukcesów nauki, głównie w wymiarze technologicznym, jako kryterium, które miałoby wyczerpywać znamiona pojęcia „nauka”. W ten sposób wskazujemy bowiem jedynie na technologię, która nauką nie jest. Wskazywanie z kolei na obszary, w których nauka zdaje się mieć sukcesy poza obrębem technologii, też nie jest podaniem poszukiwanego kryterium naukowości ponieważ ludzkość odnosi widzialne sukcesy również w wielu obszarach ewidentnie nieuznawanych za naukowe, takich jak sztuka, sport i tak dalej. Jedyne wyjście jakie w tym momencie pozostaje to konwencjonalizm. Możemy po prostu całkowicie arbitralnie i bez jakichkolwiek podstaw uznać, że fizyka i biologia są nauką, zaś teologia nią nie jest. To twierdzenie będzie jednak niemożliwe do zweryfikowania. Stwierdzenie przeciwne, które równie arbitralnie orzeknie, że teologia jest nauką, będzie równosilne względem stwierdzenia poprzedniego, odmawiającego teologii naukowego charakteru. Warto też na tym miejscu dodać, że jeśli arbitralnie przyjmiemy „indukcjonistyczno-empiryczną” definicję nauki jako jedynie słuszną, jak czyni to większość wojujących przy pomocy nauki ateistów, to okaże się, że nie tylko teologia nie będzie „naukowa” ale będziemy musieli odmówić statusu „naukowości” również takim gałęziom wiedzy jak historia, archeologia, prawo, ekonomia, psychologia, filozofia, socjologia i nawet matematyka, która również nie ma charakteru empirycznego. W tym punkcie bardzo wyraźnie widać jak wulgarne i zawężone jest pojmowanie charakteru nauki przez scjentycznych ateistów. W zasadzie zatrzymali się oni ze swym rozumieniem nauki na bardzo infantylnym etapie prymitywnej ideologii baconowskiej, która zapadła się pod wpływem zmasowanej krytyki logicznej i epistemologicznej, o której wspomniałem wyżej.
Na zakończenie spróbuję pokrótce odpowiedzieć na pytanie o to jaki status mają twierdzenia teologii, co obiecywałem na początku niniejszego tekstu. Moim zdaniem status twierdzeń teologicznych znajduje się gdzieś pomiędzy matematyką i filozofią. Teologia, podobnie jak matematyka, przyjmuje pewne aksjomaty od których wyprowadza dalsze wnioski prawdziwe o tyle, o ile słuszne są jej aksjomaty. Aksjomaty zaś dowodzeniu nie podlegają, nawet w matematyce. To jest to miejsce gdzie teologia jest nieco podobna do matematyki. Odróżnia ją od matematyki zaś to, że twierdzenia teologii nie są dedukcyjne, ani ścisłe, co z kolei upodabnia teologię do filozofii. Jak wspomniałem już jednak wyżej, zasadność wnioskowania dedukcyjnego jest również zagadnieniem nieco dyskusyjnym, więc brak procesu dedukcyjnego w teologii nie musi jej od razu dyskredytować. Wręcz przeciwnie, pewna elastyczność wniosków, która dzięki temu w teologii istnieje, może być bardziej jej zaletą niż wadą. Świat i przyroda nie są ścisłe, matematyczne i dedukcyjne – to tylko pewne umowne i schematyczne kalki przez jakie próbujemy sortować sobie „rzeczywistość”. Fizyka i biologia też zresztą dedukcyjne nie są, będąc raczej dużo bardziej indukcyjnymi wnioskowaniami. Jest to jednak już zagadnienie poboczne i wracając do sedna niniejszego akapitu tak właśnie na obecną chwilę widzę status twierdzeń teologii. Jak wspomniałem na początku tego tekstu, mój punkt widzenia w tej kwestii jest jednak tylko pewną hipotezą roboczą i tym samym może podlegać dalszym rewizjom w przyszłości.
Jan Lewandowski, sierpień 2017