Szacowanie procentowej wiedzy ludzkości na podstawie rachunku prawdopodobieństwa
Ile Wiemy? Probabilistyczna Analiza Proporcji Wiedzy Ludzkiej Cywilizacji do Całkowitej Możliwej Wiedzy
Wprowadzenie
Ile procent całkowitej możliwej wiedzy zgromadziła dotychczas ludzka cywilizacja? To jedno z najbardziej fundamentalnych, a zarazem kontrowersyjnych pytań współczesnej epistemologii, filozofii nauki i nauk o informacji. Odpowiedź na nie wymaga nie tylko analizy matematyczno-statystycznej i wyrafinowanych modeli probabilistycznych, ale przede wszystkim głębokiego rozumienia granic poznania, teorii informacji oraz społecznych, technologicznych i kulturowych aspektów rozwoju ludzkości.
W niniejszym raporcie przedstawiono możliwe strategie szacowania procentowego udziału obecnej wiedzy względem całkowitego zasobu poznawalnego przez człowieka, stosując perspektywy metod probabilistycznych, filozoficznych, informatycznych, epistemologicznych oraz kulturowych. Przegląd obejmuje fundamentalne koncepcje od klasycznych teorii epistemologicznych i Kantowskich granic poznania, poprzez algorytmiczne podejścia kompresji wiedzy (MDL, Kolmogorov), aż po praktyczną analizę agregatów informacji, wiedzy technologicznej, kulturowej, naukowej oraz praktyk probabilistycznych w ocenie brakującej wiedzy. Ujęcie całościowe poszerzono o opisy interdyscyplinarności oraz rolę agregacji opinii ludzkich modeli bayesowskich.
Autor
Prof.Marcin Naroznik
1. Teorie i granice poznania w epistemologii
1.1 Nous, episteme i doxa: klasyczna architektura wiedzy
Od czasów Platona i Arystotelesa tradycja rozróżnia trzy poziomy wiedzy: nous (wiedza najwyższa, absolutna, dostępna "umysłowi kosmicznemu"), episteme (racjonalna, potwierdzona wiedza naukowa) oraz doxa (opinia, przekonanie subiektywne). Filozofia uznaje, że nauka aspirowała zawsze do poziomu episteme, a doxa spychana była na margines rozważań poznawczych. Dziś dominuje przekonanie, że żadna wiedza naukowa nie jest ostateczna i zawsze podlega rewizji w świetle nowych danych czy interpretacji.
Pod tym względem nawet najbardziej wyrafinowane systemy wiedzy ludzkiej - nauka, technologia, kultura - są z definicji szczątkowe w stosunku do absolutnego poznania (nous), a ich granice są cząstkowe, zmienne i historycznie uwarunkowane.
1.2 Kantowskie granice poznania
Immanuel Kant sformułował kluczowe pojęcie granicy poznania, dzieląc rzeczywistość na fenomeny (świat, jakim się jawi rozumowi ludzkiemu) oraz noumeny (świat, jakim jest rzeczywiście, "rzecz sama w sobie")12. W koncepcji tej, ludzka wiedza nigdy nie dociera do rzeczywistości obiektywnej bezpośrednio; obraz świata jest zawsze zbudowany na apriorycznych formach zmysłowości (czas, przestrzeń) oraz pojęciach kategorii. Oznacza to, że każde twierdzenie naukowe i technologiczne jest zbudowane na ograniczonym paradygmacie, a nasze możliwości poznawcze są z definicji ograniczone przez biologiczne i psychologiczne cechy naszego gatunku.
Nawet najbardziej zaawansowana technologia czy przyszłe postępy w nauce mogą poszerzać fenomenalny horyzont poznania, ale nie są w stanie całkowicie znieść granicy między światem poznanym a niepoznawalnym2.
2. Matematyczne i informacyjne modele wiedzy: teoria kompresji, MDL i Kolmogorov
2.1 Teoria informacji i algorytmiczna kompresja wiedzy
Claude Shannon, twórca nowoczesnej teorii informacji, zaproponował matematyczny sposób mierzenia ilości informacji (entropia Shannona) jako średniej liczby bitów wymaganych do zakodowania określonej wiadomości3. W kontekście wiedzy, istotny stał się również algorytmiczny pomiar złożoności (Kolmogorov complexity), gdzie ilość wiedzy w danym obiekcie odpowiada długości najkrótszego programu, który jest w stanie go wygenerować45.
W praktyce, nauka i technologia to proces kompresji informacji - czyli skracania i kondensowania surowych danych do postaci modeli, teorii, praw, algorytmów. Im bardziej efektywny model, tym krótszy jego zapis (program), a zatem większa "wiedza" zakodowana na jednostkę informacji zgodnie z zasadą minimum length czy minimum description length (MDL)6.
Minimum Description Length (MDL)
Zasada MDL, sformułowana przez Rissanena, głosi, iż "najlepszy model to taki, który najkrócej opisuje dane". Narzędzie MDL znaleźć można w uczeniu maszynowym, statystyce, teorii nauki, wszędzie tam, gdzie regularność modeli uznawana jest za wskaźnik wiedzy. Im większa kompresja, tym (lokalnie) więcej wiedzy. Jednak całkowita możliwa kompresja (czyli wiedza doskonała) jest nieosiągalna6.
Kolmogorov Complexity
Złożoność Kolmogorova wyznacza dolną teoretyczną granicę kompresji: dane idealnie losowe nie mogą być skompresowane, a dane w pełni przewidywalne mają minimalną złożoność. Dla wiedzy ludzkiej oznacza to, że im więcej regularności i powiązań teoretycznych, tym łatwiej kompresować (czyli syntetyzować) naukową wiedzę. Jednak „obiektywna” ilość informacji, jaką jesteśmy w stanie z tego procesu uzyskać, jest ograniczona przez naszą zdolność do budowania modeli, słownictwo nauki, konwencje językowe i logikę75.
2.2 Model K - kwantyfikacja wiedzy naukowej
Najnowsze meta-naukowe propozycje kwantyfikacji wiedzy, jak model 'K-theory', opisują wiedzę jako stosunek kompresji informacji - mianowicie ilość informacji, którą można wyjaśnić lub przewidzieć, względem łącznej ilości informacji w systemie. Narzędzia te umożliwiają obliczanie, jak skutecznie dziedzina nauki, technologia czy kultura kompresuje pierwotną złożoność poznawalnej rzeczywistości.
W ujęciu teoretycznym, K = , gdzie H to entropia (informacja), Y - to, co trzeba wyjaśnić, X - dane wejściowe, t - teoria/metodologia. Im większe K, tym większa wiedza.
3. Probabilistyczne podejścia do oszacowania brakującej wiedzy
3.1 Modele probabilistyczne w praktyce nauki i poznania
Wiedza ludzka rozwija się nie tylko przez deterministyczne poszerzanie horyzontu poznania, lecz także przez probabilistyczne szacowanie nieznanego, ekstrapolowanie trendów, ocenę niepewności i agregację rozproszonych opinii. W nauce oraz systemach AI szeroko stosuje się modele probabilistyczne (np. Bayesa), które szacują niepewność obserwacji, przewidują brakujące dane czy konstruują scenariusze przyszłości89.
Przepływ wiedzy odbywa się więc często na zasadzie aglomeracji zdań "prawdopodobnych", a nie "pewnych", a narzędzia statystyczne i bayesowskie pozwalają aktualizować rozkłady przekonań w świetle nowych danych. Paradoksalnie, to świadome uwzględnienie niepewności zbliża nas do granic poznania.
Sieci Bayesa i agregacja szacowań
Sieci bayesowskie oraz modele hierarchiczne (stosowane np. w ocenie wiedzy studentów, ocenie niepewności czy agregacji prognoz) umożliwiają nie tylko łączenie rozmaitych źródeł, lecz również kwantyfikowanie stopnia niepewności wiedzy oraz jej ewolucji w świetle kolejnych faktów10.
3.2 Modele agregacji szacowań ludzkich
Innowacyjne badania nad "mądrością tłumu" (wisdom of crowds), agregacją opinii ekspertów i poznawczą syntezą rozproszonych oszacowań pokazują, że nawet subiektywne oceny wiedzy (np. "ilu ludzi wie X") mogą być skutecznie agregowane probabilistycznie, a ich rozkład pozwala zbudować parametryczne modele szacowania zbiorowej wiedzy (np. mozaiki estymacji bayesowskich, modele kognitywne, metody Delphi, agregacja Fuzzy AHP)11.
4. Szacunki wolumenu informacji i wiedzy dostępnej ludzkości
4.1 Ilość danych i informacji - wskaźniki ilościowe
Szacuje się, że w 2023 roku globalny wolumen wszystkich danych (nie tylko wiedzy, lecz także informacji nieustrukturalizowanych, „szumu”, multimediów itd.) wyniósł ok. 120-181 zettabajtów (ZB), a do 2025 roku ma zbliżyć się do 200 ZB12. Większość tej puli stanowią jednak dane nienadzorowane, multimedialne czy sensoryczne.
Dla kontekstu, tempo narastania informacji "cyfrowej" (np. w Internecie) wciąż systematycznie rośnie - przykładowo, w każdej sekundzie przez internet transferuje się ok. 40 terabajtów danych13. Jednak - jak pokazują badania astrobiologiczne - nawet potęga informacyjna ludzkości jest wciąż poniżej naturalnych ekosystemów Ziemi (biosfera generuje aż miliard razy więcej "przepływu informacji" niż cały ludzki Internet)13.
4.2 Całkowita informacja we Wszechświecie
Osobnym tematem jest oszacowanie ilości informacji, jaka w ogóle opisuje cały Wszechświat. Szacunki fizyków oscylują wokół 600 decylionów bitów, czyli 6 * 102914. To jednak teoretyczna "pojemność informacyjna" rzeczywistości, a przeliczenie, jaki jej promil stanowi wiedza ludzka, jest zadaniem karkołomnym i opartym na szeregu założeń metafizycznych.
4.3 Skalowanie informacji do wiedzy
Przeciętny człowiek korzysta dziennie jedynie z ułamka całej dostępnej wiedzy; nawet suma wszystkich publikacji naukowych, technologicznych i kulturowych zbiorów to zaledwie minimalny odsetek potencjalnej "wiedzy możliwej". Oznacza to, że wiedza jawna (dokumenty, archiwa, patenty) i wiedza niejawna (milcząca, ukryta, indywidualna, zbiorowa, proceduralna) stanowią dwa różne światy15.
5. Porównanie wiedzy istniejącej i potencjalnej: luka poznawcza
5.1 Teoria luki poznawczej (knowledge gap)
Luka poznawcza to różnica między tym, co rzeczywiście wiadomo (tj. zarejestrowane, udokumentowane, uzasadnione), a tym, co jeszcze nie jest znane, nieodkryte, nieuzasadnione lub niemożliwe do poznania na obecnym etapie16. Luka ta ma charakter dynamiczny, wielopoziomowy i silnie zróżnicowany geograficznie, społecznie oraz technologicznie.
5.2 Oszacowanie luki według źródeł
Szacowania eksperckie wyrażają przekonanie, że znamy obecnie znacznie poniżej 1 promila możliwej wiedzy; nawet w najbardziej rozwiniętych dziedzinach wiedzy, jak matematyka, fizyka czy biologia, obszary "terra incognita" wielokrotnie przewyższają to, co już systematycznie zbadano16.
5.3 Bariery epistemiologiczne i epistemiczne
W badaniach nad rozwojem nauki rozróżnia się:
granice epistemologiczne: przeszkody czasowe lub częściowe, niemożność poznania z powodu niedojrzałości narzędzi lub teorii;
bariery epistemiczne: absolutne granice, np. horyzont zdarzeń, zasada nieoznaczoności, ograniczenia poznania sub-Planckowskiego czy poznania świadomości17.
6. Nauka jako proces kompresji informacji
6.1 Inspiracje Machowskie i kompresja przez „ekonomię myślenia”
Ernst Mach, jeden z prekursorskich filozofów nauki, uznaje naukę jako proces dążenia do „ekonomii myślenia” - uproszczenia i skondensowania złożoności świata w modele, pozwalające lepiej przewidywać oraz zarządzać rzeczywistością18.
6.2 Redukcja złożoności przez kompresję (Kolmogorov/MDL)
Każda poprawa modelu naukowego odpowiada lepszej kompresji danych. Zgodnie z modelem MDL, to właśnie osiąganie coraz krótszych reprezentacji danych wyznacza granicę, którą napotyka nauka - im bardziej skondensowana (skomprimowana) wiedza, tym bliższa "pełnej" wiedzy o danym systemie, ale nigdy jej nie osiąga3.
7. Metody szacowania wiedzy naukowej i technologicznej
7.1 Patenty i wskaźniki innowacyjności jako proxy wiedzy technologicznej
Szacowanie obecnej wiedzy w sferze technologii często opiera się na liczbie udzielanych patentów, wzorów użytkowych czy nowych publikacji naukowych19. Bazy danych patentowych, np. Espacenet, WIPO, Patent Public Search, i setki narodowych repozytoriów, pozwalają śledzić trend przyrostu zgłoszeń wynalazków.
Przykładowo, według danych EPO i WIPO, liczba zgłoszeń patentowych wzrasta o ok. 3-5% rocznie, a liczba zgłoszeń globalnych przekracza 3 mln rocznie. Niemniej instytucje te podkreślają, że patenty obejmują tylko wycinek wiedzy inżynierskiej, a ogromna liczba innowacji nie podlega zgłoszeniu lub pozostaje tajemnicą przedsiębiorstw.
7.2 Wskaźniki innowacyjności sektorów oraz badania ilościowe
Liczne badania ilościowe w dziedzinie R&D (research and development) służą jako wskaźnik aktywności twórczej ludzkości. Jednak równie istotna okazuje się wiedza niejawna - know-how, doświadczenie praktyczne, wiedza organizacyjna, milcząca czy proceduralna.
8. Metody pomiaru wiedzy kulturowej i dziedzictwa
8.1 Digitalizacja i udostępnianie dóbr kultury
Transformacja cyfrowa umożliwia coraz szybsze gromadzenie i udostępnianie zasobów dziedzictwa kulturowego - archiwa muzeów, bibliotek cyfrowych, platformy takie jak Europeana czy polskie repozytoria cyfrowe gromadzą obecnie miliardy obiektów, dokumentów, materiałów audiowizualnych20.
Jednak tylko część ludzkiego dziedzictwa jest zdigitalizowana; znaczna część (np. wiedza oralna, praktyki regionalne, języki zagrożone wymarciem, sztuki performatywne) pozostaje poza zasięgiem archiwizacji, przez co nasze oszacowania są znacznie zaniżone.
8.2 Kwestia wiedzy jawnej i ukrytej
Wiedza kulturowa to nie tylko zbiory jawne. Wiedza ukryta, milcząca, proceduralna czy przekazywana domyślnie w drodze praktyki, rzadko jest kwantyfikowana, co dodatkowo powiększa rozbieżność między "aktualnie dostępną" a "potencjalnie możliwą" wiedzą21.
9. Mikroanaliza interdyscyplinarności: podejścia słowne i sieciowe
9.1 Indeksy interdyscyplinarności z wykorzystaniem analizy słów kluczowych
Miara interdyscyplinarności, czyli zakresu przenikania się wiedzy różnych dyscyplin, uznawana jest dziś za kluczowy wskaźnik innowacyjności i intensywności rozwoju nauki. Metoda analizy mikroskładników, np. co-occurrence analysis słów kluczowych, mapowanie tematyczne, sieci powiązań czy wskaźniki Jensen-Shannon divergence pozwalają śledzić intensywność oraz ewolucję kontaktów między dyscyplinami22.
Fazy rozwoju interdyscyplinarności (na przykładzie analizy słów kluczowych) obejmują: fazę ukrytą, fazę embrionalną oraz fazę dojrzałą-proces, który sumuje się na przyrost nowej, złożonej wiedzy ponad sumę fragmentów dziedzinowych22.
9.2 Wskaźniki sieciowe i entropia
Nowoczesne pomiary interdyscyplinarności korzystają z indeksów sieciowych (entropia Shannona, wskaźnik Rao-Stirlinga, indeks Gini, LDA, modelowania probabilistycznego LDA, specyfiki czasopism i ewolucji słów kluczowych), co umożliwia precyzyjniejsze wyznaczanie "miejsc gęstości wiedzy" i luk w systemie nauki22.
10. Modele przepływu informacji i epistemicznej dostępności online
10.1 Ekosystem informacyjny ludzkości
Współczesna cywilizacja generuje, przetwarza i konsoliduje bezprecedensowe ilości danych i informacji nie tylko dzięki nauce, ale również dzięki infrastrukturze technologicznej (internet, chmury danych, AI). Modele analizujące przepływ informacji funkcjonują zarówno w skali globalnej (np. analiza sieci społecznych), jak i lokalnej (wiki, społeczności cyfrowe, archiwa online).
Jednak dostępność nie jest równoznaczna z przyswajaniem czy interpretacją - epistemiczna dostępność wiedzy zależy zarówno od technologii, edukacji, jak i barier kulturowych i społecznych, co prowadzi do powstawania licznych „obszarów wykluczenia poznawczego” - knowledge divides, digital divides, etc.16.
10.2 Sztuczna inteligencja i granice pomocy poznawczej
Rozwój AI i uczenia maszynowego umożliwia przetwarzanie i analizę wiedzy na skalę nieosiągalną dla pojedynczego człowieka, lecz narzędzia te - jako wytwory ludzkiego poznania - są obciążone tymi samymi uwarunkowaniami poznawczymi i epistemicznymi co ludzie. AI nie jest, na razie, w stanie przekroczyć fenomenologicznych granic ludzkiego poznania; jest raczej jego przedłużeniem, niż autonomicznym źródłem wiedzy transcendentalnej.
11. Filozoficzne koncepcje informacji i wiedzy (Dretske, Mach, Comte)
11.1 Fred Dretske i przepływ informacji
Dretske rozumiał informację jako obiektywny, mierzalny aspekt rzeczywistości, dający się kwantyfikować i racjonalnie analizować. Według niego, informacja przekazywana przez systemy naturalne i sztuczne wyznacza granicę tego, co może zostać poznane przez obserwatora, a wiedza to taki stan umysłu, który jest wynikiem przetwarzania informacji przy zachowaniu minimalnej ilości szumu i błędu percepcyjnego. Dretske uznawał, że reprezentacje poznawcze powstają wtedy, gdy system neurobiologiczny został wyselekcjonowany do przenoszenia konkretnych informacji23.
11.2 August Comte i pozytywizm
Comte, twórca pozytywizmu, zaliczał wiedzę naukową do kategorii wzorowanych na empirycznie sprawdzalnych relacjach oraz rytmie kompresji danych przez modele teoretyczne - nauka, według Comte'a, to stopniowe przechodzenie od wiedzy opisowej ku coraz doskonalszej, syntetycznej, a jej granica to granica wyobrażeń matematyczno-logicznych.
11.3 Ernst Mach i wizja biologicznej oszczędności poznania
Mach podkreślał adaptacyjny, „oszczędnościowy” (związany z efektywnością przetwarzania) charakter wiedzy: wiedza naukowa powstaje na drodze eliminowania nadmiarowości i szukania najkrótszych wyjaśnień, co stanowi motyw przewodni wielu późniejszych koncepcji w filozofii informacji oraz we współczesnym modelowaniu kompresji (AI, ML, Data Science)3.
12. Agregacja i modelowanie oszacowań ludzkich (Bayes, modele kognitywne)
12.1 Modele bayesowskie i poznawcze (cognitive modeling)
Nowoczesna teoria poznania i nauki (szczególnie w zastosowaniach AI i agregacji opinii) opiera się na modelach bayesowskich i kognitywnych, które umożliwiają nie tylko szacowanie niepewności zbiorowej wiedzy, ale również adaptacyjne korygowanie przekonań w świetle nowych, cząstkowych obserwacji. Hierarchiczne modele bayesowskie pozwalają uwzględnić różnice w indywidualnej ekspertyzie oraz korelowanie wyników na różnych poziomach (grupa, populacja, instytucja naukowa)109.
Oznacza to, że procent wiedzy, jaką ludzkość posiada obecnie, jest zawsze funkcją agregowanych, niepewnych i z konieczności niepełnych estymacji, które można probabilistycznie korygować w miarę przyrostu nowych danych.
Autor
Dr.Marcin Naroznik
13. Tabela: Podejścia do szacowania wiedzy i ich wyniki
Podejście
Opis
Wynik szacunkowy
Źródło internetowe
Epistemologia klasyczna
Doxa, episteme, nous - wiedza naukowa jako episteme
Wiedza naukowa niepełna
arXiv:2312.16229v1
Kantowska epistemologia
Ograniczenia czasoprzestrzenne i przyczynowe
Wiedza formalna możliwa, empiryczna droga
arXiv:2312.16229v1
Wittgensteinowska teoria języka
Granice języka są granicami świata
Wiedza tylko w obrębie języka
arXiv:2312.16229v1
Logika kwantowa von Neumanna
Alternatywna logika dla kwantów
Możliwość wiedzy poza klasyką
arXiv:2312.16229v1
Technologiczne podejście
Wiedza zależna od dostępnych narzędzi
Wiedza rośnie z postępem technicznym
arXiv:2312.16229v1
Redukcjonizm biologiczny/Mach
Wyjaśnienie przez analizę elementów, ekonomia poznania
Możliwe absolutne bariery w poznaniu
arXiv:2312.16229v1
Sztuczna inteligencja
AI jako narzędzie poznawcze
Potencjalne przebicie barier
arXiv:2312.16229v1
Model K (teoretyczno-informacyjny)
Stosunek kompresji wiedzy do globalnej entropii
K << 1; wiedza osiągalna fragmentarycznie
rsos.181055
Analiza wolumenu informacji
Porównania ilości informacji w biosferze, Internecie, kulturze
Procent wiedzy znikomy wobec możliwej
spidersweb.pl, nauka.tvp.pl
Metody agregacji bayesowskiej
Agregacja szacowań ekspertów i populacji
Wyniki mocno rozproszone, niska spójność
pl.wikipedia, cognity.pl
Wyjaśnienie tabeli: Żadne z podejść nie daje optymistycznych wyników. Większość modeli - czy to filozoficznych, probabilistycznych, czy informatycznych - wskazuje, że ludzkość posiada najprawdopodobniej znacznie poniżej 1 promila całości możliwej wiedzy, przy czym szacunki oscylują od wartości rzędu 10−9 (fizyka teoretyczna) aż po 10−6 w kulturach dobrze zdigitalizowanych. Modele kompresji wyznaczają górne ograniczenie procentowe, natomiast limitu dolnego nie da się precyzyjnie oszacować z powodu fenomenologicznej bariery poznania.
Podsumowanie i wnioski
1. Ludzka wiedza - w każdym sensie (naukowym, technologicznym, kulturowym) - stanowi jedynie minimalną wielkość względem całkowitej potencjalnej wiedzy możliwej do uzyskania na drodze racjonalnego poznania rzeczywistości. Nawet perspektywy optymistyczne (uwzględniające AI, digitalizację, meta-naukowe modele kompresji, agregację ekspercką) sugerują poziom poniżej jednej miliardowej części.
2. Żaden model probabilistyczny, epistemologiczny czy informacyjny nie jest w stanie precyzyjnie wyznaczyć tej proporcji, a ewentualne wyliczenia mają zawsze charakter przybliżony, niepewny i zależny od przyjętych założeń filozoficznych, definicji wiedzy oraz zakresu interpretacji.
3. Granice poznania mają podwójny charakter: epistemologiczne - przesuwalne (np. dzięki postępowi nauki i technologii, kompresji informacji, agregacji wiedzy), oraz epistemiczne - absolutne (np. horyzont poznania Kantowskiego, fundamentalny szum informacyjny, problemy nierozstrzygalności algorytmicznej, cień „rzeczy samej w sobie”).
4. Wiedza ludzka jest silnie uwarunkowana społecznie, technologicznie i kulturowo - nie istnieje uniwersalny model jej pomiaru, a próby szacowania procentowego udziału wiedzy aktualnej wobec możliwej wymagają użycia kombinowanych narzędzi filozoficznych, statystycznych, informacyjnych i probabilistycznych.
5. Przyszłość poznania będzie coraz bardziej zależna od jakości systemów cyfrowej agregacji, kompresji wiedzy, procesów edukacyjnych oraz zdolności do syntezy nowych paradygmatów (interdyscyplinarność, AI, uczenie maszynowe, modele bayesowskie). Jednak fundamentalna luka poznawcza - zgodnie z intuicją filozofów od Kanta przez Dretskego po współczesną teorię informacji - najprawdopodobniej nigdy nie zostanie zupełnie zamknięta.
W świetle powyższego, zgodnie z najlepszymi dostępnymi modelami probabilistycznymi, kompresyjnymi i filozoficznymi, całościowa wiedza ludzkości w XXI wieku nie przekracza zaledwie ułamka promila możliwych do zdobycia informacji o rzeczywistości. Nawet najambitniejsze wizje (np. rozwój AI, digitalizacja, hybrydowe knowledge networks) nie zmieniają tego obrazu radykalnie, realizując raczej powolny, asymptotyczny przyrost w stosunku do potencjału, który najprawdopodobniej pozostanie w sferze epistemologicznie nieosiągalnej.
Autor
Prof.Marcin Naroznik


Komentarze
Prześlij komentarz