Pułapka syntezy - o świecie, który da się zrozumieć zbyt łatwo...

Podobał Ci się artykuł? Udostępnij.
Autor
Data
Tematyka
Marcin Górzyński, CEO - Aquila Invest / Aquila Consulting / Refindi.com
01/2026
AI & Intelligence
Autor
Data
Tematyka
Loading the Elevenlabs Text to Speech AudioNative Player...

Wyobraź sobie świat, w którym każdą wątpliwość rozwiewasz jednym pytaniem do sztucznej inteligencji. Zadajesz pytanie - a ona natychmiast serwuje Ci gładką syntezę wiedzy, esencję tematu podaną w kilku klarownych zdaniach. Nie musisz przedzierać się przez opasłe tomy ani przekopywać dziesiątek stron wyników wyszukiwania. Dostajesz odpowiedź i możesz ruszać dalej. To kusząca wizja: wiedza na wyciągnięcie ręki, bez wysiłku, bez czekania. Świat, który da się zrozumieć zbyt łatwo.

Nic dziwnego, że wielu widzi w najnowszych technologiach AI początek nowej epoki - epoki wygody poznawczej. Mówi się o przełomie na miarę wynalezienia druku czy nawet o narodzinach sztucznej ogólnej inteligencji (AGI), która ma rozwiązać za nas problemy nurtujące ludzkość. Skoro inteligentne algorytmy mogą błyskawicznie streszczać książki, analizować dane z całego świata i rekomendować nam spersonalizowaną wiedzę, to czy nie oznacza to skoku cywilizacyjnego? Czy nie staniemy się dzięki nim mądrzejsi, sprawniejsi intelektualnie, bardziej świadomi? Taki jest przynajmniej dominujący entuzjastyczny ton - narracja obiecująca, że AI będzie naszym najlepszym nauczycielem, doradcą i partnerem w poznawaniu rzeczywistości.

Ale każda epoka przełomu rodzi też wątpliwości. Ten esej jest właśnie kontrapunktem dla hurraoptymizmu wokół AI. Spróbujmy spojrzeć krytycznie na tę wizję świata "rozumianego zbyt łatwo". Czy łatwo dostępna synteza wiedzy nie skrywa pewnej pułapki? Jakie ryzyko poznawcze może się wiązać z sytuacją, gdy wszystko mamy podane jak na tacy - przefiltrowane przez algorytmy, odarte z kontekstu i doświadczenia źródłowego? Zacznijmy od tego, co niewątpliwie pociąga: od wygody.

Wygoda streszczenia, urok algorytmicznej rekomendacji

Ludzkim umysłem rządzi prawo minimalnego wysiłku. Nasz mózg z natury jest trochę leniwy - unika zbędnego trudu, żeby oszczędzać energię. "Łatwiej" często podświadomie mylimy z "lepiej". Gdy pojawia się możliwość załatwienia czegoś szybciej, prostszą drogą, ciężko się oprzeć. Technologia bezbłędnie trafia w tę skłonność.

Jeszcze niedawno symbolem poznawczej wygody był Google - zamiast błądzić po bibliotece, wpisujemy parę słów i w sekundę dostajemy odpowiedź. Dziś poszliśmy o krok dalej. Dzięki modelom językowym pokroju ChatGPT czy Gemini możemy dostać nie tylko listę wyników, ale gotowe streszczenie dowolnego tematu. "Zadaj pytanie, otrzymaj dopracowaną syntezę i idź dalej - to wygląda jak bezwysiłkowa nauka", jak obrazowo ujął to jeden z badaczy nowych mediów. I rzeczywiście, tak się to odczuwa: jak magię. Zamiast czytać wielogodzinny raport o zmianach klimatu - prosimy AI o podsumowanie w pięciu punktach. Zamiast przebijać się przez instrukcję prawną - dostajemy klarowne objaśnienie "jak krowie na rowie". Oszczędność czasu i energii jest kolosalna.

Podobny komfort oferują algorytmiczne rekomendacje, które coraz częściej kuratorują naszą informacyjną codzienność. Nie musimy już samodzielnie wybierać, co przeczytać, obejrzeć czy posłuchać - inteligentne aplikacje zrobią to za nas. Spotify ułoży playlistę idealnie trafiającą w nasz gust. Netflix podsunie serial skrojony pod nasze wcześniejsze wybory. Facebook i X (dawny Twitter) zadbają, byśmy widzieli przede wszystkim te newsy i posty, które nas "zaangażują". Nawigacja GPS poprowadzi nas najwygodniejszą trasą, eliminując konieczność samodzielnego orientowania się w terenie. W każdej z tych sytuacji algorytm przejmuje na siebie wysiłek, który kiedyś spoczywał na naszych barkach: wysiłek poszukiwania, selekcji, decydowania. Nam pozostaje już tylko konsumować to, co nam podano.

To wszystko brzmi cudownie. Żyjemy w epoce licznych "ułatwiaczy życia", jak zauważają psychologowie nowych technologii. Mamy w kieszeni smartfona - uniwersalny pilot do rzeczywistości. Po co trudzić pamięć, skoro każdą informację można wygooglać? Po co uczyć się na błędach, skoro aplikacja i tak podpowie optymalne rozwiązanie? Nasz pradziad musiał mozolnie zapamiętywać fakty, adresy, trasy - my mamy "mózg w chmurze". Cyfrowy asystent zawsze gotów odpowiedzieć lub przypomnieć. Z jednej strony to spełnienie marzeń: technologia czyni nas szybszymi i efektywniejszymi.

Z drugiej strony jednak warto zapytać: czy łatwiej na pewno znaczy lepiej? W przyrodzie nic nie ma za darmo. Jeśli ciało leży bez ruchu przez długi czas, to słabną mięśnie. Podobnie może być z umysłem: mózg, który nie podejmuje wysiłku, staje się jak ciało zasiedziałe w zbyt wygodnym fotelu. Początkowo jest mu błogo - ale z czasem wstanie z fotela sprawia coraz większą trudność. Nowe technologie niewątpliwie trochę nas rozleniwiają poznawczo. Minimalizują "tarcie" w procesie zdobywania informacji - a właśnie to tarcie, ten wysiłek, bywał dotąd kluczowy dla prawdziwego zrozumienia.

Już teraz obserwujemy pierwsze skutki uboczne życia w informacyjnej wygodzie. Weźmy choćby zjawisko cyfrowej amnezji, zwane też efektem Google'a. Polega ono na tym, że kiedy wiemy, iż daną informację można w każdej chwili znaleźć online, to przestajemy ją zapamiętywać. Nasz mózg mówi: "po co to trzymać, skoro za sekundę mogę to sprawdzić w telefonie?". Badania potwierdziły, że ludzie mają dziś większe trudności z przywoływaniem faktów, numerów czy dat - za to świetnie pamiętają, gdzie można je znaleźć. Innymi słowy, przerzucamy ciężar pamięci na urządzenia. Pamiętamy adres strony zamiast treści. To niby drobna zmiana - a jednak oznacza, że coraz mniej informacji naprawdę przyswajamy na własność. Wiedza staje się czymś, do czego mamy dostęp, lecz czego nie nosimy już w głowie.

To samo może dotyczyć głębszych umiejętności myślenia. Kilka lat temu zauważono, że młode pokolenie, wychowane od dziecka z internetem, nieźle radzi sobie ze znalezieniem informacji, ale ma trudność z ich krytyczną syntezą i analizą. Teraz, gdy sztuczna inteligencja oferuje w kilka sekund gotową syntezę na dowolny temat, nawet ten ostatni wysiłek - polegający na samodzielnym przetrawieniu znalezionych wiadomości - może się okazać zbędny. Po co głowić się nad wyciągnięciem wniosków, skoro model AI zrobi to za nas? Tak rodzi się pokusa, by pozwolić algorytmom myśleć za nas. Jak pisze dr Jakub Kuś, psycholog nowych technologii, jesteśmy świadkami powstawania "pokolenia aplikacji" (AppGeneration) - młodych ludzi zależnych od cyfrowych rozwiązań w każdej codziennej czynności. Ich mózgi rozwijają się w nieco innym kierunku niż mózgi poprzedników - bo nigdy nie musiały funkcjonować bez stałego wsparcia cyfrowych narzędzi. Co to oznacza na dłuższą metę? Tego jeszcze w pełni nie wiemy. Ale już pojawiają się sygnały alarmowe, że coś istotnego może nam umykać.

Iluzja zrozumienia: gdy wiedza przychodzi zbyt łatwo

Najbardziej niepokoi nie samo ułatwienie, lecz złudzenie, które może z niego wynikać. Bo przecież kiedy dostajemy gotową odpowiedź w parę sekund, wydaje się nam, że zrozumieliśmy temat. Możemy komuś powiedzieć: "tak, wiem, czytałem o tym". Ale czy na pewno wiemy? Czy raczej tylko powierzchownie kojarzymy parę zdań streszczenia?

To trochę tak, jakbyśmy przeczytali skrócone streszczenie powieści zamiast samej powieści. Możemy streścić fabułę "Wojny i pokoju" w kilku zdaniach - ale czy to znaczy, że pojęliśmy głębię tego dzieła? Albo jakbyśmy obejrzeli trailer filmu i byli przekonani, że znamy już cały film. Takie poznanie z drugiej ręki, w formie streszczenia, niesie ryzyko iluzji kompetencji. Czujemy się obeznani z tematem, jednak nasza wiedza może być krucha, wycinkowa, pozbawiona kontekstu. Gorzej - możemy nawet nie zdawać sobie sprawy z tego, czego nie wiemy, bo nie zagłębiliśmy się na tyle, by dostrzec luki.

Naukowcy nazywają to zjawisko "iluzją głębi wyjaśnienia" - ludzie często myślą, że rozumieją coś znacznie lepiej, niż ma to miejsce w rzeczywistości. Klasyczny eksperyment: zapytano badanych, czy wiedzą, jak działa zwykły zamek w drzwiach albo spłuczka toaletowa. Większość odpowiadała: oczywiście, to proste. Wtedy poproszono, by szczegółowo opisali działanie tych mechanizmów - i nagle okazywało się, że ich rozumienie jest pełne dziur. Mieli tylko pozór wiedzy, wrażenie, że rozumieją zasadę działania, podczas gdy faktycznie ich wiedza była płytka. Sam fakt znajomości ogólnej idei (np. że przekręcamy klucz i rygiel się przesuwa) został pomylony z realnym zrozumieniem szczegółów.

W dobie internetu i AI ta iluzja może się potęgować. Szybkie sprawdzenie czegoś online daje nam natychmiastową satysfakcję poznawczą. Widzimy zgrabną odpowiedź i wydaje się, że wszystko jasne. Co więcej, psychologiczne badania dowodzą, że po skorzystaniu z wyszukiwarki ludzie przeceniają swoją wiedzę również w innych, niezwiązanych dziedzinach. Dzieje się tak dlatego, że umysł traktuje internet jak przedłużenie własnej pamięci. Jeśli zawsze mogę coś znaleźć jednym kliknięciem, zaciera mi się granica między tym, co wiem sam, a tym, co "wie" sieć. Wielkie oczytanie bez nauki - o takim stanie rzeczy przestrogi pojawiały się już dawno.

Warto tu przypomnieć pewną scenę sprzed wieków: kiedy w starożytnej Grecji wymyślono pismo, niektórzy mędrcy też bili na alarm. Platon w "Fajdrosie" wkłada w usta Socratesa słowa krytyki wobec pisma - że niby to wynalazek, który da ludziom "środek na przypominanie sobie, nie na pamięć". Uczniowie, ostrzegał mityczny król Tamos, "posiądą wielkie oczytanie bez nauki i będzie im się zdawało, że wiele umieją, a po większej części nic nie będą umieli". Innymi słowy: pismo miało dać pozór mądrości tym, którzy w istocie jej nie posiedli. Brzmi znajomo? Dziś rolę takiego "pisma na sterydach" może pełnić wszechwiedząca sztuczna inteligencja serwująca nam wiedzę w pigułce. Możemy odnieść wrażenie, że stajemy się ekspertami od wszystkiego - podczas gdy tak naprawdę ślizgamy się po powierzchni.

Ta iluzja zrozumienia jest bardzo wygodna, ale może okazać się groźna w praktyce. Przykładowo, uczeń czy student, który zamiast czytać lekturę czy opracowania naukowe korzysta wyłącznie z AI do generowania streszczeń, może wierzyć, że "ogarnia" temat. Do czasu, aż przyjdzie zmierzyć się z pytaniem bardziej podchwytliwym albo praktycznym zastosowaniem wiedzy - i okaże się, że brakuje mu podstaw, by odpowiedzieć. Maszynowy skrót nie nauczył go samodzielnego myślenia ani rozwiązywania problemów. Widział odpowiedź, ale nie widział procesu dochodzenia do niej. To trochę jak znać wynik równania bez rozumienia matematyki stojącej za rozwiązaniem.

Co więcej, istnieje ryzyko, że po otrzymaniu gotowej odpowiedzi tracimy motywację, by drążyć temat dalej. Badacze z University of Pennsylvania przeprowadzili niedawno serię testów, w których kazali ludziom uczyć się nowego zagadnienia (np. jak założyć ogródek warzywny) dwiema metodami: jedna grupa korzystała z tradycyjnego wyszukiwania informacji w sieci, a druga grupa mogła zadać pytanie ChatGPT i otrzymać gotowe objaśnienie. Rezultaty były jednoznaczne. Osoby zdające się na AI czuły, że nauczyły się mniej, pisały potem mniej szczegółowe i bardziej ogólnikowe wyjaśnienia dla innych, a niezależni odbiorcy oceniali ich wiedzę jako płytszą i mniej przydatną. Nawet gdy eksperymentatorzy upewnili się, że obie grupy dostają identyczny zestaw faktów, ci, którym fakty podała AI w formie syntezy, mieli uboższą wiedzę niż ci, którzy sami przeklikiwali się przez różne źródła i własnoręcznie wszystko zsyntetyzowali. Dlaczego? Ponieważ tradycyjne poszukiwanie informacji, choć żmudne, angażuje nasz mózg o wiele bardziej aktywnie. Trzeba czytać, selekcjonować, porównywać, łączyć kropki - słowem, wykonać pracę umysłową, która buduje prawdziwe zrozumienie. Tymczasem odpowiedź od AI podana jest na talerzu - my przyjmujemy ją biernie, bez gubienia tchu w drodze. Efekt: mniej wysiłku, mniej zapamiętane, mniej przemyślane.

Innymi słowy, umykają nam niuanse i kontekst. Algorytm często wygładza i upraszcza złożone sprawy, by dać nam klarowną odpowiedź. To rodzi iluzję, że sprawy są prostsze, niż są naprawdę. Skoro model AI potrafi streścić w jednym akapicie przyczyny konfliktu na Bliskim Wschodzie, to może uwierzymy, że konflikt ten da się łatwo rozwiązać - podczas gdy każdy, kto zgłębił historię regionu, wie, jak jest skomplikowana. Podobnie, rekomendacyjny newsfeed w mediach społecznościowych może dać nam złudne poczucie, że jesteśmy świetnie poinformowani o wydarzeniach ze świata, bo wciąż coś scrollujemy i coś nam wpada w oko. Ale czytając jedynie skrojony pod nas wycinek newsów, możemy nie widzieć pełnego obrazu. Widzimy to, co nam algorytm dobrał na podstawie naszych preferencji - a pomija to, co mogłoby nas wytrącić ze strefy komfortu poznawczego. Żyjemy więc w bańce informacyjnej, przekonani, że tak wygląda świat, bo nic innego do nas nie dociera. To również forma poznawczej iluzji: mylimy mapę (w tym wypadku spersonalizowaną mapę informacji) z terytorium rzeczywistości. A przecież mapa to nie teren. Nawet najdoskonalsza mapa jest uproszczeniem, symbolem - nie odda całej złożoności prawdziwego krajobrazu.

Algorytmy rekomendujące treści mają jeszcze jeden skutek: zamykanie nas w wąskim kręgu doświadczeń. Jeśli przez jakiś czas słuchasz jednego gatunku muzyki, aplikacja będzie podsuwać Ci w kółko podobne utwory. Jeśli czytasz tylko określony typ artykułów, wkrótce zobaczysz głównie takie. Sprzyja to powstawaniu swoistych informacyjnych tuneli, gdzie każdy porusza się po swojej rutynowej ścieżce. W efekcie możemy utknąć w monotonii intelektualnej, nie poznając niczego nowego. Algorytmiczny stróż pilnuje, by nic nas nie "znudziło" czy nie zaskoczyło - ale tym samym odbiera szansę na poszerzenie horyzontów. Przestajemy konfrontować się z odmiennymi perspektywami, tracimy otwartość na niespodzianki. A przecież często to, co wartościowe poznawczo, rodzi się właśnie z wyjścia poza bańkę, ze spotkania z czymś nieoczekiwanym, trudnym, wymagającym namysłu.

Co ciekawe, niedawno zrobiłem na sobie dość prosty, ale niepokojąco skuteczny eksperyment. Przez pewien czas zacząłem intensywnie przeglądać media społecznościowe wyłącznie pod kątem treści związanych z bronią - pistoletami, karabinami, sprzętem wojskowym - oraz tematami geopolitycznymi: Polska, Ukraina, Grenlandia, Iran, Wenezuela. Efekt pojawił się szybciej, niż się spodziewałem. W krótkim czasie niemal wszystkie platformy, z których korzystam (może poza LinkedInem - choć i tu nie do końca), zaczęły w hurtowych ilościach podsuwać mi treści o pistoletach, karabinkach, czołgach, dronach i konfliktach zbrojnych. Algorytmy bez wahania zamknęły mnie w szczelnej bańce, która stała się czymś w rodzaju informacyjnego więzienia. Co więcej, gdyby ktoś z zewnątrz spojrzał wyłącznie na mój feed, mógłby dojść do wniosku, że jestem fanatykiem broni - albo kimś znacznie bardziej niepokojącym. A przecież to była tylko chwilowa ciekawość i świadomy eksperyment. Ta sytuacja boleśnie uświadamia, jak łatwo algorytm nie tylko upraszcza nasz obraz świata, ale też konstruuje uproszczony, często fałszywy obraz nas samych.

Długofalowym skutkiem takiego stanu rzeczy może być ogólne spłycenie naszego rozumienia świata. Skoro wszystko mamy podane w formie wygodnych, strawnych porcji, to rzadziej docieramy do głębszych warstw wiedzy. Po co sięgać do źródeł, czytać kilkusetstronicowe książki, skoro mamy z nich esencjonalny wypis? Coraz mniej osób będzie mieć cierpliwość do czytania oryginalnych tekstów filozoficznych czy naukowych - wystarczy przecież, że AI streści nam główne tezy. Tylko że w ten sposób tracimy smak oryginału. Tracimy kontakt z doświadczeniem źródłowym - z pierwszymi danymi, z tekstami źródłowymi, z obserwacją na własne oczy. Zadowalamy się meta-wiedzą (wiedzą o wiedzy) zamiast wiedzy samej. A to prowadzi do pewnej wtórności naszego poznania. Wszystko wiemy z drugiej ręki, z omówień i przetrawień - a coraz mniej rzeczy bezpośrednio.

Dr Jakub Kuś zauważa trafnie: "Wiele ułatwień, do których mamy dostęp, tylko pozornie ułatwia nam życie". Daje przykład mediów społecznościowych: wpadamy w iluzję, że wiemy, co słychać u naszych znajomych, bo widzimy ich posty na Facebooku czy Instagramie. W efekcie rzadziej do nich dzwonimy czy spotykamy się - wydaje nam się, że kontakt został podtrzymany, podczas gdy w istocie znamy tylko starannie wybrane wycinki ich życia, te "ładne zdjęcia" publikowane w sieci. Prawdziwy, głęboki kontakt międzyludzki zostaje wyparty przez jego algorytmiczne ersatz'e. Podobnie może stać się z naszym kontaktem z wiedzą: zamiast bezpośredniego obcowania z tematem (np. przez własne doświadczenie eksperymentalne, wnikliwe studia literatury, rozmowy z ekspertami), mamy wygodny interfejs w postaci AI, który nam to symuluje. Otrzymujemy odpowiedzi bez zadawania sobie trudu pytań. Coś jednak może nam umknąć - coś trudnego do zdefiniowania, ale kluczowego: poczucie realnej głębi i zrozumienia.

Czy grozi nam cywilizacja płytkiej wiedzy?

Zastanówmy się teraz nad konsekwencjami szerszymi niż jednostkowe. Jeśli większość ludzi zacznie polegać na przyspieszonej syntezie wiedzy i algorytmach w codziennym poznawaniu świata, to jaki będzie to miało wpływ na naszą kulturę poznawczą? Czy ludzkość jako całość może stać się inteligentniejsza dzięki AI - czy przeciwnie, czy grozi nam poznawcze spłycenie cywilizacji?

Historia uczy, że każda automatyzacja pewnych umiejętności wiąże się z ryzykiem utraty biegłości w tychże umiejętnościach po stronie człowieka. Gdy wynaleziono kalkulator, coraz mniej osób było w stanie wykonywać w pamięci złożone obliczenia - bo po co, skoro maszyna zrobi to szybciej i bezbłędnie? Gdy spopularyzowała się nawigacja GPS, ludzie przestali zwracać uwagę na mapy i ukształtowanie terenu - bo aplikacja zawsze wskaże drogę. Badania wykazały nawet, że mózgi zawodowych taksówkarzy w epoce przed GPS miały silniej rozwinięty hipokamp (struktura odpowiadająca m.in. za orientację przestrzenną), bo ci kierowcy musieli pamięciowo opanować siatkę ulic. Dziś młodzi kierowcy polegający wyłącznie na mapach w smartfonie takich zdolności już nie rozwijają - ich mózgi działają inaczej, "wiedząc", że zadanie orientacji zewnętrznej wykonuje za nie urządzenie.

Podobne przykłady mnożą się w różnych dziedzinach. Piloci samolotów coraz częściej alarmują, że zbyt częste poleganie na autopilocie osłabia ich manualne umiejętności pilotażowe. W sytuacji awaryjnej - gdy trzeba przejąć pełną kontrolę nad maszyną - okazuje się, że odwykli od pewnych nawyków i reakcji, bo elektronika wyręcza ich w większości lotu. Doszło nawet do kilku katastrof, którym przypisywano w części ten czynnik: degradację czujności i sprawności pilota wskutek nadmiernej automatyzacji. W reakcji amerykańska FAA zaczęła zalecać pilotom, by celowo częściej wyłączali autopilota i ćwiczyli tradycyjne latanie, aby nie "zardzewieć" w swoich umiejętnościach.

W medycynie analogicznie mówi się o ryzyku utraty czujności diagnostycznej u lekarzy, którzy zaczną bezkrytycznie ufać systemom sztucznej inteligencji. Ostatnie badania w Europie pokazały, że gastroenterolodzy używający AI do wykrywania polipów w kolonoskopii po pewnym czasie sami zaczęli gorzej wykrywać zmiany, gdy AI im nie asystowała. Nazywa się to wprost efektem Google Maps - bo tak jak człowiek przyzwyczajony do GPS gubi się bez nawigacji, tak specjalista przywykły do ciągłego wsparcia algorytmu traci część własnej spostrzegawczości. Zależność osłabia samodzielność. Lekarze z tego badania przyznali, że czuli się mniej zmotywowani i skupieni, polegając na podpowiedziach AI - a gdy tych podpowiedzi nagle zabrakło, ich wyniki spadły w porównaniu do stanu sprzed wprowadzenia AI. Jak zauważył jeden z komentujących, "w istocie rutynowe korzystanie z AI przytępiło ludzkie rozpoznawanie wzorców". To, co miało być tylko pomocą, stało się protezą - a naturalne zmysły uległy częściowej atrofii.

Te przykłady uczą nas ważnej rzeczy: każde narzędzie, które myśli za nas, niesie ryzyko, że oduczymy się myśleć sami. Dziś dotyczy to konkretnych umiejętności (liczenia, nawigacji, pilotażu, diagnozy medycznej). Jutro może dotyczyć ogólnej zdolności krytycznego myślenia i analizy, jeśli zbyt mocno polegać będziemy na inteligentnych syntezatorach wiedzy. Bo czyż nie jest tak, że wiedza przyjęta bez wysiłku rodzi mniejsze zrozumienie? Gdy przestajemy kwestionować to, co podaje nam algorytm, łatwo wpaść w pułapkę błędnej pewności. Może się okazać, że całe pokolenia nauczą się szukać odpowiedzi, ale nie weryfikować ich ani nie rozumieć procesu dochodzenia do nich. Będą wiedzieć, gdzie kliknąć, by znaleźć rozwiązanie, ale nie będą pewni, co ono naprawdę znaczy. A to grozi nie tylko jednostkowym nieporozumieniem - to grozi kruchością całej naszej cywilizacyjnej wiedzy.

Wyobraźmy sobie świat, w którym badacze przestają się zagłębiać w eksperymenty, bo AI sama generuje hipotezy i podsumowuje wyniki tysięcy badań. Niby nauka przyspieszy - ale kto zagwarantuje, że AI niczego nie przeoczy lub nie spłaszczy? Jeśli wszyscy zaufamy syntetycznym przekazom, może zabraknąć tych dociekliwych dusz, które grzebią w szczegółach, dostrzegają nietypowe przypadki, kwestionują utarte wnioski. Poznanie stanie się bardziej jednolite, uśrednione - bo algorytmy, karmione big data, dążą do uogólnień i konsensusu. Tymczasem postęp często rodzi się z odstępstw od normy, z wyjątków zauważonych przez wnikliwych obserwatorów. Jeśli nikt już nie będzie patrzył na surowe dane (bo wszyscy czytają tylko ich syntezę), to kto zauważy np. nowy, dziwny symptom w medycynie, który nie pasuje do dotychczasowych chorób? Albo kto odkryje nowatorską interpretację "Wojny i pokoju", skoro wszyscy korzystają tylko z jednego streszczenia-klucza? Ryzykujemy popadnięcie w poznawczą jednolitość i stagnację.

Co więcej, kto będzie kontrolował tę wszechobecną syntetyczną wiedzę? Dziś są to wielkie korporacje technologiczne, dysponujące najbardziej zaawansowanymi modelami AI i niewyobrażalnymi ilościami danych. Korzystając bezrefleksyjnie z ich "darmowych" usług, powierzamy im de facto władze nad naszym umysłem. To ostre sformułowanie, ale pomyślmy: jeżeli codziennie karmimy się treściami selekcjonowanymi przez algorytmy jakiejś firmy, jeżeli wierzymy odpowiedziom generowanym przez ich model - to ta firma pośrednio kształtuje nasze poglądy, nasze smaki, naszą wiedzę o świecie. A algorytmy, jak zauważa dr Kuś, "żywią się emocjami internautów; im większa awantura, tym wyższe przychody". Dlatego w mediach społecznościowych promowane są treści skrajne, kontrowersyjne - bo podbijają zaangażowanie, nawet kosztem polaryzacji społecznej i ogłupienia debaty publicznej. Podobnie może być z algorytmami dostarczającymi wiedzę: mogą kłaść nacisk na to, co atrakcyjne, łatwe do przełknięcia, a unikać tego, co skomplikowane i niejednoznaczne. Nasza mądrość zbiorowa może się zdegradować, jeśli ulegniemy tej tendencji. Mądrość wymaga bowiem konfrontacji różnych perspektyw, wyjścia poza bańkę, dyskusji - a algorytm raczej utwierdza nas w tym, co już i tak myślimy (bo tak jesteśmy dłużej zadowoleni i skłonni korzystać z platformy).

W rezultacie możemy stać się, parafrazując słowa pewnego współczesnego myśliciela, "ludźmi-naleśnikami" - rozpostartymi szeroko i cienko na rozległej powierzchni informacji. Wiemy po trochu o wszystkim, ale nigdzie nie sięgamy głębiej niż na milimetr. Płasko rozsmarowana wiedza to przeciwieństwo dawnej wizji człowieka mądrego niczym dąb o głęboko sięgających korzeniach. Czy takiej płytkiej wszechstronności pragniemy dla przyszłych pokoleń?

Być może jest to cena, którą i tak warto zapłacić za wszystkie korzyści AI. W końcu nie da się ukryć, że technologia daje nam realną moc. Dzięki algorytmom optymalizujemy transport, odkrywamy nowe leki, usprawniamy miliony procesów. Boska technologia - jak trafnie powiedział nieżyjący już wybitny biolog Edward O. Wilson - wpadła w ręce istot o umysłach z epoki kamienia i instytucjach rodem ze średniowiecza. Ten dysonans między naszym biologicznym dziedzictwem a potęgą naszych narzędzi jest faktem. Wilson nazywa to połączenie "śmiertelnie niebezpiecznym". Nasze emocje i intuicje nie nadążają za eksplozją możliwości, które sami sobie zafundowaliśmy. Innymi słowy: mamy skłonność używać tych narzędzi w sposób, który nas przerasta.

Czy w przypadku wszechobecnej syntezy wiedzy przez AI również nie nadążymy? Wygoda i oszczędność czasu sprawiają, że zapewne będziemy z tych możliwości korzystać coraz powszechniej - tak jak masowo zaczęliśmy używać GPS, mediów społecznościowych czy tłumacza Google. Być może w szkołach niedługo standardem będzie, że uczniowie zamiast pisać samemu wypracowania, będą redagować odpowiedzi AI. Może w firmach analizy i raporty wstępne zawsze będzie sporządzała maszyna, a człowiek tylko rzuci na nie okiem. To scenariusze kuszące efektywnością. Ale musimy bacznie obserwować, co dzieje się z ludzkim potencjałem poznawczym. Jeśli zauważymy, że nasze mięśnie intelektu wiotczeją - pamięć słabnie, koncentracja ulatnia się po kilkunastu sekundach, zdolność myślenia krytycznego zanika - będzie to sygnał alarmowy. Być może już go słyszymy: wiele badań wskazuje na pogarszającą się zdolność głębokiego czytania i skupienia uwagi u młodszych pokoleń, ukształtowanych przez migotliwy strumień krótkich treści online. Tempo konsumpcji informacji wymuszone przez cyfrowe media przyzwyczaiło nas do pośpiechu i powierzchowności. Niecierpliwimy się, gdy coś wymaga więcej niż minuty uwagi. W takim klimacie rozkwit AI-pigułek z wiedzą jest niemal pewny - bo idealnie wpisuje się w nasz styl poznawczy. Pytanie tylko, czy to nie pogłębi jeszcze bardziej tego trendu.

Coraz częściej słychać apele, by wprowadzać świadomie "zdrowe tarcie" w korzystaniu z nowych technologii. By uczyć się korzystać z AI w sposób strategiczny: tam, gdzie faktycznie oszczędza nam to rutynowej pracy, ale jednocześnie nie pozwalać jej przejąć naszych kluczowych procesów myślowych. Być może rozwiązaniem będzie projektowanie takich narzędzi, które zamiast uzależniać nas od natychmiastowej odpowiedzi - skłonią jednak do pewnej interakcji, zadumy, sprawdzenia szczegółów. Już teraz niektórzy badacze eksperymentują z modelami AI, które podsuwają użytkownikowi źródła, linki, z których czerpią - tak by zachęcić do własnej weryfikacji. Ale i tu pojawił się ciekawy wynik: okazało się, że gdy człowiek najpierw dostanie streszczenie, to nawet mając źródła pod ręką, rzadko do nich zagląda. Słowem - gdy już czujemy się nasyceni odpowiedzią, motywacja do pogłębienia tematu drastycznie spada. Jak to ujął dr Kuś, jeśli dalej pójdziemy drogą poznawczego lenistwa, staniemy się "ludzkim dodatkiem do aplikacji" zamiast autonomicznym podmiotem. Mocne słowa, ale oddają istotę zagrożenia: dobrowolnie zredukujemy się do roli wykonawcy podszeptów maszyny.

Czy musi tak być? Na szczęście, zauważalny jest też oddolny opór wobec całkowitego zdania się na technologię. W wielu krajach zakazuje się używania smartfonów na lekcjach, aby dzieci uczyły się też analogowych umiejętności i skupienia. Wraca moda na proste ("głupie") telefony, pozbawione tysiąca rozpraszaczy. Coraz więcej ludzi świadomie odłącza się na jakiś czas od cyfrowego zgiełku - żeby przypomnieć sobie smak własnych myśli nieskażonych algorytmicznym feedem. Te zjawiska pokazują, że dostrzegamy problem i próbujemy odzyskać kontrolę.

Na koniec warto podkreślić: nie chodzi o to, by malować wyłącznie czarny scenariusz ani by potępiać z góry sztuczną inteligencję. Sam przecież jestem jej entuzjastą. Ale uważam, że jak każda potężna technologia, AI jest narzędziem i od nas zależy, jak go użyjemy. Może nas wspaniale wspomóc w rozwiązywaniu złożonych problemów, ale może też rozleniwić i ogłupić, jeśli będziemy bezrefleksyjni. Kluczowe wydaje się zachowanie równowagi między wygodą a wyzwaniem. Wygodne podsumowanie nie zastąpi własnej analizy, a rekomendacja algorytmu nie powinna być ostatnim słowem - czasem warto sprawdzić, co kryje się poza nią. Mądrość zbiorowa rośnie wtedy, gdy jednostki zadają pytania, kwestionują status quo, uczą się przez doświadczenie i błądzenie, a nie tylko konsumują gotowe odpowiedzi. Nawet najlepsza synteza nie zastąpi przeżycia intelektualnego - tego momentu olśnienia, gdy samodzielnie coś pojmujemy w pełni, po trudach i dociekaniach.

Dokąd więc zmierzamy? Czy w nadchodzących latach nasze umysły rozkwitną dzięki AI, mając wreszcie czas na kreatywne myślenie, podczas gdy maszyny odwalą mrówczą robotę selekcji informacji? A może raczej utonie nasza ciekawość i dociekliwość w potopie łatwych odpowiedzi, prowadząc do świata pozornie wszechwiedzących ignorantów? Czy cywilizacja, która wszystko rozumie zbyt łatwo, nie zatraci zdolności rozumienia czegokolwiek naprawdę? To pytania, na które odpowiedź dopiero kształtujemy - każdego dnia, podejmując z pozoru błahe decyzje: czy kliknąć "poznaj skrót", czy jednak zgłębić temat samemu. Czy chcemy urzeczywistnić pełnię naszego intelektualnego potencjału - czy wystarczy nam nosić własny mózg w chmurze wielkiej firmy?...