Medycyna (el)
- Autor: ANNA LESZKOWSKA
- Odsłon: 3647
Wrocławskie Centrum Badań EIT+, we współpracy z Oddziałem Analityki Medycznej Wydziału Farmacji Uniwersytetu Medycznego we Wrocławiu, uruchomiło 18 października 2012 pierwszy na terenie Dolnego Śląska biobank.
Tego rodzaju placówki mamy w Polsce, poza wrocławską, tylko dwie: w Szczecinie oraz Gdańsku - gromadzi się w nich próbki pobrane przede wszystkim od chorych na nowotwory. Biobank wrocławski będzie tworzyć zbiór próbek biologicznych pomocnych w badaniach schorzeń sercowo-naczyniowych (częstszych w naszej części Europy) i autoimmunologicznych, aby znaleźć odpowiedź na pytanie: czy są określone czynniki genetyczne lub środowiskowe, które warunkują zwiększoną zapadalność na takie choroby? Powinien też przyczynić się do powstania skuteczniejszych metod diagnostycznych i terapeutycznych w poważnych i trudnych w leczeniu chorobach autoimmunologicznych – m. in. tocznia, reumatoidalnego i łuszczycowego zapalenia stawów, twardziny czy zespołu Takayasu. To schorzenia ciągle mało poznane, zatem zebranie i badanie materiału biologicznego może się przysłużyć do ich rozwikłania, opracowania nowych, skutecznych metod terapii.
- Biobank jest placówką, gdzie zarówno pacjenci przebywający w szpitalach, cierpiący na konkretne jednostki chorobowe, jak i osoby zdrowe, które zamieszkują nasz region, mogą oddać próbkę krwi do badań naukowych. Z tej próbki następnie izoluje się m. in. DNA, RNA, surowicę czy osocze. Wszystko po to, aby zgromadzić
jak największą pulę materiału biologicznego. Posłuży on w przyszłości naukowcom do badań nad nowymi biomarkerami schorzeń rzadkich, bądź też chorób cywilizacyjnych. Chcę, aby każdy był świadomy, że im większa ilość zgromadzonego w biobanku materiału biologicznego, tym lepsza jakość prowadzonych badań naukowych – mówi dr Łukasz Kozera*, pomysłodawca i kierownik wrocławskiego biobanku.
Czym jest biobankowanie?
Biobankowanie polega na gromadzeniu materiału biologicznego zarówno od osób zdrowych, jak i pacjentów cierpiących na określone schorzenia. Robi się to, po to, aby wspierać badania naukowe, mające na celu polepszenie diagnostyki i terapii wielu chorób. Biobank stanowi swoisty rezerwuar próbek biologicznych. Jest pomostem między ośrodkiem prowadzącym diagnostykę i leczenie, a zespołami naukowymi pracującymi w celu skuteczniejszego wykrywania i leczenia wielu chorób.
Biobankowanie jest również sposobem na poprawę zdrowia przyszłych pokoleń. Tak, jak oddając krew, czy szpik kostny można uratować komuś życie, tak tutaj, oddając krew do badań naukowych, przyspiesza się postęp w tworzeniu nowych leków i sposobów leczenia w przyszłości.
Biobanki są zatem niezbędne dla rozwoju nauk medycznych. Ten projekt ma za zadanie zbadanie wielotysięcznej populacji mieszkańców Dolnego Śląska. Gdyby prowadzono go innym sposobem, badania zajęłyby kilka lat i byłyby bardzo kosztowne. Dzięki kolekcji próbek biologicznych w biobanku, będzie można materiał ten użyczać naukowcom do prowadzonych badań medycznych.
Problemy etyczno-prawne
Na konferencji biobanków w Londynie w 2011 roku zapytano, czy biobankowanie jest etyczne. Jeden z kierowników biobanku zadał inne pytanie: czy etyczne byłoby nieprzechowywanie próbek w biobankach w momencie, kiedy mamy dostęp do pacjentów cierpiących na określone choroby, którzy wymagają lepszej diagnostyki i skuteczniejszej terapii? To właśnie dzięki istnieniu biobanków mamy szanse prowadzić projekty badawcze, które zrewolucjonizują w przyszłości metody leczenia chorych.
Kwestiami nadrzędnymi jest wprowadzenie zasad bezpieczeństwa korzystania z zasobów biobanku. Powołany w 2011 roku ministerialny Zespół do Spraw Molekularnych Badań Genetycznych i Biobankowania pracuje nad ustawą regulującą funkcjonowanie biobanków na terenie Polski. Na razie wrocławski biobank stosuje się do wytycznych OECD oraz regulacji ISBER (International Society for Biological and Enviromental Repositories).
Biobankowanie nie jest jednak wolne od pewnych zagrożeń. Największą obawą jest to, że dane pacjenta dotyczące np. ryzyka zachorowania na pewną chorobę mogą w jakiś sposób dostać się w niepowołane ręce. Dlatego też obowiązkiem biobanku jest wprowadzenie najlepszych systemów informatycznych zapewniających właściwe przechowywanie, przetwarzanie danych osobowych i medycznych. Dodatkowo udział w tego rodzaju projektach powinien być anonimowy i bezpieczny.
- Każda osoba, która zdeponowała swój materiał biologiczny w biobanku powinna być spokojna o swoją anonimowość. Do danych pacjenta nie powinien mieć dostępu nikt poza wybranymi osobami z biobanku. Należy zachować maksymalną anonimowość, jeżeli chodzi o pacjentów po to, aby mogli czuć się w pełni bezpiecznie. Natomiast naukowcy chcąc skorzystać z zasobów powinni otrzymać próbkę materiału biologicznego opatrzoną jedynie kodem kreskowym lub kodem typu 2D – informuje dr Kozera.
* Dr Łukasz Kozera, jest absolwentem wydziału biotechnologii i analityki medycznej. W latach 2005-2008 odbył studia doktoranckie w Instytucie Badań Sercowo-Naczyniowych, na Wydziale Medycyny Uniwersytetu w Leeds. Po ich ukończeniu pracował w Klinice Reumatologii Instytutu Medycyny Molekularnej (Leeds), gdzie kierował bankiem tkanek oraz programem wykrywania nowoczesnych biomarkerów schorzeń reumatoidalnych. Od września 2011 roku pracuje nad projektem Biobank we Wrocławskim Centrum Badań EIT+.
- Autor: Anna Leszkowska
- Odsłon: 1879
O tomografii optycznej, nowym sposobie na raka, trudach wdrożeń i nauce z prof. Markiem Godlewskim z Instytutu Fizyki PAN rozmawia Anna Leszkowska
- Panie Profesorze, jest pan szefem grupy badawczej zajmującej się poszukiwaniem znaczników do wczesnej detekcji nowotworów metodą optyczną. Rodzi to pytanie, co fizycy mogą wnieść do leczenia onkologicznego? Instrumentarium na pewno, ale nowe metody leczenia to przecież bardziej dziedzina lekarzy i biologów…
- Samych leków my oczywiście nie opracujemy, ale już takie metody diagnostyki i leczenia, w których wykorzystuje się np. promieniowanie – tak. W tej chwili np. prowadzi się testy leczenia nowotworów przy użyciu promieniowania synchrotronowego, gdzie jest duże pole dla fizyki.
Wszystkie nowoczesne metody stosowane obecnie w medycynie –tomografie, lasery – to już jest czysta fizyka. Lasery stosuje się w chirurgii, także onkologicznej, gdyż umożliwiają bezkrwawe operacje, znakomicie się też sprawdzają w diagnostyce np. czerniaka – nowotworu skóry, który – niewykryty dostatecznie wcześnie - uchodzi za trudny do leczenia. Czerniaka można łatwo wykryć we wczesnym stadium niedrogim laserem (na bazie związków azotu), w który winien być wyposażony każdy lekarz pierwszego kontaktu.
- Optyczną metodę w wykrywaniu czerniaka próbowała wprowadzić w początkach lat 90. prof. Barbara Chwirot z UMK (na świecie próbuje się rozwijać ten kierunek badań od ponad 30 lat), jednak niewiele z tego wyszło…
Podobnie jak ze szczepionki na czerniaka, nad którą pracował prof. Andrzej Mackiewicz z Poznania, która od 25 lat wciąż jest w fazie eksperymentu…
- Byłem wówczas sekretarzem dużego programu niebieskiej optoelektroniki, więc pamiętam wniosek dotyczący wykorzystania lasera do diagnostyki czerniaka. Niestety, nie dostał dofinansowania, a dzisiaj tę metodę stosuje się powszechnie i w diagnostyce, i w leczeniu np. w Niemczech. Dla mnie takim przykrym doświadczeniem niewykorzystania wynalazku naukowego w polskiej medycynie jest los metody fotodynamicznej autorstwa prof. Alfredy Graczyk z WAT. Byliśmy wówczas w światowej czołówce, jeśli chodzi o tę metodę diagnostyki i leczenia nowotworów także z uwagi na nową klasę fotouczulaczy, jakie opracowała prof. Graczyk. Ta szansa została zmarnowana, choć metoda prof. Graczyk jest dzisiaj stosowana w niektórych szpitalach w Polsce, ale z drogimi amerykańskimi fotouczulaczami, bo polskich nie miał kto produkować.
- W popularyzacji nowych metod popełniamy jednak zwykle błąd nadmiernego optymizmu. Wydaje nam się, że znaleźliśmy sposób łatwy, tani i szybki na pokonanie ciężkiej choroby, a tu – im dalej w las, tym więcej drzew…
- Nie ma cudownych metod, ani lekarstw. Praktycznie co chwilę ukazują się doniesienia medialne o odkryciu kolejnego sposobu zwalczającego raka czy innej ciężkiej choroby, tymczasem od wynalezienia na daną chorobę testu, potem diagnostyki – do leczenia droga daleka. Niekiedy nowa metoda niezupełnie się sprawdziła, choć środowisko wynalazców obiecywało złote góry. Potrzeba tu więcej pokory, wątpliwości, czy właśnie zbawimy tym nowym odkryciem ludzkość. Oczywiście to nie jest też tak, że nie ma nowych metod, które by się nie sprawdziły. Są takie, ale to, że nie spowodowały one np. w onkologii przełomu, pokazuje jak trudnym przeciwnikiem jest rak, choroby nowotworowe. Mamy tu do czynienia bowiem z ponad 100 typami guzów, bardzo dynamicznie zmieniającymi się i musimy zaakceptować to, że droga od pomysłu do przełomu w leczeniu jest długa.
- Zwłaszcza, że leczenie onkologiczne w dużym stopniu jest objawowe, nie znamy dobrze przyczyn powstawania raka…
- Dzisiaj standardową metodą leczenia raka jest chemioterapia i tu mamy ogromy problem, bo okazuje się, że tylko ok. 2% związku chemicznego stosowanego w danym leczeniu dociera do zaatakowanego chorobą obszaru. Jest to związek toksyczny, zatem po drodze niszczy mnóstwo komórek i tkanek zdrowych – jak zatem dobrać dawkę? Otóż dobiera się ją tak, aby pacjenta nie zabić i stosuje przerwy w leczeniu w przypadku dużego spustoszenia organizmu przez lek. Jeżeli więc udałoby się opracować metodę zwiększającą stężenie podawanego leku w guzie, byłby to przełom, choć w dalszym ciągu jeszcze nie taki, jakiego oczekiwaliby chorzy.
- Pana zespół pracuje w obszarze nanotechnologii, która w przypadku metod leczniczych budzi kontrowersje z uwagi na niezbadany wpływ nanocząstek na organizm człowieka. Czy w przypadku tworzenia nowych leków na raka ten aspekt można pominąć z uwagi na większe zagrożenie, jakie stwarza nowotwór?
- Nie ukrywamy, że nanocząstki mogą być niebezpieczne i mamy świadomość, że stąpamy po niepewnym i kruchym lodzie - powstała nawet nanotoksykologia. Ale zawsze na początku jest zachwyt, że mamy nowy obszar technologii, umiemy robić tak małe obiekty, potem następuje otrzeźwienie: sprawdźmy jak to działa. Wiemy już, że tak małe cząstki pokonują większość barier w naszym organizmie, co jest pewną nadzieją, ale też jest czymś groźnym. Z naszych badań wynika bowiem, że nanocząstki przechodzą między innymi barierę krew-mózg i penetrują większość naszych organów. I trzeba sobie odpowiedzieć na pytanie: czy ich obecność w tych organach jest groźna czy nie? Już raz przeżyliśmy horror cudownego materiału izolacyjnego – azbestu, który wydawał się materiałem bez wad. Po latach okazało się, że wywołuje nowotwory płuc. Nanorurki węglowe nagrodzone Noblem też wydawały się materiałem bez wad.
- Wystarczy przypomnieć euforię w społeczeństwach, kiedy Maria Skłodowska-Curie odkryła rad. Każdy chciał mieć grudkę świecącej rudy, która miała zapewnić zdrowie…
- Nawet produkowano pasty do zębów ze związkami promieniotwórczymi, żeby mieć ładny uśmiech… Niestety, świadomość tego, że nowe może być groźne przyszła po czasie. W tej chwili dane amerykańskie mówią o tym, że metody tomografii rentgenowskiej, które weszły obecnie do diagnostyki to tykająca bomba. Dostajemy bowiem potężne dawki promieniowania, które może powodować mutacje genów. Zatem kilka procent nowotworów to skutki badań diagnostycznych w kierunku wykrywania tej choroby. Ale coś za coś.
- Wydaje się, że ta „ostrożnościowa” wiedza w przypadku badań, jakie prowadzi pana zespół jest brana pod uwagę w ograniczonym, nanotechnologicznym zakresie. Zajmują się państwo bowiem także metodami optycznymi do wykrywania raka, które są dość dobrze poznane i wydają całkowicie bezpieczne.
- Idziemy w tym samym kierunku, w jakim przetarła szlaki prof. Graczyk, tyle że w diagnostyce zmian rakowych stosujemy inne związki do diagnostyki i inaczej wykrywamy ich koncentrację w guzach. Robimy cząstki tlenków (cynku i cyrkonu) submikronowej wielkości, o rozmiarach kilkudziesięciu nanometrów, które mają tę właściwość, że są wychwytywane przez tkanki nowotworowe. Żeby jednak ten proces zobaczyć, musimy domieszkować cząsteczkę lub do takiej cząsteczki (matrycy) przyczepić cząsteczkę porfiryny(związku fotouczulającego), która ma tę właściwość, że pobudzona światłem świeci. Dzięki temu możemy zobaczyć, gdzie jest guz i jak jest duży. W tym drugim przypadku jest to też rozwinięcie fotodynamicznej diagnostyki i terapii nowotworów, możliwość zastosowania jej do wszystkich typów nowotworów, nie tylko tych położonych blisko powierzchni skóry. W tym kierunku idzie wiele grup badawczych na świecie. To są badania multidyscyplinarne – mamy w zespole fizyków, chemika, biologów, lekarzy weterynarii (badania prowadzone są na zwierzętach laboratoryjnych). Wiadomo bowiem, że fizycy nie zbadają np. mechanizmów wprowadzania leku do organizmu.
- Ale mogą zaproponować nowy, lepszy sposób wykrywania nowotworu, mniej traumatycznej metody diagnostycznej…
- Urokiem nauki jest odkrywanie czegoś nowego – w naszym przypadku był to inny sposób podawania znacznika – nie poprzez krew, ale doustnie, czyli w sposób bardziej bezpieczny, gdyż można wówczas lepiej kontrolować jego stężenie i minimalizować zagrożenia. Wykorzystaliśmy też do stworzenia nowej metody słabość nowotworów, czyli ich szybki rozrost i związaną z tym nieszczelną błonę komórkową, przez którą z łatwością mogą przechodzić „nasze” cząstki. Tkanka nowotworowa nie ma też dobrze wykształconych naczyń limfatycznych, zatem nie może szybko usunąć podanych związków. Z tego powodu „nasze” cząstki mogą się w guzie zakumulować - odwrotnie niż w zdrowych tkankach, gdzie są traktowane jako obce i usuwane. Metoda zatem jest selektywna i uniwersalna.
Kolejnym krokiem było poszukiwanie innej metody detekcji – „nasze” cząstki można stosować jako kontrast w rezonansie magnetycznym. Dzisiaj do tego typu badań używa się związków neurotoksycznego gadolinu. W przypadku badań rzadko wykonywanych – ta toksyczność nie jest istotna, natomiast podczas cyklicznych badań w trakcie leczenia nowotworów – jest to problem. Nasz znacznik nie jest tak dobry jak związki gadolinu, niemniej pracujemy nad jego udoskonaleniem i dzisiaj ta różnica jest już niewielka.
- Stosują państwo w tych badaniach zupełną nowość na polskim rynku – tomograf (mammograf optyczny) do wykrywania raka piersi metodą optyczną. To bezbolesna i bardzo skuteczna metoda w odróżnieniu od powszechnie stosowanej mammografii, która w dodatku nie daje 100% pewności obecności guza nowotworowego.
- Na świecie takie urządzenia są używane, dlaczego nie w Polsce – nie wiem. Zwłaszcza, że rak piersi jest w Polsce drugim, po nowotworze płuc, jeśli chodzi o częstość zgonów. W jego diagnostyce stosuje się metodę już przestarzałą, czyli szkodliwe prześwietlenie rentgenowskie. Tymczasem w metodzie optycznej badanie jest bezpieczne, bo światło czerwone, które łatwo penetruje organizm jest pochłaniane przez hemoglobinę i tam, gdzie jest guz opleciony wieloma naczyniami krwionośnymi powstaje kontrast. Skuteczność tej prostej metody jest identyczna jak prześwietlenia rentgenowskiego czy rezonansu magnetycznego, co potwierdzono licznymi badaniami. Co więcej – metodą tą można łatwo i szybko rozróżnić guzy złośliwe od cysty. Czułość tej metody powinna się dodatkowo zwiększyć po zastosowaniu opracowanych przez nas znaczników poprawiających kontrast.
- Czy taki stół do mammografii optycznej to skomplikowane i drogie urządzenie?
- Ależ skąd! To urządzenie w stosunku do urządzenia mammograficznego jest tanie – to jest stół z dwoma wgłębieniami na piersi, naszpikowanymi wieloma czerwonymi diodami i detektorami. Światło z diod przenika do tkanki piersi na głębokość kilku centymetrów i dokładnie widać, gdzie i jaki jest guz (komputer robi obraz trójwymiarowy). Jeśli pacjentce podamy wcześniej znacznik – czułość tego badania jeszcze bardziej wzrośnie, choć nawet bez niego można dokładnie obserwować zmiany chorobowe. W przypadku wykrycia guza robi się dodatkowo biopsję, ale nie tę klasyczną, która jest niebezpieczna, bo zwiększa szanse przerzutów, ale optyczną. Polega ona na wprowadzeniu do organizmu cienkiego światłowodu umożliwiającego bezpośrednią obserwację obszaru zmiany chorobowej. Ta metoda i takie urządzenie to na świecie już standard.
- Wynika z tego, że choć w Polsce optoelektronika cieszy się sporym poważaniem, to metody optyczne w medycynie nie są znane. O mammografii optycznej znalazłam w sieci jedną pracę naukową*…
- Spotykam się z opiniami lekarzy o tym, że polska onkologia umiera i to za sprawą kolejno wprowadzanych nowych przepisów. Może i bardzo dobrych, tyle że zarówno finansowo jak i kadrowo polska onkologia nie jest do nich przygotowana, skoro onkolog może przeznaczyć na wizytę pacjenta jedynie trzy minuty… Nie ma tu czasu ani na rozmowę, ani diagnozę, ani na pocieszenie, a tym bardziej na śledzenie badań naukowych.
- Jakie pan widzi możliwości zastosowania w polskiej służbie zdrowia tej metody?
- Odpowiem nie wprost. Dostałem ostatnio zaproszenie na targi innowacji w USA, gdzie zapowiedziało się ok. tysiąca innowatorów oraz aniołowie biznesu dysponujący finansami w wysokości ok. 25 mld dolarów. To pokazuje, jakie istnieją tam szanse na przejście z etapu projektów badawczych do wdrożeń. Inna sprawa, że zdarzają się przypadki, kiedy wykupuje się dobry pomysł nie po to, żeby go rozwijać, ale sprzedać za granicę. Albo przejada się pieniądze na płace zarządzających zamiast finansować rozwój. W ten sposób nigdy nie będziemy mieć żadnej własnej marki.
- To widać po polskim grafenie, niebieskim laserze, azotku galu i metodzie prof. Graczyk, a pewnie znalazłoby się jeszcze kilka przykładów straconych szans…
- Weźmy nasz przykład: przeszliśmy do badań w miarę szeroko robionych na zwierzętach. Do momentu, żeby powstała fabryka produkująca znaczniki na cały świat – droga jest jeszcze daleka. Kiedy rozmawiam z potencjalnym inwestorem, to on prosi mnie o biznesplan i określenie skali produkcji. Ja mogę mu powiedzieć, że skoro rocznie umiera na raka ponad 8 mln ludzi na świecie, to dzięki na przykład naszej metodzie możemy uratować nawet połowę z nich, czyli to rozwiązanie ma potencjał rynkowy na ok. 1 mld dolarów.
Ale to jest myślenie w stylu USA, gdzie inwestor finansuje ok. 100 takich innowacyjnych firm, z których tylko dwie – trzy dojdą do etapu komercjalizacji badań i przyniosą zysk pięciokrotnie wyższy niż nakłady w te sto firm. W nauce bowiem nie tyle ważne jest na ile pomysł jest dobry, ale to, na ile jest rynkowy. Nie zawsze sprzeda się to, co jest lepsze.
Pomijając fakt, że w Polsce nakłady na badania są na żenująco niskim poziomie, (nawet jeśli uwzględnić zasilanie unijne), to nawet przy tych pieniądzach jakie mamy, można byłoby poprawić sytuację poprzez tworzenie specjalności narodowych. Tymczasem u nas rozciąga się tę cieniutką kołderkę pieniędzy nad wszystkimi, żeby było sprawiedliwie.
Kiedy kilkanaście lat temu pojawiła się szansa na zmianę tradycyjnych źródeł światła na diody półprzewodnikowe, (diody azotkowe, które badają i wytwarzają w Polsce w Instytucie Wysokich Ciśnień PAN), szybko zrozumiano, że w tym jest wielki potencjał i że możemy w sposób dość prosty i w przewidywalnym czasie obniżyć zużycie energii.
To szybko podchwycili Amerykanie, którzy zainwestowali w takie badania miliard dolarów, co przyniesie im docelowo 100-krotny zwrot zainwestowanych środków w skali roku. Ale takie działanie wymaga nie tylko wychwycenia dobrego momentu, ale i wymuszenia na wielu grupach badawczych decyzji o badaniach w określonym kierunku pod groźbą braku finansowania budżetowego.
- U nas takie próby były wielokrotnie podejmowane, ale skończyło się na tym cienkim parasolu rozpostartym nad wszystkimi…
- Naukowcy w Polsce nie mają żadnej presji, żeby robić rzeczy użyteczne. Jeśli mimo to tak robią, to wynika tylko z ich poglądów, przekonania że warto zrobić coś pożytecznego dla ludzi. Trudno bowiem przejść obojętnie nad taką wiedzą, że cywilizacja nasza potrwa tylko do połowy XXI wieku (a taką prognozę już słyszałem), bo później zacznie się masowe wymieranie gatunków, że mamy 70% dynamikę wzrostu zachorowań na nowotwory, czy fakt, że pojawiły się superbakterie, które w połowie XXI wieku będą powodować ok. 50 mln zgonów rocznie tylko wskutek zakażeń szpitalnych. Czy zatem ja mogę coś zmienić?
Praca naukowa jest bardzo trudna, bardzo obciążająca nerwowo, bo trwa tu non stop „wyścig szczurów”. Mimo to, nikt od nas nie oczekuje konkretnych rozwiązań, nie pyta co moglibyśmy zrobić, nikogo to nie interesuje. To sytuacja inna niż na Zachodzie, gdzie praca naukowców jest konsultowana ze specjalistami z agend rządowych ukierunkowywana na potrzeby gospodarki. Kiedy pracowałem w zachodnich ośrodkach naukowych, takie podejście było dla mnie odkryciem, a jednocześnie dawało satysfakcję wynikającą z użyteczności nauki, własnej pracy, wiedzy, umiejętności.
My ciągle mamy średniowieczną hierarchię, że doktor jest mądrzejszy niż magister, dr hab. mądrzejszy niż doktor, a profesor ważniejszy niż wszyscy inni. Całe życie robimy więc tytuły, które dla wielu ludzi są ważne, ale też często droga do nich wiedzie przez prace niepotrzebne nikomu.
- Ale kto miałby przychodzić do pana lub innych naukowców, żeby ukierunkowywać prowadzone badania? Urzędnicy z NCN? Z NCBiR?
- Po pierwsze, nie trzeba się bać takich rozmów. W Polsce panuje porażający strach, kiedy przychodzi ktoś, kto ma jakiś problem. Pracowałem w kilku krajach na świecie i np. w Australii zjawił się u naukowców rzemieślnik, który miał problem z jakością produkcji i uznał, że naukowcy mu na pewno w tym pomogą. Pomogliśmy i nikt tego nie traktował jako ujmy na honorze. Wiem, że w wielu centrach transferu technologii na uczelniach naukowcy otrzymują podobne zlecenia, niemniej taka działalność u nas ciągle jest traktowana jako mało „naukowa”.
Dziękuję za rozmowę.
*http://195.187.94.6/pliki/ogolne/prace%20IEL/246/13.pdf
- Autor: Anna Leszkowska
- Odsłon: 37
Badanie: TikTok, Instagram i krótkie filmy na YouTube wywołują mierzalną „zgniliznę mózgu”.
W 2024 roku „zgnilizna mózgu” przeszła z internetowego memu do oksfordzkiego słowa roku.
„Zgniliznę mózgu” definiuje się jako „domniemane pogorszenie stanu psychicznego lub intelektualnego danej osoby, w szczególności postrzegane jako wynik nadmiernego korzystania z materiałów (obecnie zwłaszcza treści dostępnych w Internecie) uznawanych za trywialne lub mało istotne”.
Nasi eksperci zauważyli, że termin „zgnilizna mózgu” (brain rot) zyskał w tym roku na znaczeniu jako określenie obaw dotyczących wpływu nadmiernej konsumpcji niskiej jakości treści online, zwłaszcza w mediach społecznościowych. Częstotliwość użycia tego terminu wzrosła o 230% między 2023 a 2024 rokiem.
Pierwsze odnotowane użycie terminu „zgnilizna mózgu” (brain rot) odkryto w 1854 roku w książce Henry’ego Davida Thoreau Walden, w której opisuje on swoje doświadczenia związane z prowadzeniem prostego trybu życia w świecie przyrody. W ramach swoich wniosków Thoreau krytykuje tendencję społeczeństwa do dewaluacji idei złożonych lub tych, które można interpretować na wiele sposobów, na rzecz idei prostych, i uważa to za oznakę ogólnego spadku aktywności umysłowej i intelektualnej:
„Podczas gdy Anglia stara się wyleczyć zgniliznę ziemniaka, czyż nikt nie podejmie próby wyleczenia zgnilizny mózgu – która rozprzestrzenia się o wiele szerzej i jest bardziej zabójcza?”
Recenzowany artykuł zatytułowany „ Demistyfikacja nowego dylematu zwyrodnienia mózgu w erze cyfrowej: recenzja” potwierdza, że zwyrodnienie mózgu jest realne: środowisko cyfrowe degraduje chemicznie, poznawczo i psychologicznie rozwijający się ludzki mózg. A szkody są mierzalne.
Według badań, zgnilizna mózgu nie jest memem. To udokumentowany stan zaniku funkcji poznawczych, spowodowany nadmierną stymulacją, pętlami sprzężenia zwrotnego dopaminy i nieustanną ekspozycją na treści cyfrowe niskiej jakości.
Autorzy przeprowadzili szybki przegląd, systematycznie analizując 381 badań i wybierając 35 wysokiej jakości artykułów opublikowanych w latach 2023–2024. Oto ich ustalenia:
Główny mechanizm: nadmierna stymulacja + pętle sprzężenia zwrotnego dopaminy
Z analizy wynika, że młodzi ludzie spędzają obecnie średnio 6,5 godziny dziennie w Internecie — głównie na platformach opartych na algorytmach, takich jak TikTok, Instagram Reels, YouTube Shorts i kanałach z niekończącym się przewijaniem, zaprojektowanych z myślą o ułamku sekundy urozmaicenia treści.
Większość treści składa się z szybkich bodźców o niskiej zawartości informacji: bardzo krótkich filmów, memów, klipów z reakcjami i trywialnych fragmentów rozrywkowych, które zapewniają nowość bez żadnej substancji poznawczej.
Platformy te dostarczają szybkich dawek sztucznie nagradzających bodźców, tworząc cykl:
- Stałej nadmiernej stymulacji poznawczej - mózg nigdy nie przechodzi w tryb „spoczynku” ani w stan głębszego myślenia.
- Osłabienia pamięci roboczej - informacje są przyswajane zbyt szybko, aby je skonsolidować.
- Fragmentarycznych sieci uwagi - treści krótkie uczą umysł oczekiwać ciągłej nowości.
- Trudności z przetwarzaniem długich i złożonych informacji - głębokie czytanie i utrzymanie skupienia stają się trudniejsze neurologicznie.
- Zmęczenia psychicznego i obniżonych funkcji wykonawczych - przewlekła nadmierna stymulacja obciąża korę przedczołową — ośrodek planowania, rozumowania i samoregulacji.
Badanie opisuje to jako przejście od zdrowej, odgórnej kontroli poznawczej do oddolnej, nastawionej na poszukiwanie dopaminy impulsywności.
Doomscrolling: chroniczne narażenie na treści negatywne, groźne lub groteskowe
Wiele osób posługuje się tym terminem potocznie, ale badanie przedstawia jego precyzyjną definicję funkcjonalną:
Doomscrolling = kompulsywne oglądanie treści o negatywnym wydźwięku emocjonalnym lub zawierających groźby.
Doomscrolling produkuje:
- Utrzymujący się niepokój i nadmierną czujność - mózg pozostaje w trybie wykrywania zagrożenia.
- Pętle rozpamiętywania - negatywne informacje są odtwarzane w pamięci.
- Reakcje na stres fizjologiczny - przewlekły podwyższony poziom kortyzolu upośledza funkcje poznawcze.
- Ograniczone tworzenie pamięci - stres zaburza konsolidację hipokampa.
- Fragmentację uwagi - mózg przygotowuje się do skanowania, a nie do skupiania uwagi.
Z przeglądu wynika, że doomscrolling bezpośrednio upośledza pamięć roboczą, regulację emocji i koncentrację uwagi, przyspieszając tym samym procesy zmęczenia poznawczego.
Przewijanie zombie: dysocjacyjny „bezmyślny dryf”, który uszkadza zdolności poznawcze.
Doomscrolling jest emocjonalnie intensywny. Zombiescrolling jest emocjonalnie pusty.
Przewijanie zombie = pasywne, bezcelowe, dysocjacyjne przeglądanie treści bez celu, świadomości lub zaangażowania.
Przewijanie zombie jest związane z:
- Dysocjacją - umysł dryfuje, zmniejszając świadomość chwili obecnej.
- Wyczerpywaniem się pamięci roboczej - bezmyślne konsumowanie nie zapewnia żadnej stymulacji poznawczej.
- Ograniczoną kontrolą uwagi - mózg przyzwyczaja się do bodźców łatwych do zrozumienia i o niskiej wartości.
- Otępieniem emocjonalnym i oderwaniem - ścieżki przyjemności/nagrody stają się niewrażliwe.
- Zmniejszonym zaangażowaniem poznawczym - mózg przestaje inicjować głębsze wzorce myślowe.
Recenzja zauważa, że przewijanie zombie może być jeszcze bardziej podstępne, ponieważ użytkownicy nie odczuwają stresu, więc bagatelizują szkody — a mimo to pogorszenie funkcji poznawczych postępuje po cichu z czasem.
Objawy przedkliniczne demencji pojawiają się u młodszych pokoleń
Uderzającym odkryciem przeglądu jest to, że spadek funkcji poznawczych w erze cyfrowej odzwierciedla obecnie kilka wzorców neurobiologicznych, podobnych do tych występujących we wczesnej demencji. Badania neuroobrazowe i behawioralne wykazały, że nadmierna ekspozycja na urządzenia cyfrowe wiąże się ze zmniejszoną aktywnością hipokampa, prowadząc do płytkiego, fragmentarycznego tworzenia pamięci, a nie do jej trwałej konsolidacji.
W tym samym czasie funkcjonowanie kory przedczołowej, która odpowiada za planowanie, hamowanie i podejmowanie decyzji, wykazuje mierzalne pogorszenie pod wpływem przewlekłego wykonywania wielu zadań na raz i intensywnego korzystania z informacji medialnych.
Ta ciągła nadmierna stymulacja nakłada przewlekłe obciążenie poznawcze na korę nową, tworząc wzorce zgodne z przyspieszonym starzeniem poznawczym.
Co istotne, kilka długoterminowych badań sugeruje podwyższone ryzyko pogorszenia funkcji poznawczych w ciągu całego życia, co wskazuje, że skutki te mogą nie być przejściowe. Zmiany te są dobrze udokumentowane za pomocą fMRI i badań kontrolowanych uwzględnionych w przeglądzie, co dowodzi, że przedkliniczne sygnatury neurodegeneracyjne pojawiają się już w młodszych populacjach.
Zgnilizna mózgu: prawdziwy zespół neuropoznawczy
Badanie pokazuje wyraźny, powtarzalny schemat: nadmierna ekspozycja na treści cyfrowe niskiej jakości pogarsza pamięć roboczą, koncentrację uwagi, funkcje wykonawcze, rozwiązywanie problemów i regulację emocji . Ciągłe powiadomienia i szybkie przełączanie treści utrudniają przyswajanie informacji i koncentrację, a nadmierna stymulacja osłabia planowanie, samokontrolę i elastyczność poznawczą.
Zarówno przeciążenie emocjonalne w doomscrollingu, jak i pustka emocjonalna w zombiescrollingu destabilizują ośrodkowy układ nerwowy, prowadząc do sztywniejszego, impulsywnego i niewydolnego poznawczo mózgu. Najpoważniejsze deficyty występują u nastolatków, co podkreśla ryzyko długotrwałych konsekwencji.
Dowody potwierdzają, że gnicie mózgu jest faktem, pojawia się wcześnie, szybko postępuje i pochłania całe pokolenie.
To jeden z głównych powodów, dla których niepełnosprawność poznawcza stanowi obecnie problem zdrowia publicznego w Stanach Zjednoczonych. Liczba osób z upośledzeniem funkcji poznawczych gwałtownie rośnie i nie widać końca.
Powszechne pogorszenie funkcji poznawczych przed osiągnięciem dorosłości może wkrótce stać się normą, ponieważ treści „niszczące mózg” generowane przez sztuczną inteligencję zaczną się drastycznie rozprzestrzeniać.
Nicolas Hulscher
Nicolas Hulscher, MPH , epidemiolog i administrator fundacji McCullough Foundation
Pełna wersja - https://www.globalresearch.ca/tiktok-instagram-youtube-shorts-brain-rot/5906586

