Informacje (el)
- Autor: Anna Leszkowska
- Odsłon: 1483
W ramach cyklu „Czy Świat należy urządzić inaczej”, Komitet Prognoz PAN „Polska 2000 Plus" zorganizował 24.05.17 w Warszawie konferencję pt. „Człowiek w antropocenie. Warunki przeżycia”.
W przedstawionych referatach pokazywano, że stopień wpływania przez człowieka na ekosystem zagraża nie tylko środowisku i planecie, ale przede wszystkim samemu człowiekowi. I tak: prof. Ewa Simonides, pokazując człowieka w środowisku przyrodniczym pokazywała, iż jeśli nie zmieni on swoich zachowań wobec środowiska, nie przetrwa w tak zdegradowanej biosferze, jaką mamy.
Człowiek zdołał bowiem opanować wszystkie lądowe ekosystemy Ziemi i zdominował wszystkie gatunki ssaków, ale tak wielki sukces gatunku może oznaczać jego klęskę. Przede wszystkim z powodu przeludnienia Ziemi – co 1 minutę przybywa 100 dzieci, czyli 80 mln rocznie. W dodatku ten wzrost ludności nie jest równomierny – najwięcej ludzi przybywa w Azji, Afryce i Europie.
Zagrożenie dla biosfery rośnie też z powodu silnie zróżnicowanego poziomu życia na kontynentach, co wiąże się nie tylko z degradacją lasów i gleb w państwach biednych, ale i rabunkową eksploatacją ich zasobów przez państwa bogate.
Mimo wysiłków wielu międzynarodowych organizacji, strefa głodu nie kurczy się, ale powiększa (Afryka, Indie), maleją zasoby wody słodkiej i coraz bardziej trudno o dostęp do niej. O ile mieszkaniec USA zużywa 350 litrów wody na dobę, a Europejczyk – 200, to już mieszkaniec Afryki subsaharyjskiej tylko 20 l/dobę. Nie mówiąc o tym, że 1 mld ludzi na świecie w ogóle nie ma dostępu do wody pitnej (o gospodarowaniu wodą na świecie mówił też prof. Piotr Kowalczak).
Okazuje się, że nasze XX-wieczne przekonania o „wodożernej” cesze przemysłu są nieprawdziwe – otóż to rolnictwo, a nie przemysł zużywa największe ilości wody, bo aż 92%. Przemysłowi wystarcza 4%, a gospodarstwom domowym – 3,6%.
Tragiczne w skutkach – także z powodu braku wody słodkiej – jest wylesianie (nie tylko pod uprawy). W ostatnich 15 latach z powierzchni globu ubyło 130 mln ha lasów, w tym – najbardziej cennych, tropikalnych, będących środowiskiem życia dla 90% roślin i zwierząt, mających wpływ na klimat Ziemi.
Ale czy ludzie widzą między tymi faktami związek? Czy mają świadomość, że na Ziemi zostało tylko 15% pierwotnych zalesień, a 28% wszystkich lasów zostało bezpowrotnie straconych, w dodatku 19% jest bardzo silnie zdegradowane?
Coraz mniej lasów, to mniejsza bioróżnorodność, o którą teraz walczą niektórzy rolnicy, ale to przecież rolnictwo jest głównym sprawcą degradacji naszej planety. To wskutek intensyfikacji upraw odwracano bieg rzek, powodując wysychanie jezior (Czad, Aralskie) i pustynnienie wielkich obszarów.
Człowiek degraduje Ziemię na tyle skutecznie, że obecnie znaleźliśmy się w epoce wielkiego wymierania. Co godzinę giną 3 gatunki, a co roku - ok. 100 tys. gatunków roślin i zwierząt. Zagrożonych wyginięciem jest 7500 gatunków, ale za 50 lat nie będzie np. ani jednej dziko żyjącej ryby…
To jest szósta wielka katastrofa na Ziemi i pierwsza, którą spowodował człowiek.
Kim zatem jest homo sapiens? Superpasożytem? Drapieżnikiem wysokiego szczebla? I czy ma szanse, licząc 7-11 mld osobników, przetrwać z tak zdegradowanej przez siebie biosferze? Odpowiedź nasuwa się sama: nie ma szans i przede wszystkim winien nie tylko pohamować swój drapieżny styl życia, ale i ograniczyć, i to znacznie, swoje rozmnażanie. (Tego zdania był także prof. Leszek Kuźnicki).
O tym, jak homo sapiens psuje klimat i jakie z tego powodu ponosi skutki, mówił z kolei prof. Zbigniew Kundzewicz. Ocieplenie klimatu, oceniane przez niektórych bardzo sceptycznie, nie jest sprawą wiary, ale twardych danych. Jak się okazuje, każda kolejna dekada jest cieplejsza. Pierwsza dekada XXI wieku była globalnie cieplejsza niż dekada lat 90. XX w., a ta z kolei cieplejsza od dekady lat 80. XX wieku. Lata osiemdziesiąte były zaś cieplejsze niż lata siedemdziesiąte i wszystko wskazuje, że jeśli nic nie będziemy robić – tempo ocieplenia będzie coraz większe.
Każdy rok XXI wieku należał do 17 najcieplejszych lat w historii globalnych obserwacji temperatury. Rekordy globalnej średniej temperatury rocznej zostały ostatnio pobite przez trzy kolejne lata: 2014, 2015 i 2016. Rok 2016 okazał się wiec najcieplejszy globalnie w historii obserwacji temperatury przy użyciu termometrów (czyli od roku 1880).
Wiele z obserwowanych zmian jest bezprecedensowych w skalach czasowych od dziesięcioleci do tysiącleci.
Interpretacja zachodzących zmian klimatu jest jednoznaczna - ponad połowa obserwowanego wzrostu średniej globalnej temperatury powierzchni w okresie od 1951 do 2010 roku była spowodowana działaniem człowieka (gazy cieplarniane). I to głównie człowieka bogatego, bo za połowę emisji CO2 odpowiada 10% najbogatszych, natomiast skutki tego ponoszą najbiedniejsi.
Zmiany klimatu to jednak nie tylko wzrost temperatury i związane z tym efekty (topnienie lodów i wzrost poziomu morza), ale i zmiany unikalnych systemów związanych z lodem morskim Arktyki i rafami koralowymi, ekstremalne zjawiska pogodowe (upały, huragany, sztormy, nawalne deszcze). Ryzyko ich wystąpienia jest nie tylko coraz większe, ale i nierównomiernie rozłożone w przestrzeni.
Niestety, generalnie większe dla mniej zamożnych osób i społeczności.
Polacy są świadomi zmian klimatu, ale kwestia ta nie jest powszechnie uznawana za priorytet - podkreślał prof. Kundzewicz. Obserwowane skutki zmian klimatycznych w kraju nie są dramatyczne, a ich interpretacja jest złożona, w grę wchodzi bowiem wiele czynników. Połączenie dużej naturalnej zmienności zjawisk hydro-meteorologicznych oraz dużej niepewności w projekcjach na przyszłość, utrudnia publiczną dyskusję.
Często zadawane pytanie dotyczy „wiary” lub „niewiary” w zmiany klimatu. W związku z tym, zagadnienie zmian klimatu nie jest w Polsce traktowane tak poważnie, jak na to zasługuje. A już zupełnie mało komu przychodzi do głowy, że skoro upadło już 21 cywilizacji z przyczyn środowiskowych, to i nasza też upadnie. A z nią i my zginiemy.
Anna Leszkowska
- Autor: Anna Leszkowska
- Odsłon: 2627
Twórcom Ogrodu Botanicznego PAN w Powsinie – nieżyjącym już profesorom: Romanowi Kobendzy, Bogusławowi Molskiemu, Szczepanowi Pieniążkowi oraz Emilowi Nalborczykowi dedykowano „Drzewo pamięci zasłużonych dla Ogrodu Botanicznego PAN”.
Pomnik autorstwa Piotra Rzeczkowskiego jest kamiennym obeliskiem w kształcie drzewa, a usytuowano go obok willi Fangorówka – miejsca wystaw malarskich oraz koncertów muzycznych (ich pomysłodawcą był prof. Zbigniew Gertych), jakie letnimi niedzielnymi popołudniami umilają zwiedzającym pobyt w tym pięknym miejscu.
Odsłonięcie pomnika połączone z uroczystą sesją (i koncertem fortepianowym w wykonaniu Piotra Latoszyńskiego), jaka odbyła się 15 maja 2015 uświetniła 25. rocznicę udostępnienia ogrodu dla publiczności, choć sam ogród ma znacznie dłuższą historię, powstawał bowiem od 1957 roku.
Plany utworzenia nowego ogrodu botanicznego w Warszawie (istniał bowiem już obecny, nieduży Ogród Botaniczny Uniwersytetu Warszawskiego) sięgały zresztą czasów jeszcze wcześniejszych – 1928 roku, kiedy dwaj botanicy, profesorowie Bolesław Hryniewiecki i Roman Kobendza (ówcześnie dyrektor i inspektor Ogrodu Botanicznego UW) zamyślali utworzenie dużego ogrodu botanicznego w rejonie Powsina i Klarysewa.
Pomysł ten jednak – wskutek wojny - pozostał w sferze marzeń i dopiero w 1957 r. Polska Akademia Nauk powołała Ogród Botaniczny jako zakład naukowy pod kierownictwem prof. Wacława Gajewskiego. Niestety, po 10 miesiącach zakład zaprzestał działalności.
Stan ten trwał do 1970 roku, kiedy dzięki prof. Szczepanowi Pieniążkowi, przy Zakładzie Genetyki Roślin PAN, utworzono w Skierniewicach Pracownię Zasobów Genowych Roślin Uprawnych. To była baza do budowy Ogrodu Botanicznego, choć dopiero po czterech latach (1.07.74) rząd i prezydium PAN podjęły decyzję o jego utworzeniu jako samodzielnej placówki naukowo-badawczej przy wydziale II PAN (Nauk Biologicznych).
Urządzanie ogrodu tak, aby można było udostępnić go zwiedzającym trwało 16 lat i było dziełem życia prof. Bogusława Molskiego, któremu zadanie to powierzył prof. Pieniążek.
Uroczyste otwarcie Ogrodu odbyło się 12 maja 1990r., a w pięć lat później zbudowano w nim i otwarto Centrum Edukacji Przyrodniczo-Ekologicznej. W tym samym, 1995 r. Prezydium PAN podjęło uchwałę nadającą Ogrodowi status placówki naukowej PAN, a w dwa lata później zmieniono jej nazwę i status na Ogród Botaniczny – Centrum Zachowania Różnorodności Biologicznej PAN. Wynikało to m.in. z faktu, że Ogród Botaniczny w Powsinie miał już spory dorobek w ratowaniu bioróżnorodności, w tym – zachowania w warunkach ex situ rzadkich, zagrożonych i chronionych gatunków flory Polski oraz stworzenia banku nasion.
Rok ten był także czasem „pączkowania” ogrodu – w jego strukturze utworzono Pracownię Zachowania Bioróżnorodności Górnego Śląska z zadaniem zorganizowania Śląskiego Ogrodu Botanicznego w Mikołowie.
Zakładanie ogrodu to praca na całe życie i musi znaleźć się człowiek, który się temu zadaniu poświęci, ale utrzymanie ogrodu to dzieło wielu pokoleń. Ogród Botaniczny PAN – mimo początkowych perturbacji – miał i ma szczęście pod tym względem. Znaleźli się liderzy – zwłaszcza nieoceniony prof. Molski i obecny dyrektor – prof. Jerzy Puchalski (wychowanek prof. Molskiego) – zdolni utworzyć i rozwijać tak wyjątkową placówkę naukową. I rozumieli potrzebę istnienia takiej placówki naukowej (a zatem i jej rozwoju) prezesi PAN – zwłaszcza prof. Leszek Kuźnicki, któremu - jako biologowi i społecznikowi - idea ta była i jest szczególnie bliska.
Historia Ogrodu Botanicznego PAN jest zresztą napisana wieloma nazwiskami – nie tylko naukowców, ale i władz państwowych PRL, i przedstawicieli KBN, dzięki którym udało się w początkach lat 90. utrzymać ten ogród jako miejsce nauki – o czym przypominał dyrektor Puchalski oraz liczni zaproszeni na tę uroczystość goście: m.in. rodziny uhonorowanych pomnikiem profesorów, przedstawiciele placówek naukowych z całego kraju, bratnich ogrodów, towarzystw i stowarzyszeń botanicznych, leśnicy, samorządowcy, artyści.
Nie rozumiały natomiast potrzeb ogrodu, ani zwiedzających go (2,7 mln osób przez 25 lat, 100 tys. rocznie) władze Warszawy (na uroczystość nikt z nich zresztą nie przybył). Przez ćwierć wieku urzędnicy ratusza nie dostrzegają Ogrodu, ani jego roli w życiu stolicy (Ogród, oprócz funkcji rekreacyjnych i estetycznych, prowadzi od 40 lat biologiczny monitoring zieleni na terenie Warszawy oraz edukację ekologiczną dla uczniów i studentów warszawskich szkół) - nawet nie stworzyły dogodnego dojazdu do tego miejsca, nie mówiąc o ignorowaniu potrzeb terytorialnych ogrodu.
Pierwotnie bowiem założono, iż będzie się on rozciągał na obszarze 230 ha, na górnym i dolnym tarasie Skarpy Warszawskiej, co pozwoliłoby zgromadzić w nim roślinność z całej Polski. Po 1989 r. obietnice władz PRL zignorowano i ogród pozostał na obszarze początkowym – 40 ha, bez możliwości rozszerzenia, gdyż ostatni wolny „kawałek” ziemi, obiecany ogrodowi, zabrał fundusz kościelny.
Ta ostatnia decyzja przypieczętowała los ogrodu, który musi się zadowolić 40 ha terenu (większe ogrody ma Łódź – 67 ha oraz Bydgoszcz – 60 ha), na którym są kolekcje flory polskiej (m.in. z roślinami chronionymi i zagrożonymi), roślin drzewiastych (arboretum na 6 ha), roślin ozdobnych (ponad 3000 taksonów bylin, cebulowych i kłączowych oraz róż – 700 taksonów, co czyni ją największą kolekcją róż w Polsce o statusie kolekcji narodowej), roślin użytkowych (rośliny lecznicze, przyprawowe, warzywa, krzewy i drzewa owocowe) oraz kolekcję roślin klimatu ciepłego (szklarniowych).
Anna Leszkowska
- Autor: Anna Leszkowska
- Odsłon: 1968
O szansach i zagrożeniach, jakie niesie czwarta rewolucja przemysłowa debatował 22.11.17 Komitet Prognoz PAN „Polska 2000+”. Konferencja odbywała się w ramach cyklu "Czy Świat należy urządzić inaczej".
Na wstępie prof. Bogdan Galwas przypomniał historię dotychczasowych rewolucji:
- pierwszej, która rozpoczęła się w roku 1784 i związana była z wynalazkiem maszyny parowej; rozpoczął się wtedy wiek pary;
- drugiej, w roku 1870, która zapoczątkowała wiek elektryczności, silnika Diesla, a wkrótce masowej produkcji;
- trzeciej, przemysłowej, która zaczyna się umownie w roku 1969 i zapoczątkowuje wiek elektroniki, komputera, automatyzacji i robotyzacji produkcji;
- czwarta, której świadkami jesteśmy, zaczęła się umownie w roku 2010
i rozpoczęła wiek sztucznej inteligencji.
Podkreślił, iż ta ostatnia nosi także nazwę przemysłowej z uwagi na niezwykle szybko zachodzące zmiany (wzrost wykładniczy), ich globalny zasięg i dogłębność oraz wpływ na system życia i funkcjonowania całej ludzkości.
Co dzisiaj możemy powiedzieć o 4. rewolucji przemysłowej? Z jednej strony, szybki rozwój nauki i technologii daje nadzieję na rozwiązanie wielu problemów (np. z zakresu medycyny, energetyki, wody, zanieczyszczeń powietrza, ocieplenia). Zwłaszcza, że na świecie jest coraz więcej wykształconych ludzi (w latach 1960-80 uczelnie wykształciły około 150 mln specjalistów, miedzy 1980-2000 - 300 mln, a w nadchodzących 20 latach przybędzie 450 milionów dobrze wykształconych ludzi).
Z drugiej jednak – rodzi obawy o zasięg i nieprzewidywalność zmian, o panowanie nad ich skutkami (np. rosnące podziały społeczne, bezrobocie, problemy zdrowia psychicznego, rosnące zanieczyszczenie ekosfery).
Kto wie, czy czwarta rewolucja napędzana mechanizmem walki wolnorynkowej o pieniądze i zysk, bez zwracania uwagi na negatywne skutki w społeczeństwach i w środowiskach nie doprowadzi do katastrofy w skali planetarnej.
Na zagrożenia te zwróciła również uwagę CIA w 2007 roku pisząc, że "regiony, państwa i grupy, które czują się pominięte staną przed pogłębiającą się ekonomiczną stagnacją, polityczną niestabilnością i kulturalną alienacją. Będą one popierać polityczny, etniczny, ideologiczny oraz religijny ekstremizm, wraz z często towarzyszącą jej przemocą”.
Sztuczna inteligencja
Jednak 4. rewolucja przemysłowa to przede wszystkim początek epoki cyfryzacji i sztucznej inteligencji (AI). O zagrożeniach związanych z tym aspektem rozwoju cywilizacji mówił prof. Ryszard Tadeusiewicz. Przypomniał, że w opublikowanym w 2016 roku liście otwartym wystosowanym przez Future of Life Institute (podpisanym także przez Stephena Hawkinga, Stuarta Russella i Elona Muska), przedstawiono AI jako jedno z największych zagrożeń dla ludzkości.
W efekcie tego, w ub. roku grono uczonych wypracowało kodeks 23 zasad bezpiecznej AI, który wydaje się jednak mało praktyczny, bo AI jest nadal intensywnie rozwijana przez placówki naukowe oraz ogromne ponadnarodowe firmy, takie jak Google czy Facebook.
Czy jednak niepokój o skutki AI jest słuszny? Czy rozwój sztucznej inteligencji to dobrze, czy źle? Obawy przed AI, o to, że roboty nas zniszczą, wynikają z braku rzetelnej wiedzy. Po pierwsze, to człowiek tworzy maszynę. Po drugie – tylko człowiek ma możliwość rozumienia intencji, rozumie sens – maszyna tego nie potrafi. Maszyna nie ma też poczucia jaźni i własnego interesu. To nie robotów więc należy się bać, ale niewyobrażalnej skali bezrobocia, jakie one wywołają. Praca bowiem jest elementem godności człowieka.
A może cyberewolucja?
Do momentów przełomowych w rozwoju ludzkości odniósł się w swoim wystąpieniu („CyberEwolucja”) Marek Chlebuś, przedstawiając inne kryteria rozwoju cywilizacji. Według niego, 4. rewolucję napędzają technologie Sieci: Internetu, Internetu Rzeczy (IoT), oraz bio-internetu, czy neuro-internetu, który powoli staje się możliwy. Konsekwencją takich technologii będzie Ziemia pokrytą warstwą kognitywnej materii, obejmującej wszystkie artefakty, wszystkich ludzi, a także zapewne rośliny i zwierzęta zainfekowane nanochipami, wypełniającymi środowisko. Taki stan ma już nazwę: noosfera.
Słowo to utworzył prawie sto lat temu Vladimir Vernadsky, twórca i pierwszy prezes Ukraińskiej Akademii Nauk, autor książki Biosfera, w której przedstawia trzy warstwy i trzy etapy ewolucji. W pierwszym kształtowała się nieorganiczna geosfera, aż do powstania życia, które zbudowało nad geosferą biosferę, a ta ją zupełnie przekształciła (drugi etap). Biosfera ewoluowała dalej według swoich praw, aż nad nią ukształtowała się noosfera, sfera umysłu, która uczyniła ją sobie poddaną (trzeci etap).
Pojęcia noosfery oraz globalnego mózgu były źródłem inspiracji dla wielkiej liczby prac naukowych, paranaukowych i filozoficznych, także dla Marshalla McLuhana, według którego ewolucja mediów i ewolucja ludzkości to właściwie ten sam proces. A zatem główne mutacje w ewolucji mediów są automatycznie kluczowymi mutacjami w ewolucji ludzkości.
Jako pierwszą i najważniejszą z tych mutacji, McLuhan wyróżnił mowę, która miała nas wydobyć ze stanu zwierzęcego. Drugie było pismo, z którym przyszła cywilizacja, potem druk i dalej media masowe, które uczyniły nas ludźmi współczesnymi - przez nie jesteśmy wszyscy formatowani i sterowani. A dalej mamy Sieć, która powinna być kolejną wielką mutacją w rozwoju mediów i ludzkości.
Ta systematyka, według Marka Chlebusia dostarcza lepszych punktów odniesienia i właściwszej skali niż koncepcja czterech rewolucji przemysłowych. Poza obszarem wytwórczym, 4. rewolucja przemysłowa wydaje się pojęciem nadmiernie spłaszczającym perspektywę i nasuwającym skojarzenia ze zmianami, jakie wywołała maszyna parowa, elektryczność czy komputery, a te są po prostu drobne w porównaniu z przemianami, jakie przyniosła mowa, pismo czy mass media.
Cyfryzacja pracy
Jeszcze inaczej do terminu „4. rewolucja przemysłowa” podchodzi prof. Andrzej Wierzbicki, według którego nadchodząca epoka, to czas cyfryzacji pracy. W swoim wystąpieniu zatytułowanym „Czym się zająć, z czego żyć, czyli komu potrzebny człowiek pracujący?” podkreślił, że problem cyfryzacji pracy jest często lekceważony wobec bieżących sporów doktrynalnych o stare paradygmaty.
Tymczasem cyfryzacja pracy jest megatrendem, napędzanym poprzez podaż nowych technik i narzędzi cyfrowych z jednej strony, zaś z drugiej strony przez podstawowy mechanizm kapitalizmu – zastępowanie pracy przez kapitał, a raczej maszyny, urządzenia i narzędzia przez ten kapitał kupione. W obecnych warunkach megatrend cyfryzacji pracy może skutkować zmniejszaniem zatrudnienia w tempie 4-5% na dekadę i zniknięciem wielu zawodów.
Z uwagi na różnice pomiędzy inteligencją cyfrową (tzw. sztuczną inteligencją) a inteligencją człowieka obejmującą intuicję, fantazję i empatię, cyfryzacji pracy oprą się zawody twórcze, wymagające intuicji i fantazji – artystyczne, techniczne, badawcze – a także zawody wymagające empatii – w lecznictwie i nauczaniu, zaś ponadto, w pewnym stopniu, w administracji centralnej i lokalnej. W sumie da to pracę ok. 40% dorosłej siły roboczej. Brak pracy dla pozostałych 60% może spowodować poważne napięcia społeczne, stąd niezbędne staną się takie rozwiązania jak np. obywatelski dochód podstawowy. Niezbędna może też się okazać modyfikacja kapitalizmu, związana z kreowaniem miejsc pracy jako podstawowego obowiązku etycznego kapitalisty.
Samotność człowieka
W podobnym duchu, troski o człowieka jako istoty społecznej, mówiła prof. Maria Szyszkowska („Rozkwit cywilizacji a relacje międzyludzkie”) podkreślając, iż rozkwit techniki budzi zachwyt nad możliwościami człowieka oraz nad postępem nauk. Jednakże rozkwit cywilizacji wyznaczany jest w dużej mierze celami wojennymi i przyczynia się do niszczenia środowiska naturalnego.
Rewolucja przemysłowa wzmaga potrzebę wygody, która izoluje człowieka od człowieka. Wygodne życie gwarantowane przez wynalazki cywilizacyjne potęguje bierność i niechęć do podejmowania czynów. Następuje zamykanie się w znanym sobie małym kręgu osób, a to skutkuje brakiem inspiracji, zabija twórczość.
Rozkwit cywilizacji ujawnił wielkie możliwości człowieka, ale zarazem przyczynia się do jego separacji, osamotnienia. Nadmiar informacji zamiast, jak się spodziewano, wyrabiać mądrość, rodzi poczucie chaosu i zagubienia oraz jest źródłem manipulacji świadomością człowieka.
Jeszcze większe podziały społeczne
W nurcie skutków społecznych, jakie już wywołuje 4. rewolucja przemysłowa znalazło się też wystąpienie prof. Andrzeja Sopoćki („Czy rewolucja informatyczna prowadzi do skrajnej dychotomii pozycji społecznych?”).
Jak podkreślił autor referatu, dotychczasowe przełomy techniki i technologii prowadziły do zmiany struktury zatrudnienia i powstawania całkiem nowych dziedzin gospodarki. W nowych dziedzinach powstawały liczne stanowiska pracy, rekompensujące z nadwyżką ich utratę w starych.
Obecnie jednak wiele zjawisk wskazuje, że proces ten się załamał, a dzisiejsze wyzwania adresowane są w istocie tylko dla wybijających się wiedzą i umiejętnościami: tylko oni są bowiem w stanie opanować nową technikę i tworzyć nowe wartości. Jednocześnie dla osób z przeciętnymi zdolnościami i możliwościami nastał czas najgorszy.
Tylko pewna cześć społeczeństwa jest w stanie sprostać wyzwaniu cyfrowej rewolucji . Pozostała – po części ze względu na niedostatek możliwości intelektualnych, w części - ze względu na inaczej ukształtowane predyspozycje, gospodarka będzie odrzucać. Będą one mogły jednak liczyć na pracę w finansowanych z wydatków publicznych służbach socjalnych, ochronie przyrody, powszechnej służbie zdrowia. Wiązać się to jednak będzie z relatywnie niższymi wynagrodzeniami w stosunku do wynagrodzeń sfery wytwarzania.
Charakter obecnej rewolucji technologicznej wraz procesem globalizacji powodują nieznane dotąd zmiany w strukturze dochodów. Jest to zjawisko powszechne w krajach wysoko rozwiniętych. Dane z lat 2002-2015 wskazują, że następuje bardzo szybkie bogacenie się górnych decyli struktury dochodowej i stagnacja, a nawet spadek dochodów biedniejszej części społeczeństwa.
Odpowiedzialnością za ten stan rzeczy należy w pewnej mierze obciążyć komputeryzację i automatyzację. Niemniej, mimo nawet totalnej automatyzacji, przez długi czas ludzie będą mieć pracę, gdyż będą niezbędni do kontrolowania zautomatyzowania systemów, ochrony ich przed cyberatakami, tworzenia kolejnych aplikacji itd.
Konkurencja o nich ze strony pracodawców wywinduje płace tych osób wysoko w górę. W stosunku do reszty nie będzie takich przesłanek. Co więcej, pozostali będą musieli konkurować z coraz tańszymi robotami, co oznacza zgodę na coraz niższe płace. Podział na biednych i bogatych będzie więc coraz łatwiejszy, jako że środek piramidy dochodowej wydaje się być w zaniku.
Anna Leszkowska
- Autor: Anna Leszkowska
- Odsłon: 89
Jedną z największych zagadek współczesnej astronomii jest wyjaśnienie pochodzenia czarnych dziur odkrywanych przez detektory fal grawitacyjnych, LIGO i Virgo. Według jednej z hipotez, te obiekty powstały w bardzo młodym Wszechświecie i, oprócz emisji fal grawitacyjnych, mogą tworzyć zagadkową ciemną materię wypełniającą kosmos.
Zespół naukowców pracujących w ramach projektu OGLE (Optical Gravitational Lensing Experiment) prowadzonego w Obserwatorium Astronomicznym Uniwersytetu Warszawskiego ogłosił właśnie wyniki dwudziestoletnich obserwacji wskazujących, iż takie czarne dziury mogą stanowić zaledwie znikomy procent ciemnej materii. Dwie publikacje projektu OGLE opisujące wyniki tych badań ukazały się w najbardziej prestiżowych czasopismach naukowych, w tym w głównym magazynie Nature.
Obserwacje astronomiczne wskazują, że zwyczajna materia, którą możemy dotknąć lub zobaczyć, stanowi zaledwie 5% całkowitej masy i energii całego Wszechświata. W Drodze Mlecznej, na 1 kg materii zawartej w gwiazdach przypada 15 kg „ciemnej materii”, nieświecącej i oddziałującej wyłącznie za pośrednictwem grawitacji. – Natura ciemnej materii pozostaje wielką zagadką. Większość naukowców uważa, że składa się ona z nieznanych cząstek elementarnych – mówi dr Przemysław Mróz z Obserwatorium Astronomicznego UW, pierwszy autor publikacji w Nature i Astrophysical Journal Supplement Series. Problem w tym, że pomimo wielu dekad wysiłków, żaden eksperyment, na czele z eksperymentami prowadzonymi za pomocą Wielkiego Zderzacza Hadronów, nie doprowadziły do odkrycia nowych cząstek, które mogłyby tworzyć ciemną materię.
Od 2015 roku, gdy dokonano pierwszej bezpośredniej obserwacji fal grawitacyjnych pochodzących od pary łączących się czarnych dziur, detektory LIGO i Virgo odkryły ponad 90 kolejnych takich zjawisk. Zauważono, że czarne dziury znajdowane za pomocą fal grawitacyjnych są znacznie bardziej masywne (typowo 20–100 mas Słońca) niż te znane wcześniej w Drodze Mlecznej (typowo 5–20 mas Słońca).
– Wyjaśnienie dlaczego te dwie populacje czarnych dziur tak bardzo się różnią jest jedną z największych zagadek współczesnej astronomii – mówi dr Mróz. W jednym z możliwych rozwiązań tej zagadki, zasugerowano, że detektory fal grawitacyjnych znajdują tzw. pierwotne czarne dziury (primordial black holes), które mogłyby powstać na bardzo wczesnych etapach ewolucji Wszechświata. Istnienie pierwotnych czarnych dziur zostało zaproponowane ponad pół wieku temu przez słynnego brytyjskiego fizyka-teoretyka Stephena Hawkinga i, niezależnie, radzieckiego fizyka Jakowa Zeldowicza.
– Wiemy, że młody Wszechświat nie był idealnie gładki – niewielkie fluktuacje gęstości dały początek obecnym galaktykom i gromadom galaktyk – tłumaczy dr Mróz. Podobne fluktuacje gęstości, jeżeli miałyby dostatecznie dużą amplitudę, mogłyby się zapaść pod własnym ciężarem i utworzyć czarne dziury. Co więcej, od odkrycia fal grawitacyjnych, coraz częściej spekuluje się,
że takie czarne dziury mogłyby potencjalnie odpowiadać za dużą część, jeśli nie całość, ciemnej materii we Wszechświecie.
Na szczęście, hipotezę tę można zweryfikować za pomocą obserwacji astronomicznych. Wiemy, że duże ilości ciemnej materii znajdują się również w naszej Drodze Mlecznej. Jeżeli więc założymy, że ciemna materia składa się z masywnych czarnych dziur, powinniśmy je wykrywać w naszym najbliższym kosmicznym otoczeniu. Tylko jak to zrobić skoro czarne dziury nie świecą?
Z pomocą przychodzi ogólna teoria względności, sformułowana po raz pierwszy przez Alberta Einsteina, która przewiduje, że światło odległych gwiazd może być ugięte w polu grawitacyjnym masywnych obiektów. To tak zwane zjawisko mikrosoczewkowania grawitacyjnego.
– Mikrosoczewkowanie zachodzi, jeżeli trzy obiekty – obserwator, źródło światła i obiekt-soczewka – ustawią się niemal dokładnie w jednej linii w przestrzeni – mówi prof. Andrzej Udalski, lider projektu OGLE. Światło źródła może zostać ugięte i znacznie wzmocnione, obserwujemy jego tymczasowe pojaśnienie. Czas trwania pojaśnienia zależy od masy soczewkującego obiektu, im większa masa, tym dłuższe zjawiska mikrosoczewkowania. W przypadku gwiazd o masie Słońca pojaśnienia trwają zwykle kilka miesięcy, w przypadku czarnych dziur stukrotnie większych niż Słońce - powinny trwać nawet kilka lat.
Sam pomysł zastosowania zjawisk mikrosoczewkowania do badania ciemnej materii nie jest nowy. Po raz pierwszy zaproponował to w latach 80. XX w. słynny polski astrofizyk, prof. Bohdan Paczyński. Jego pomysł stał się inspiracją do powstania w latach 90. trzech eksperymentów badających mikrosoczewkowanie – polskiego projektu OGLE, amerykańskiego MACHO i francuskiego EROS. Wyniki otrzymane w pierwszych fazach projektu OGLE, MACHO i EROS wskazywały, że czarne dziury o masach mniejszych niż jedna masa Słońca mogą tworzyć co najwyżej 10% ciemnej materii.
Obserwacje te nie były jednak czułe na najdłuższe zjawiska mikrosoczewkowania trwające po kilka lat, a więc na potencjalne masywne czarne dziury, takie jak odkrywa się obecnie za pomocą fal grawitacyjnych.
W najnowszej publikacji w Astrophysical Journal Supplement astronomowie z projektu OGLE prezentują niemal dwudziestoletnie obserwacje około 80 milionów gwiazd znajdujących się w sąsiedniej galaktyce, zwanej Wielkim Obłokiem Magellana i analizują występowanie zjawisk mikrosoczewkowania grawitacyjnego w tym kierunku. Dane pochodzą z trzeciej i czwartej fazy projektu OGLE i zostały zebrane w latach 2001-2020.
– To najdłuższy, największy i najdokładniejszy ciąg czasowy obserwacji fotometrycznych Wielkiego Obłoku Magellana zebranych w historii współczesnej astronomii – mówi prof. Udalski. W równoległej pracy opublikowanej w tygodniku Nature przedstawione są astrofizyczne konsekwencje uzyskanych rezultatów tych unikalnych obserwacji.
– Gdyby cała ciemna materia składała się z czarnych dziur o masie 10 mas Słońca, powinniśmy byli wykryć łącznie 258 zjawisk mikrosoczewkowania – mówi dr Mróz. W przypadku czarnych dziur o masie 100 mas Słońca – 99 zjawisk, 1000 mas Słońca – 27 zjawisk.
Tymczasem astronomowie znaleźli w danych OGLE "zaledwie” 13 zjawisk mikrosoczewkowania. Co więcej, większość z nich była stosunkowo krótka, trwała mniej niż 100 dni. Ich szczegółowa analiza wykazała, że wszystkie mogły być spowodowane przez zwykłe gwiazdy w dysku Drogi Mlecznej lub w samym Wielkim Obłoku Magellana, a nie czarne dziury.
– Wskazuje to, że masywne czarne dziury mogą stanowić co najwyżej niewielki ułamek ciemnej materii – podsumowuje dr Mróz.
Rzeczywiście, szczegółowe obliczenia pokazują, że czarne dziury o masie10 mas Słońca mogą stanowić co najwyżej 1,2% ciemnej materii, 100 mas Słońca – 3,0% ciemnej materii, 1000 mas Słońca – 11% ciemnej materii.
– Nasze obserwacje dowodzą więc, że pierwotne czarne dziury nie mogą jednocześnie być źródłami fal grawitacyjnych i tworzyć znaczącej części ciemnej materii – mówi prof. Udalski.
Znacznie bardziej prawdopodobne są więc inne wyjaśnienia dużych mas czarnych dziur odkrywanych przez LIGO i Virgo. Jedna z takich hipotez zakłada, że powstały one w wyniku ewolucji masywnych gwiazd o niskiej zawartości ciężkich pierwiastków. Według innej, masywne czarne dziury powstały w wyniku łączenia się mniejszych obiektów w obszarach gęstych w gwiazdy (jak na przykład gromady kuliste).
– Opublikowane prace to podsumowanie ponad 30-letnich działań projektu OGLE w zakresie badań ciemnej materii, której poszukiwanie było jednym z podstawowych motorów jego powstania – podsumowuje prof. Udalski. Niewątpliwie prezentowane właśnie wyniki to nasz opus magnum i wejdzie on na długie lata do podręczników astronomii – dodaje.
W ramach projektu OGLE, który jest jednym z największych współczesnych przeglądów nieba, prowadzone są regularne obserwacje fotometryczne od ponad 32 lat. Jednym z pierwszych celów naukowych przeglądu OGLE było odkrycie i badanie zjawisk mikrosoczewkowania grawitacyjnego. Obecnie prowadzone badania dotyczą bardzo wielu dziedzin współczesnej astrofizyki – poszukiwania planet pozasłonecznych, badania struktury i ewolucji Drogi Mlecznej i sąsiednich galaktyk, gwiazd zmiennych, kwazarów, zjawisk przejściowych (gwiazd nowych, supernowych).
Więcej – WWW.astrouw.edu.pl