Nauka i gospodarka (el)
- Autor: Anna Leszkowska
- Odsłon: 569
Do 2010 roku Google płacił hakerom za wykryte błędy przysłowiowym uściskiem dłoni. Każdy, kto rzetelnie i kompetentnie ujawnił błąd w jego oprogramowaniu, był nagradzany koszulką i wzmianką na stronie firmy. Atak Aurory (wirus typu ransomware – przyp. Red. SN) spowodował, że Google poszedł po rozum do głowy i postanowił wypłacać swojej armii wolontariuszy konkretne pieniądze.
Honoraria hakerów wahały się od minimalnej kwoty 500 dolarów do maksymalnego wynagrodzenia w wysokości 1337 dolarów. Ta pozornie
przypadkowa wypłata była sprytnym mrugnięciem okiem do docelowej grupy odbiorców – liczba 1337 bowiem w kodzie hakerów wymawia się jak słowo leet, co w brzmieniu angielskim przypomina skrót od elite (elita). Przydomkiem leet określano wysoko wykwalifikowanych hakerów, którzy byli przeciwieństwem tzw. script kiddies (nazwa oznaczająca hakerów amatorów – przyp. tłum.). Zmianę strategii Google’a należało traktować jako ofertę pokojową dla społeczności, która przez lata postrzegała różne firmy technologiczne niemal jako reinkarnację szatana.
Nie był to zresztą pierwszy przypadek, kiedy firma technologiczna płaciła hakerom za błędy. Kilka lat przed iDefense, w 1995 roku, Netscape zaczął wypłacać niewielkie sumy tym, którzy ujawnili błędy w jego przeglądarce Netscape Navigator. Zainspirowało to Mozillę do podjęcia podobnych działań poprzez przekazanie kilkuset dolarów hakerom, którzy w 2004 roku znaleźli poważne luki w jej przeglądarce Firefox. Jednak Google wyraźnie podniósł stawkę. Złożył ofertę wynagrodzenia informatykom, którzy znaleźli błędy w Chromium, otwartym kodzie źródłowym przeglądarki internetowej Chrome.
Podobnie jak w przypadku iDefense, pierwsze błędy, za które zapłaciła firma, okazały się bezwartościowe. Jednak wraz z rozejściem się pogłosek, że Google traktuje sprawę poważnie, firma zaczęła otrzymywać coraz więcej raportów o błędach krytycznych. W ciągu kilku miesięcy Google rozszerzył program na wszelkie błędy, które stanowiły zagrożenie dla danych użytkowników w serwisach YouTube, Gmail i innych. Co więcej, maksymalna stawka wzrosła z 1337 dolarów do 31337 dolarów – eleet w kodzie hakerów. Stopniowo dopasowywano oferty do łupów i przygotowano propozycję wsparcia dotacji na cele charytatywne.
Google zdawał sobie sprawę z tego, że nigdzie na świecie nie uda mu się pozyskać żadnego Charliego Zero-Day. Wszyscy oni już wcześniej mocno się sparzyli. Nigdy też nie mógł dorównać honorariom, jakie płacili Desautels i inni. Wystarczyło to jednak, by zachęcić do współpracy programistów z Algierii, Białorusi, Rumunii, Polski, Rosji, Kuala Lumpur, Egiptu, Indonezji czy z francuskiej lub włoskiej wsi, a nawet bezpaństwowych Kurdów i przekonać ich, że warto spędzać wolne godziny na wyszukiwaniu błędów Google’a. […]
Przez lata niewielka grupa hakerów potajemnie zarabiała setki tysięcy dolarów, a w niektórych przypadkach miliony, na sekretnym rządowym rynku luk i exploitów (exploit – program wykorzystujący błąd lub luki w systemie – przyp. Red. SN). Teraz Google w znaczącym stopniu utrudnił jej pracę, płacąc setkom programistów i hakerów stojących na straży bezpieczeństwa. W miarę jak program nagród Google’a nabierał rozpędu, tempo, w jakim hakerzy przekazywali krytyczne błędy, zaczęło zwalniać.
Działo się tak między innymi dlatego, że projekt wynagrodzeń po części osiągnął swój cel – oprogramowanie Google’a było w znacznie mniejszym stopniu narażone na ataki. Firma zdecydowała się podnieść stawkę jeszcze wyżej. Rozdawała premie w wysokości tysiąca dolarów, sponsorowała konkursy hakerskie w Kuala Lumpur i Vancouver, oferując honorarium w wysokości 60 tysięcy dolarów za pojedynczy exploit dla własnej przeglądarki Chrome.
Część środowiska szydziła z nagród dla Chrome’a, zauważając, że ten sam exploit mógłby zarobić trzy razy tyle na rynku rządowym. Z jakiego powodu ktokolwiek miałby informować Google’a o lukach w jego systemach, jeżeli ktoś inny proponował daleko więcej pieniędzy za zachowanie milczenia? Nikt nie wystawił programu nagród Google’a na pośmiewisko bardziej niż Wilk z Wuln Street. Chaouki Bekrar, francuski Algierczyk, uczestniczył w sponsorowanych przez Google’a konkursach i konferencjach.
Każdego roku hakerzy z całego świata zjeżdżają do Vancouver na konferencję CanSecWest, gdzie walczą o nagrody pieniężne i darmowe urządzenia w najlepiej opłacanym konkursie hakerskim na świecie – Pwn2Own. We wczesnych latach rywalizacji hakerzy mieli za zadanie w jak najkrótszym czasie włamać się do systemu przeglądarek Safari, Firefox i Internet Explorer. Gdy smartfony weszły do powszechnego użytku, główne nagrody przyznawano zawodnikom, którzy potrafili zhakować urządzenia iPhone czy BlackBerry.
W 2012 roku przed hakerami postawiono zadanie włamania się do przeglądarki Chrome. Trzy zespoły podołały wyzwaniu, lecz tylko dwóm z nich przyznano nagrodę finansową ufundowaną przez firmę Google. Zespół hakerów z Vupen, w którego składzie znalazł się Bekrar, odrzucił warunki stawiane przez sponsora i odmówił ujawnienia szczegółów swojego exploita. „Google nie dowie się, jak to zrobiliśmy. Za żadne skarby, nawet za milion dolarów” – powiedział reporterowi Bekrar. „Zatrzymamy to dla własnych klientów”.
Bekrar wykazał się równie bezpośrednią i rzeczową postawą, co każdy z brokerów na rynku. „Nie po to pracujemy tak ciężko, aby wspierać wielomiliardowe koncerny w zabezpieczaniu ich kodu” – dodał. „Gdybyśmy chcieli zostać wolontariuszami, to pomoglibyśmy bezdomnym”.
W siedzibie Vupen, w południowej Francji, hakerzy tworzyli exploity zero-day na zamówienie agencji rządowych z całego świata. Wśród ich najpoważniejszych klientów znalazła się nawet NSA. Agencja ta oraz jej niemiecki odpowiednik – BSI – a także inni klienci Vupena
byli skłonni wyłożyć 100 tysięcy dolarów rocznie tylko po to, aby zerknąć na enigmatyczne opisy jego exploitów. Za dostarczenie kodu
exploita Vupen pobierał od rządów każdorazowo minimum 50 tysięcy dolarów.
Bekrar traktował nagrody Google’a w kategorii żartu. Na konferencjach pojawiał się wyłącznie w celu nawiązania kontaktów z klientami. Zapewniał, że swoje produkty sprzedawał wyłącznie krajom NATO lub „ich partnerom”, takim jak nienależący do NATO członkowie Sojuszu Pięciorga Oczu. Jednocześnie zdawał sobie doskonale sprawę, że kod mógł dostać się w niepowołane ręce. „Z jednej strony robimy wszystko, co w naszej mocy, aby zagwarantować, że nie wyjdzie poza tę agencję” – oświadczył reporterowi. „Z drugiej jednak, jeśli sprzedajesz komuś broń, musisz wziąć pod uwagę, że tracisz nad nią kontrolę”.
Bekrar określił to mianem „transparentności”. Innego zdania byli jego krytycy, zarzucając mu „bezwstydność”. Wśród nich znalazł się Chris Soghoian, zagorzały obrońca prywatności, który porównał Bekrara do „współczesnego handlarza śmiercią” i sprzedawcy „cyberpocisków”. „Vupen nie wie, gdzie wykorzystywane są jego exploity, bo najprawdopodobniej wcale nie chce tego wiedzieć. Najważniejsze, żeby
zgadzały się zera na kontach” – twierdził Soghoian.
Tezy Soghoiana znalazły potwierdzenie trzy lata później, kiedy przecieki ujawniły, że Hacking Team wykorzystywał exploity zero- day Vupena w oprogramowaniu szpiegowskim, które sprzedawał na przykład do Sudanu i Etiopii.
Zainteresowanie mediów sprawiło, że świat jak w soczewce ujrzał działanie obu firm. Europejscy regulatorzy dostrzegli hipokryzję rezydentów siedziby największych handlarzy cyberbronią, którzy równocześnie najostrzej na świecie stają w obronie ochrony prywatności. W krótkim czasie organy administracji cofnęły Hacking Team globalną licencję eksportową. Teraz firma zmuszona była każdorazowo uzyskiwać pozwolenie włoskich władz na sprzedaż oprogramowania szpiegującego na rynku międzynarodowym.
Następny na liście do odstrzału znalazł się Vupen. Po tym jak władze cofnęły mu licencję, Bekrar spakował się i przeniósł swoje biura z Montpelier do globalnej siedziby rynku cyberzbrojeniowego – Waszyngtonu. Biorąc przykład z okrytego złą sławą kontrahenta wojskowego Blackwatera, przemianował Vupen na Zerodium. Uruchomił nową, elegancką stronę internetową i w bezprecedensowym geście opublikował ceny, jakie oferował za exploity zero-day w zamian za milczenie hakerów.
„Pierwszą zasadą branży zero-day jest, aby nie dyskutować publicznie na temat cen” – pisał Bekrar w wiadomościach dla reporterów. „A kuku, niespodzianka! Prezentujemy nasz cennik”. Oferował 80 tysięcy dolarów za exploity dla przeglądarki Chrome Google’a, 100 tysięcy za exploity dla Androida. Najwyższa cena – 500 tysięcy dolarów – została zarezerwowana dla iPhone’a.
Wraz z rosnącą liczbą klientów Zerodium rosły również wypłaty Bekrara. W 2015 roku Zerodium zatweetował ofertę o wartości 1 miliona dolarów za kopalnię złota: zdalny jailbreak iPhone’a, czyli łańcuch exploitów zero-day, które umożliwiłyby jego rządowym klientom zdalne szpiegowanie użytkownika iPhone’a. Do 2020 roku ceny wzrosły i Bekrar oferował już 1,5 miliona dolarów za exploity, które umożliwiały zdalny, bez najmniejszego kliknięcia, dostęp do cudzych wiadomości WhatsAppa oraz iMessage firmy Apple. Jailbreak iPhone’a wycenił na 2 miliony dolarów, a – co ciekawe – jailbreak Androida na 2,5 miliona dolarów.
Exploity do Apple’a przez długi czas przynosiły krocie.
Niektórzy postrzegali zmianę na pozycji lidera jako dowód na to, że bezpieczeństwo Apple’a słabnie. Inni zwrócili uwagę na pewien niuans – jednolity system Androida nie istnieje, gdyż każdy producent dostosowuje go nieco do swoich wymagań. Jailbreak jednego modelu Androida może nie działać na innym, co sprawia, że zdalny atak, który sprawdza się w obrębie wszystkich urządzeń z systemem Android, jest tym bardziej wartościowy.
Taki ruch spotkał się z dużą niechęcią środowiska. Bekrar rozwiał wszelkie wątpliwości co do tego, czy hakerzy dysponują znacznie lepszymi opcjami niż gratyfikacje od Google’a. W związku z tym, że liczba krytycznych błędów zgłaszanych do Google’a zmalała, firma nie miała innego wyjścia, jak po raz kolejny podnieść swoje stawki, i w 2020 roku oferowała najwyższą kwotę za pełny, zdalny jailbreak telefonu z systemem Android, czyli 1,5 miliona dolarów.
Wyścig zbrojeń rozpędzał się na całego. Jednak Google miał jedną wielką przewagę nad każdym Zerodium świata. Pośrednicy żądali milczenia. Łowcy nagród Google’a mieli pełną swobodę prowadzenia otwartej dyskusji na temat swojej pracy, przez co łatwiej było im uniknąć szemranych zakamarków branży.
Nicole Perlroth
Powyższy tekst jest fragmentem książki Nicole Perlroth – Cyberbroń i wyścig zbrojeń wydanej przez wydawnictwo MT Biznes, której recenzję zamieszczamy w tym numerze.
- Autor: Anna Leszkowska
- Odsłon: 1136
Ważne jest, aby zrozumieć, że nie ma ani jednego nowego lub oryginalnego pomysłu w tak zwanym programie Wielkiego Resetu dla świata Klausa Schwaba. Ani jego program Czwartej Rewolucji Przemysłowej nie jest jego twierdzeniem, ani pojęcie kapitalizmu interesariuszy.
Klaus Schwab jest niewiele więcej niż zręcznym agentem PR dla globalnego programu technokratycznego, korporacyjnej jedności władzy korporacji z rządem, w tym ONZ, agendy, której początki sięgają początku lat 70., a nawet wcześniej. Wielki reset w Davos jest jedynie zaktualizowanym planem globalnej dystopijnej dyktatury pod kontrolą ONZ, która rozwijała się od dziesięcioleci. Kluczowymi aktorami byli David Rockefeller i jego protegowany Maurice Strong.
Na początku lat 70. prawdopodobnie nie było nikogo bardziej wpływowego w polityce światowej niż nieżyjący już David Rockefeller, wówczas w dużej mierze znany jako prezes Chase Manhattan Bank.
Tworzenie nowego paradygmatu
Pod koniec lat 60. i na początku lat 70. kręgi międzynarodowe bezpośrednio związane z Davidem Rockefellerem uruchomiły olśniewający wachlarz elitarnych organizacji i think tanków. Należą do nich Klub Rzymski; 1001: A Nature Trust, powiązany z World Wildlife Fund (WWF); sztokholmska konferencja z okazji Dnia Ziemi Organizacji Narodów Zjednoczonych; opracowanie autorstwa MIT, Granice wzrostu; oraz Komisja Trójstronna Davida Rockefellera.
Klub Rzymski
W 1968 David Rockefeller wraz z Aurelio Peccei i Alexandrem Kingiem założył neomaltuzjański think tank The Club of Rome. Aurelio Peccei był starszym menedżerem firmy samochodowej Fiat, należącej do potężnej włoskiej rodziny Agnelli. Gianni Agnelli z Fiata był bliskim przyjacielem Davida Rockefellera i członkiem Międzynarodowego Komitetu Doradczego Chase Manhattan Bank Rockefellera. Agnelli i David Rockefeller byli bliskimi przyjaciółmi od 1957 roku. Agnelli został członkiem-założycielem Komisji Trójstronnej Davida Rockefellera w 1973 roku. Alexander King, szef Programu Naukowego OECD, był także konsultantem NATO. [i] To był początek tego, co stało się neomaltuzjańskim ruchem „ludzie zanieczyszczają”.
W 1971 roku Klub Rzymski opublikował głęboko wadliwy raport Granice wzrostu, który przewidywał koniec cywilizacji, jaką znamy, z powodu szybkiego wzrostu populacji, połączonego ze stałymi zasobami, takimi jak ropa. W raporcie stwierdzono, że bez istotnych zmian w zużyciu zasobów „najbardziej prawdopodobnym rezultatem będzie raczej nagły i niekontrolowany spadek zarówno populacji, jak i zdolności przemysłowych”.
Został on oparty na fałszywych symulacjach komputerowych przeprowadzonych przez grupę informatyków z MIT. Stwierdzono śmiałą prognozę: „Jeśli obecne trendy wzrostu światowej populacji, uprzemysłowienia, zanieczyszczenia, produkcji żywności i wyczerpywania się zasobów pozostaną niezmienione, granice wzrostu na tej planecie zostaną osiągnięte w ciągu najbliższych stu lat”. To był rok 1971.
W roku 1973 Klaus Schwab na swoim trzecim dorocznym spotkaniu liderów biznesu w Davos zaprosił Peccei do Davos, aby zaprezentować „Granice wzrostu” zgromadzonym prezesom korporacji. [ii]
W 1974 roku Klub Rzymski śmiało oświadczył: „Ziemia ma raka, a rakiem jest człowiek”. Następnie: „świat stoi w obliczu bezprecedensowego zestawu zazębiających się globalnych problemów, takich jak przeludnienie, niedobory żywności, wyczerpywanie się zasobów nieodnawialnych [ropy naftowej], zubożenie, degradacja środowiska i złe zarządzanie”. [iii]
Twierdzili, że potrzebna jest „horyzontalna” restrukturyzacja systemu światowego… drastyczne zmiany w warstwie normatywnej – to znaczy w systemie wartości i celach człowieka – są konieczne, aby rozwiązać kryzysy energetyczne, żywnościowe i inne, tj. zmiany społeczne i zmiana postaw indywidualnych jest konieczna, jeśli ma nastąpić przejście do wzrostu organicznego. [iv]
W swoim raporcie z 1974 roku, Mankind at the Turning Point, Klub Rzymski dalej argumentował:
„Rosnąca współzależność między narodami i regionami musi zatem przełożyć się na zmniejszenie niezależności. Narody nie mogą być współzależne bez rezygnacji każdego z nich, a przynajmniej uznania granic własnej niezależności. Nadszedł czas, aby opracować ogólny plan organicznego zrównoważonego wzrostu i rozwoju świata w oparciu o globalną alokację wszystkich skończonych zasobów i nowy globalny system gospodarczy. [v]
To było wczesne sformułowanie Agendy 21 ONZ, Agendy 2030 i Wielkiego Resetu Davos 2020.
David Rockefeller i Maurice Strong
Zdecydowanie najbardziej wpływowym organizatorem programu „zerowego wzrostu” Rockefellera na początku lat 70. był wieloletni przyjaciel Davida Rockefellera, miliarder naftowy Maurice Strong.
Kanadyjczyk Maurice Strong był jednym z głównych wczesnych propagatorów naukowo błędnej teorii, że antropogeniczne emisje CO2 z pojazdów transportowych, elektrowni węglowych i rolnictwa spowodowały dramatyczny i przyspieszony globalny wzrost temperatury, który zagraża „planecie”, tak zwane globalne ocieplenie.
Jako przewodniczący sztokholmskiej konferencji ONZ z okazji Dnia Ziemi w 1972 r. Strong promował program redukcji populacji i obniżenia standardów życia na całym świecie w celu „ratowania środowiska”.
Strong określił swój radykalny program ekologiczny: „Czyż jedyną nadzieją dla planety nie jest upadek cywilizacji uprzemysłowionych? Czy nie jest naszym obowiązkiem doprowadzić do tego? [vi]
To właśnie dzieje się teraz pod przykrywką rozreklamowanej globalnej pandemii.
Strong był ciekawym wyborem na kierowanie główną inicjatywą ONZ mającą na celu zmobilizowanie działań na rzecz środowiska, ponieważ jego kariera i znaczna fortuna zostały zbudowane na eksploatacji ropy naftowej, podobnie jak niezwykła liczba nowych zwolenników „czystości ekologicznej”, takich jak David Rockefellera czy Roberta O. Andersona z Aspen Institute czy Johna Loudona z Shella.
Strong poznał Davida Rockefellera w 1947 roku jako kanadyjski osiemnastolatek i od tego momentu jego kariera została powiązana z siecią rodziny Rockefellerów.[vii] Dzięki nowej przyjaźni z Davidem Rockefellerem, Strong w wieku 18 lat otrzymał kluczowe stanowisko w ONZ pod egidą skarbnika ONZ Noah Monoda. Fundusze ONZ były wystarczająco wygodnie obsługiwane przez Chase Bank Rockefellera. Był to typowy model „partnerstwa publiczno-prywatnego”, który miał być wdrożony przez Stronga — prywatny zysk od rządu publicznego. [viii]
W latach 60. Strong został prezesem ogromnego konglomeratu energetycznego i firmy naftowej w Montrealu, znanej jako Power Corporation, wówczas należącej do wpływowego Paula Desmaraisa. Według kanadyjskiej badaczki Elaine Dewar, Power Corporation była podobno również wykorzystywana jako fundusz polityczny do finansowania kampanii wybranych kanadyjskich polityków, takich jak Pierre Trudeau, ojca protegowanego z Davos Justina Trudeau. [ix]
Szczyt Ziemi I i Szczyt Ziemi w Rio
W 1971 Strong został mianowany podsekretarzem ONZ w Nowym Jorku i sekretarzem generalnym zbliżającej się konferencji Dnia Ziemi, Konferencji Narodów Zjednoczonych w sprawie Środowiska Człowieka (Szczyt Ziemi I) w Sztokholmie w Szwecji. W tym samym roku został również powołany jako powiernik Fundacji Rockefellera, która sfinansowała uruchomienie projektu Sztokholmskiego Dnia Ziemi.[x] W Sztokholmie utworzono Program Ochrony Środowiska Narodów Zjednoczonych (UNEP), na czele którego stanął Strong.
W 1989 r. Strong został mianowany przez Sekretarza Generalnego ONZ na przewodniczącego Konferencji ONZ w sprawie Środowiska i Rozwoju (UNCED) w 1992 r. ( „Szczyt Ziemi w Rio II” ). Nadzorował tam opracowywanie celów ONZ „Zrównoważonego Środowiska”, Agendy 21 na rzecz Zrównoważonego Rozwoju, która stanowi podstawę Wielkiego Resetu Klausa Schwaba, a także utworzenie Międzyrządowego Zespołu ds. Zmian Klimatu (IPCC) ONZ. Strong, który był również członkiem zarządu Davos WEF, zaaranżował, aby Schwab służył jako kluczowy doradca na Szczycie Ziemi w Rio.
Jako Sekretarz Generalny Konferencji ONZ w Rio, Strong zamówił również raport Klubu Rzymskiego, Pierwsza Globalna Rewolucja, autorstwa Alexandra Kinga, który przyznał, że twierdzenie o globalnym ociepleniu CO2 było jedynie wymyślonym podstępem do wymuszenia zmian:
„Wspólnym wrogiem ludzkości jest człowiek. Poszukując nowego wroga, który nas zjednoczy, wpadliśmy na pomysł, że zanieczyszczenie, groźba globalnego ocieplenia, niedobory wody, głód i tym podobne będą do tego rachunku pasować. Wszystkie te zagrożenia są spowodowane interwencją człowieka i tylko poprzez zmianę postaw i zachowań można je przezwyciężyć. Prawdziwym wrogiem jest więc sama ludzkość”. [xi]
Delegat prezydenta Clintona w Rio, Tim Wirth, przyznał to samo, stwierdzając: „Musimy zająć się problemem globalnego ocieplenia. Nawet jeśli teoria globalnego ocieplenia jest błędna, będziemy postępować właściwie, jeśli chodzi o politykę gospodarczą i politykę środowiskową”. [xii]
W Rio Strong po raz pierwszy przedstawił manipulacyjną ideę „zrównoważonego społeczeństwa” zdefiniowaną w związku z tym arbitralnym celem eliminacji CO2 i innych tak zwanych gazów cieplarnianych. Agenda 21 stała się Agendą 2030 we wrześniu 2015 roku w Rzymie, z błogosławieństwem Papieża, z 17 „zrównoważonymi” celami. Deklarowano w niej m.in.:
„Ziemia, ze względu na swój wyjątkowy charakter i kluczową rolę, jaką odgrywa w osadnictwie ludzkim, nie może być traktowana jako zwykłe dobro, kontrolowane przez jednostki i podlegające presji i nieefektywności rynku. Prywatna własność ziemi jest również głównym instrumentem akumulacji i koncentracji bogactwa, a zatem przyczynia się do niesprawiedliwości społecznej… Sprawiedliwość społeczna, odnowa miast i rozwój, zapewnienie przyzwoitych mieszkań i zdrowych warunków dla ludzi można „osiągnąć tylko wtedy, gdy ziemia jest użytkowana w interesie całego społeczeństwa”.
Krótko mówiąc, prywatna własność ziemi musi zostać uspołeczniona dla „społeczeństwa jako całości”, idei dobrze znanej w czasach Związku Radzieckiego i kluczowej części Wielkiego Resetu Davos.
W Rio w 1992 roku, gdzie był przewodniczącym i sekretarzem generalnym, Strong oświadczył:
„Oczywiste jest, że obecny styl życia i wzorce konsumpcji zamożnej klasy średniej – obejmujące wysokie spożycie mięsa, konsumpcję dużych ilości mrożonej i wygodnej żywności, korzystanie z paliw kopalnych, urządzeń, klimatyzacji w domu i miejscu pracy oraz podmiejskiego budownictwa mieszkaniowego są niezrównoważone” [xiii].
W tym czasie Strong znajdował się w samym centrum transformacji ONZ w narzędzie do narzucania nowego globalnego „paradygmatu” technokratycznego ukradkiem, używając straszliwych ostrzeżeń przed zagładą planety i globalnym ociepleniem, łącząc agencje rządowe z władzą korporacji w ramach niewybieralnej kontroli prawie wszystkiego, pod przykrywką „zrównoważonego rozwoju”.
W 1997 r. Strong nadzorował tworzenie planu działania po Szczycie Ziemi, Globalnej Oceny Różnorodności, planu wdrożenia Czwartej Rewolucji Przemysłowej, spisu wszystkich zasobów na planecie, sposobu ich kontrolowania i sposobu, w jaki ta rewolucja zostanie osiągnięta.[xiv]
W tym czasie Strong był współprzewodniczącym Światowego Forum Ekonomicznego Klausa Schwaba w Davos.
W 2015 roku po śmierci Stronga założyciel Davos Klaus Schwab napisał:
„Był moim mentorem od momentu powstania Forum: wspaniały przyjaciel; niezastąpiony doradca; i przez wiele lat członek Rady Fundacji.” [xv]
Zanim opuścił ONZ w związku z irackim skandalem korupcyjnym Food-for-Oil, Strong był członkiem Klubu Rzymskiego, Powiernikiem Aspen Institute, Powiernikiem Fundacji Rockefellera i Fundacji Rothschilda. Strong był także dyrektorem Temple of Understanding of the Lucifer Trust (aka Lucis Trust) mieszczącej się w katedrze św. Jana Bożego w Nowym Jorku, „gdzie pogańskie rytuały obejmują eskortowanie owiec i bydła do ołtarza po błogosławieństwo. Tutaj wiceprezydent Al Gore wygłosił kazanie, gdy wierni maszerowali do ołtarza z miskami kompostu i robakami…” [xvi]
To mroczny początek programu Wielkiego Resetu Schwaba, w którym powinniśmy jeść robaki i nie mieć własności prywatnej, aby „ratować planetę”. Program jest mroczny, dystopijny i ma na celu wyeliminowanie miliardów z nas, „zwykłych ludzi”.
F. William Engdahl
Global Research, 25 października 2022
*
F. William Engdahl jest konsultantem ds. ryzyka strategicznego i wykładowcą, ukończył studia polityczne na Uniwersytecie Princeton i jest autorem bestsellerów na temat ropy naftowej i geopolityki. Jest pracownikiem naukowym Centrum Badań nad Globalizacją (CRG).
Uwagi:
[i] Biografie członków 1001 Nature Trust, Gianni Agnelli , dostęp pod adresem http://www.bibliotecapleyades.net/sociopolitica/sociopol_1001club02.htm
[ii] Klaus Schwab, Światowe Forum Ekonomiczne: partner w kształtowaniu historii – pierwsze 40 lat: 1971 – 2010, 2009, Światowe Forum Ekonomiczne, s. 15, https://www3.weforum.org/docs/WEF_First40Years_Book_2010.pdf
[iii] Cytat z Raportu Klubu Rzymskiego, Mankind at the Turning Point , 1974, cytowany w http://www.greenagenda.com/turningpoint.html
[iv] Tamże.
[v] The Club of Rome, Mankind at the Turning Point , 1974, cytowany w Brent Jessop, Mankind at the Turning Point – Part 2 – Create A One World Consciousness , dostęp pod adresem http://www.wiseupjournal.com/?p =154
[vi] Maurice Strong, Przemówienie otwierające szczyt ONZ w Rio , Rio de Janeiro, 1992, dostęp pod adresem http://www.infowars.com/maurice-strong-in-1972-isnt-it-our-responsibility-to- upadek-stowarzyszeń-przemysłowych/
[vii] Elaine Dewar, Cloak of Green: The Links pomiędzy kluczowymi grupami środowiskowymi, rządem i wielkim biznesem , Toronto, James Lorimer & Co., 1995, s. 259-265.
[viii] Brian Akira, LUCYFER'S UNITED NATIONS, http://www.fourwinds10.com/siterun_data/religion_cults/news.php?q=1249755048
[ix] Elaine Dewar, op.cit. p. 269-271.
[x] Tamże, s. 277.
[xi] Czym jest Agenda 21/2030 Kto za tym stoi? Wstęp, https://sandiadams.net/what-is-agenda-21-introduction-history/
[xii] Larry Bell, Agenda 21: Szczyt Ziemi ONZ ma głowę w chmurach, Forbes, 14 czerwca 2011, https://www.forbes.com/sites/larrybell/2011/06/14/the-uns -Ziemia-szczyt-ma-swoją-głową-w-chmurach/?sh=5af856a687ca
[xiii] John Izzard, Maurice Strong, Climate Crook, 2.12.2015, https://quadrant.org.au/opinion/doomed-planet/2015/12/discovering-maurice-strong/
[xiv] Czym jest Agenda 21/2030 Kto za tym stoi? Wstęp, https://sandiadams.net/what-is-agenda-21-introduction-history/
[xv] Maurice Strong Docenienie, Klaus Schwab, 2015, https://www.weforum.org/agenda/2015/11/maurice-strong-an-appreciation
[xvi] Dr Eric T. Karlstrom, ONZ, Maurice Strong, Crestone/Baca, CO i „New World Religion”, wrzesień 2017, https://naturalclimatechange.org/new-world-religion/part-i /
Tekst pochodzi z portalu Global Research i jest dostępny pod linkiem:
https://www.globalresearch.ca/dark-origins-davos-great-reset/5797113
- Autor: Anna Leszkowska
- Odsłon: 6240
Z prof. Markiem Banaszkiewiczem, dyrektorem Centrum Badań Kosmicznych PAN rozmawia Anna Leszkowska
- Panie profesorze, wkrótce wyleci w kosmos nasz pierwszy satelita Lem – czy można wobec tego mówić o polskim programie satelitarnym?
- Chcielibyśmy o nim mówić i jesteśmy przygotowani do podjęcia tego tematu – wiemy co możemy i chcemy zrobić i wiemy, co może się Polsce przydać. Ale oprócz chęci jest tu potrzebna wola polityczna i finanse. Dzięki MNiSW powstały dwa satelity za ok. 14 mln zł., ale to są działania jednostkowe, bo żadne państwo nie planuje budowy kilkunastu, czy kilkudziesięciu satelitów, jeśli nie ma z góry określonego zapotrzebowania na nie.
-
Nam np. przydałaby się informacja satelitarna dotycząca sytuacji kryzysowych i z obszarów działania naszego wojska. I jest tu pytanie: czy budować w tym celu własnego satelitę, czy kupować zdjęcia. Sądzę, że plan budowy własnego satelity byłby sensowniejszy, bo koszty zakupu zdjęć są wyższe niż jego zrobienie.
- To może należałoby mówić szerzej, o programie kosmiczny
- Taki program jest chyba gotowy w ministerstwie gospodarki, bo jego projekt był podstawą do podjęcia decyzji o przystąpieniu do negocjacji Polski z ESA. Nie mówi się w nim wprost o budowie satelity, raczej o obszarach działania, które może wspierać satelita. Są to głównie misje naukowe, w których jesteśmy dobrzy i zakotwiczeni w ESA. Zwłaszcza dość opłacalna budowa instrumentów, jednakże w skali programu ESA, czy nawet naszego, nie stanowiąca dużego udziału. Są to jednak nasze technologie.
Następnym obszarem są obserwacje Ziemi – duży program europejski Global Monitoring for Environment and Security (GMES), mający kosztować 800 mln euro rocznie, z czego 600 mln ma być przeznaczone na satelity. I do niego, niestety, nie mogliśmy się do tej pory włączyć, gdyż jednym z wymagań uczestnictwa jest wykazanie się doświadczeniem (heritage), pokazanie, że już się coś w tej dziedzinie robiło. Tutaj bardzo nam się przyda nasz Lem i Heweliusz, które pokażą nasze umiejętności i umożliwią nam konkurowanie z firmami, które takie doświadczenie już mają.
Ale niezależnie od budowy satelitów, możemy brać udział w świadczeniu usług kosmicznych, także w programie Galileo, czy programie FSS (Fixes Service Structure), związanym z kosmiczną infrastrukturą wokółziemską, która wymaga coraz większej ochrony z uwagi na rosnące jej znaczenie dla życia na naszej planecie. To są systemy nawigacyjne, obserwacji Ziemi, telekomunikacyjne. Mamy kilka firm i instytuty, które mogą w tej dziedzinie pracować.
I czwarty obszar, program europejski, w jakim moglibyśmy działać, to eksploracja – kosmosu - misje do Księżyca, Marsa, asteroidów, które przejdą z fazy naukowej do komercyjnej. Nie myślę tu o misjach załogowych, bo to zbyt trudne i kosztowne, ale o robotach, które mogłyby tam wylądować i robić takie prace eksploracyjne jak analiza geologiczna, ustalanie punktów referencyjnych w odniesieniu do nawigacji, itp.
- Czy wiadomo jak będą się kształtowały nakłady na te badania w świetle kryzysu oraz innego podziału budżetu unijnego od 2014 roku?
- Polski rząd musiałby zdecydować, czy wspiera innowacje (a programy kosmiczne należą do innowacyjnych), czy dopłaty dla rolników. Tu trzeba coś wybrać, bo taki wybór stawia przed nami Bruksela. Ze strony europejskiej na pewno na pierwszym miejscu do finansowania ze wspólnych pieniędzy jest program Galileo* – z uwagi na stopień zaawansowania, opóźnienie, itd. Natomiast GMES , który cały czas ma status flagowego programu UE, został zgłoszony do perspektywy finansowej, ale mówi się o dosyć nieokreślonych źródłach jego finansowania - może z krajów członkowskich, może dodatkowych przychodów unijnych To wygląda nieciekawie, bo ten program jest mocno rozpędzony, już pochłonął 3 mld euro i jego zahamowanie byłoby niebezpieczne, szczególnie dla nas. -
- Bo liczyliśmy na nasze uczestnictwo w GMES, skoro Galileo jest poza naszymi możliwościami?
- Do tej pory robiliśmy w GMES to, co mogliśmy. Satelity GMES nie są wyrafinowane pod względem naukowo-badawczym, ani technologicznym. One muszą być przede wszystkim niezawodne, czyli oparte na sprawdzonych rozwiązaniach, zatem jest to zadanie odpowiednie dla przemysłu, a nie dla CBK, zwłaszcza, że w Polsce taki przemysł istnieje. W GMES zaplanowano 5 satelitów pierwszej z trzech 7-letnich generacji, czyli będzie co robić przez co najmniej 30 lat. Obecnie buduje się dwa pierwsze.
- My mamy w tym jakiś udział?
- Właśnie nie mamy, bo brakuje nam przemysłowego doświadczenia (owego heritage). Obecnie przemysł zainteresował się tym z powodu perspektywy wejścia Polski do ESA, oraz dlatego, iż program kosmiczny jest traktowany jako koń pociągowy innowacji w Europie. Wydaje się także, że nastąpił pewien przełom mentalny wśród polityków. Ustępują chyba kompleksy, jakie mamy w związku z badaniami i eksploracją kosmosu, obawy, że tego nie potrafimy, nie mamy szans, nie stać nas, po co nam to. Młoda generacja już takich kompleksów nie ma, a jednocześnie ma aspiracje, które chce realizować w Polsce. Trzeba wierzyć, że się potrafi i można się przebić. Druga sprawa – trzeba znaleźć obszar, w który chce się wejść i zainwestować pieniądze. I to jest zadanie zarówno dla sfery naukowej jak i gospodarczej. Dotychczas barierą jest organizacja i pieniądze, które ostatnio napływały ze środków strukturalnych. Czy zostały dobrze zainwestowane – okaże się dopiero po zakończeniu tego okresu finansowego.
- Jednak ciągle wielką słabością Polski jest brak rodzimych technologii i nieumiejętność korzystania z pieniędzy wspólnotowych przez przemysł.
- Bo przez ostatnie lata napłynęły do nas ogromne pieniądze w postaci funduszy strukturalnych, przy których unijne programy badawcze były tylko ułamkiem ich wielkości. Drugą przyczyną jest brak tradycji współpracy przemysłu z nauką. Może to się zmieni, gdyż przychodzi młode pokolenie menedżerów, które zdaje sobie sprawę z konieczności takiej współpracy. Barierą dodatkową jednak jest fakt, iż niektóre dziedziny przemysłu już nie są nasze, są poza polską kontrolą, jak np. przemysł lotniczy. Trudno zatem stworzyć wspólny program, w którym firma amerykańska dogaduje się z francuską czy kanadyjską, bo to wymagałoby porozumienia globalnego. W dodatku polskie oddziały tych firm mają zapewne ograniczoną suwerenność. Łatwiej natomiast jest się dogadywać tam, gdzie są małe przedsiębiorstwa. Dlatego tym obszarem, w którym mamy największe szanse są usługi. Bo tutaj mamy polskie nieduże firmy, liczące 20-50 osób, które wchodzą w projekty europejskie i polskie.
- Czyli trzeba powrócić do wspierania małych firm i na nich budować przemysł kosmiczny i lotniczy?
- Trzeba budować wiele różnych dróg do uzyskania założonego celu, bo nie wiadomo, która okaże się najbardziej efektywna. Małe firmy są najłatwiejsze do wspierania, bo są najbardziej dynamiczne, elastyczne, głodne sukcesu i nie trzeba tu wielkich pieniędzy, żeby osiągnąć sukces. Ale i duży przemysł też ma swoje atuty: dobrze ustawioną infrastrukturę, jest zorganizowany, ma klientów. Trzeba go tylko restrukturyzować i też wciągać w obszar kosmicznej działalności.
W Europie obecnie działają dwie duże firmy kosmiczne zgarniające gros „prime contracts” – EADS ASTRIUM - francusko-niemiecko-belgijsko-hiszpańsko-angielska (my jesteśmy w niej partnerem drugiej linii) oraz francusko-włoska ALENIA. Niemcy tworzą trzeci ośrodek w Bremie, OHB , w którym budują część satelitów Galileo. To jest próba stworzenia niemieckiego, narodowego ośrodka przemysłu kosmicznego, z czego powinniśmy wyciągać wnioski. To są firmy zatrudniające po 10 -15 tys. ludzi (OHB ma na razie 1,5 tysiąca, ale rośnie). W drugiej linii jest 10 firm europejskich zatrudniających od 500 do 1000 osób – one działają w różnych obszarach aktywności kosmicznej. I dopiero w trzeciej linii są te małe. Jest to dobrze ułożony i dobrze zintegrowany przemysł, głównie z tego powodu, że nie jest to działalność czysto rynkowa – po pierwsze z uwagi na geograficzny zasięg i strategiczne znaczenie. Państwa muszą tu trzymać rękę na pulsie i kontrolować to, co się w nim dzieje, bo to jest i wojsko, i dostęp do informacji strategicznych, itd. Dlatego tego runku nikt nie uwolni.
Co wobec tego powinniśmy robić? Musimy budować narodowy segment kosmiczny, żeby w pewnym momencie móc się gdzieś do któregoś z dużych partnerów przyłączyć - na naszych warunkach.
- Co to znaczy narodowy segment kosmiczny?
- Musimy odzyskiwać - poprzez firmy małe, duże i sektor badawczy - pieniądze wkładane do ESA. Niestety, w ESA nie mamy swobody wyboru, w co jesteśmy angażowani – bo to trzeba negocjować. Niemcy np. mogą nam powiedzieć, że nie możemy robić radarów, bo to oni robią. Mogą nam wobec tego zostać przydzielone prace, których nie mamy ochoty wykonywać. W związku z tym, potrzebny jest nam narodowy program kosmiczny, który by budował naszą potęgę w tych dziedzinach, które uważamy za ważne. Jeśli np. wojsko chce budować satelity optyczne, które są mu potrzebne w akcjach wojskowych za granicą, to wiadomo, że tego w ESA nie zrealizujemy. Jeśli np. uznajemy, że przyszłością rozwoju aktywności kosmicznej jest uzyskiwanie energii z kosmosu, a nie wiadomo czy ESA ma takie plany, to powinniśmy robić to w programie narodowym (nie bardzo kosztownym), żeby sobie przygotować przyczółki na przyszłość.
Załóżmy, że taki przemysł powstanie w oparciu o fundusze narodowe i z ESA, że będzie to połączenie firm lotniczych i zbrojeniowych, zatrudniających np. 1000 osób, czyli niemała firma jak na polski rynek, ale w Europie nieduża. Będzie wówczas możliwość decyzji, czy powinna być samodzielna, czy podłączyć się pod duże firmy europejskie. Bo nie stać nas, aby stworzyć w najbliższym czasie wielką firmę z tego obszaru – z uwagi na brak kadry, pieniędzy oraz kontrolowany rynek światowy. Ale jeśli stworzymy – nawet nieduży - przemysł kosmiczny, to pokażemy, że opanowaliśmy jedną z najtrudniejszych dziedzin, trudne technologie, jesteśmy innowacyjni. Obecnie w sferze badawczej pracuje ok. 400 osób, a sfera przemysłu zwykle jest 10 razy większa.
- Jednak budowa takiego sektora to są wielkie pieniądze...
- Jeden inżynier w europejskim przemyśle kosmicznym ma przerób roczny średnio 170 tys. euro – tyle wypada na osobę w kontraktach. A kiedy patrzy się na to, ile się inwestuje w sferze badawczej w dużych ośrodkach narodowych, to jest ok. 100 tys. euro. Te 170 tys. euro to dwa razy wyższa średnia niż w przemyśle innym niż kosmiczny. Tu się zatem dużo przerabia i dużo zarabia. Gdyby udział Polski w europejskim przemyśle kosmicznym miał być proporcjonalny do jej potencjału demograficznego, to powinniśmy mieć 2-3 tys. ludzi w tym sektorze (część w sferze badawczej, część w przemyśle), co powinno nas kosztować 0,25 mld rocznie. Nie jest to mała kwota, ale mówimy o perspektywie 10 lat. To jest tyle mniej więcej, ile inwestuje obecnie Hiszpania czy Wielka Brytania (350 – 400 mln euro rocznie). Niemcy, Włosi, inwestują po 1 mld euro rocznie, a Francja – 2 mld euro.
- W jaki sposób powinniśmy zacząć tworzyć taki sektor?
- Uważam, że trzeba to robić nie na hura, ale w sposób przemyślany, sprawdzić, gdzie warto się angażować. Na pewno nie warto wchodzić w segment rakietowy – jest za drogi i nas na to nie stać. Nawet na małe rakiety, bo na nie trzeba wydać na „dzień dobry” ok. 100 mln euro, żeby stworzyć tylko instalacje. I skąd mielibyśmy je wystrzeliwać? Poza tym do budowania rakiet trzeba armii ludzi – w Europie pracuje przy rakietach ok. 10 tys. osób. Robimy zatem satelity, które tanieją.
Duże misje kosmiczne są poza naszym zasięgiem, kosztują miliard euro, dlatego nawet bogate kraje dzielą się kosztami. Misje narodowe są tańsze – te najbardziej ambitne, jakie robi Francja czy Niemcy, kosztują ok. 300-400 mln euro. Misje komercyjne, jakie robią Amerykanie czy Brytyjczycy są jeszcze tańsze – ok. 20 mln euro. I tu jest miejsce dla Polski, bo my możemy robić satelity równie dobrze i jeszcze taniej - wystarczy mieć hale – np. takie, jakie ma Instytut Lotnictwa i 50 inżynierów, trochę podwykonawców. Ale oczywiście na to musi być rynek. My nie możemy przecież robić satelity co roku, bo kto to kupi? Żywotność satelitów Galileo ocenia się na 5-7 lat – czyli po tym czasie potrzebne będą następne, nowszej generacji. To jest praktycznie taśma produkcyjna. Możliwe, że za parę lat pojawi się następna generacja satelitów obserwacyjnych. Dzisiaj każdy z nich nad jednym punktem przelatuje co 3 dni, tymczasem może ludzie będą chcieli mieć świeżą informację codziennie lub kilka razy dziennie – wówczas trzeba mieć takich satelitów 30.
- Tyle żelastwa na orbicie???
- Toteż musi być tu jakiś porządkowy, który je będzie mógł usuwać po zakończeniu jego misji czy w przypadku uszkodzenia. Tu też jest więc nisza dla przemysłu kosmicznego. Za 20 lat np. skończą się metale ziem rzadkich, na których oparte są wszystkie technologie kosmiczne. Na Ziemi pewnie są, ale bardzo głęboko, zatem może bardziej opłaci się polecieć po nie na asteroidy, gdzie tych metali jest 100 tys. razy więcej w metrze sześciennym niż na Ziemi.
- Jaką rolę winny pełnić w tym sektorze – w kraju i Europie – nasze placówki i centra badawcze, np. Geoplanet, czy być może przyszła platforma CBK z Instytutem Lotnictwa?
- Nasza rola polega na wykorzystaniu faktu, iż jesteśmy w tej chwili jedynym ośrodkiem, który ma kompleksową wiedzę o tym, jak funkcjonuje ten sektor w Europie i na świecie – zarówno od strony technologicznej, naukowej, organizacyjnej i politycznej. W związku z tym, naszym zadaniem jest rozpropagować tę wiedzę, inaczej nasze wstępowanie do ESA będzie bolesne i długie. Jako instytut jesteśmy w dość niefortunnej sytuacji – właśnie z powodu niejasnego ulokowania; mamy bowiem część nauk podstawowych, część stosowanych, też wdrożenia. Prowadzimy badania podstawowe z matematyki, fizyki, astronomii, robimy instrumenty i mamy część nauk o Ziemi – bo prowadzone są obserwacje Ziemi z kosmosu. I w tych trzech działach uczestniczymy niezależnie – w części „ziemskiej” działamy w ramach Geoplanet, w technologicznej – chcemy otworzyć razem z Instytutem Lotnictwa i PIAP centrum rozwoju technologii kosmicznych. Są także uczelnie, które mogą wchodzić w konsorcja techniczne, ale i przygotowują kadry. I trzecia noga – nauka, nisza, w której polskie kompetencje są niepodważalne, a można by je było wesprzeć technologicznie – czyli CAMK i cała sfera fizyki wysokich energii z Krakowa czy wrocławska grupa od promieniowania rentgenowskiego. Tu możemy w ciągu 10 lat odegrać rolę wiodącą w tej dziedzinie. Już dzisiaj pokazujemy, że w Polsce też potrafimy wiele rzeczy robić i w dodatku w ramach niedużych pieniędzy budżetowych, bo dużą część funduszy zdobywamy z programów europejskich.
Dziękuję za rozmowę.
* dwa pierwsze satelity Galileo zostały wyniesione na orbitę 20.10.2011
- Autor: Anna Leszkowska
- Odsłon: 1692
Z prof. Piotrem Perlinem z Instytutu Wysokich Ciśnień PAN rozmawia Anna Leszkowska
- Panie Profesorze, jeden z portali ostatnio podał, iż konsorcjum MEADS International przedstawiło MON swoją ofertę dla programu obrony powietrznej „Wisła”. Propozycje współpracy przemysłowej objęły między innymi transfer do Polski technologii azotku galu (GaN), którą my posiadamy. Jak to więc jest: w Instytucie Wysokich Ciśnień PAN – a później i w firmie Ammono - tę technologię wiele lat temu stworzono i opanowano, a teraz zamierzamy ją kupić od Amerykanów?
- Wątpię w amerykańską propozycję przekazania technologii azotkowych do Polski. Z kontekstu wynikałoby, że chodzi o technologię tranzystorów azotkowych wysokich częstości, technologii o dużym znaczeniu militarnym. Takich technologii Amerykanie z zasady nie transferują. Wiele lat temu, przez jakiś czas negocjowaliśmy formy amerykańskiego wsparcia w offsecie F16. W momencie, gdy doszło do rozmów o transferze istotnych technologii Amerykanie natychmiast się wycofali.
Rzeczywiście, Amerykanie mają u siebie kilka wiodących na świecie firm działających w obszarze tak zwanej elektroniki mikrofalowej (elektronika dla radarów) opartej o azotek galu. Jednak ta branża jest traktowana w USA jako strategiczna. Na marginesie, interesujące wyniki w tej dziedzinie uzyskane były również przez polskie konsorcjum badawcze złożone z IWC PAN, Instytutu Technologii Elektronowej i Politechniki Warszawskiej.
- Ale wojsko nie zwracało się do IWC PAN w tej sprawie?
- Wspomniane wyżej konsorcjum badawcze miało kontakt z polskim przemysłem zbrojeniowym. Mamy nadzieję, że te kontakty będą się rozwijać. Ale polska część historii nie zaczęła się od tranzystorów, ale od kryształów azotku galu. To ta technologia pozwoliła na wytworzenie w Polsce (już prawie 20 lat temu) laserów emitujących światło fioletowe i niebieskie. Ich produkcje do dziś rozwija nasza firma TopGaN.
Jeśli jednak patrzymy na świat, to liczy się przed wszystkim ogromny przemysł wytwarzający diody elektroluminescencyjne (LED) na bazie azotków. Ten wielomiliardowy przemysł produkujący między innymi białe żarówki LED-owe, skupiony jest głównie w Japonii, na Tajwanie, Stanach Zjednoczonych. W Europie to tylko Philips Lumileds i niemiecki Osram. W tym przemyśle nie widzimy polskich akcentów. Jednak w laserach (choć w liczbach bezwzględnych nie jesteśmy potęgą) jesteśmy znani z innowacyjnych produktów TopGaN-u i z wysokiej jakości podłoży GaN wytwarzanych przez podwarszawską firmę Ammono.
- Kiedy powstała u nas technologia tworzenia kryształów GaN, panowała euforia, że oto możemy zawojować nią świat i zdobyć ok. 2% światowego rynku laserów półprzewodnikowych …
- Może i mogliśmy, bo startowaliśmy dość wcześnie w porównaniu z innymi. Trzeba jednak zdać sobie sprawę, że grant strategiczny, który był pierwszym krokiem w stronę praktycznych technologii, był relatywnie skromny. Kwota około 27 milionów złotych rozłożona na 3 lata została przeznaczona na opracowanie detektorów ultrafioletu (Instytut Technologii Materiałów Elektronicznych – ok 12.5 mln zł) i technologii laserów (dzisiejszy IWC PAN 12, 5 mln zł). Mniejsze kwoty otrzymał też Lumel z Zielonej Góry i WAT.
12,5 mln zł to około 3 mln dolarów, kwota niewiele przewyższająca koszty jednego reaktora epitaksjalnego. Umożliwiła ona demonstrację wczesnych prototypów. Koszty prawdziwego wdrożenia są minimum 20 razy większe. Tylko dzięki prywatnemu inwestorowi, który zainwestował w firmę TopGaN (założoną po demonstracji lasera) sporo pieniędzy, była szansa na stopniową komercjalizację tych badań. Warto tu zdać sobie sprawę, że czas rozwoju nowoczesnych technologii jest długi, zwykle kilkanaście lat w sytuacjach, gdy chodzi o oryginalne technologie współczesnej optoelektroniki.
- Po latach od zakończenia tamtego programu jesteśmy mądrzejsi, ale w dalszym ciągu nie mamy tak dużych pieniędzy, ani zespołów badawczych, które umożliwiłyby sukces podobnie nowatorskiej technologii. Czy zatem jest sens startować w wyścigu z najlepszymi?
- Warto przypomnieć, że niestety, w momencie startu projektu niebieskiego lasera w 1999 roku istniały już – i to nienajgorsze - lasery japońskie. Na samym początku mieliśmy do Japończyków ok. 5 lat opóźnienia i za świetny wynik uważamy, to że to późnienie wzrosło tylko trochę przy kilkudziesięciokrotnej różnicy w nakładach na B+R. Firma japońska weszła na rynki masowe, ale to nie zamyka przed nami wiele szans takich jak rynki niszowe i wyłaniające się.
- Ale do ich zajęcia potrzebny jest też przemysł, którego u nas nie ma. Co z tego, że zrobimy unikatową technologię, skoro nie będzie jej gdzie wdrożyć… Gdzie firmy umiejące wytwarzać azotek galu, jak np. Ammono, miałyby to robić na skalę przemysłową?
- Kręcimy się, w jakimś sensie w zaklętym kręgu, pomiędzy skromnymi funduszami badawczymi, nie istniejącym przemysłem wysokich technologii i nieufnymi funduszami venture capital. Mamy kłopoty z kreowaniem ultranowoczesnego przemysłu, casus spółki Ammono wyraźnie to pokazuje.
Nasz wielki nowoczesny (może średnio nowoczesny) przemysł oparty jest na transferze know-how międzynarodowych firm. Ale nikt nie przenosi i nie przeniesie do Polski tego, co najnowocześniejsze, najdroższych i najbardziej opłacalnych technologii. To musimy zrobić sami. Niestety, nie wiemy jak to zrobić. Brakuje nawet mapy możliwości i świadomości, gdzie są nasze szanse. A znalazłoby się na pewno parę dziedzin, być może niszowych, w których moglibyśmy zabłysnąć. Rozwiązaniem mógłby być mechanizm „risk sharing” (podział ryzyka), wspólne inicjatywy inwestycyjne państwowo-prywatne.
- Tymczasem Ammono już nie ma. A była to firma z wszystkimi widokami na sukces: powstała dzięki kapitałowi japońskiemu, rozwijała się i nagle upadła.
- Ammono jest w fazie upadłości likwidacyjnej, ale ciągle istnieje, stąd mamy nadzieję na lepszą przyszłość tej firmy. Upadłość wynikła z braku kapitału i poniekąd z niecierpliwości inwestora nieprzyzwyczajonego do długiego dochodzenia do produktu w firmach technologicznych. Trzeba pamiętać, że hi-tech nie polega na tym, że przynosi natychmiastowe zyski. Tu trzeba długo i cierpliwie inwestować.
Ammono ma przed sobą zarówno bariery jakościowe (podłoże o odpowiednich dla przemysłu rozmiarach) jak i ilościowe – produkcja tysięcy sztuk kryształów. Dla mnie jednak Ammono wiązać się będzie zawsze z widokiem sal konferencyjnych podczas referatów przedstawicieli tej firmy. Zwykle głęboko śpiący Japończycy, budzili się i zaczynali nerwowo notować. Wszystkich nas cieszył ten widok.
Podłoża azotkowe adresowane są obecnie do wąskiego kręgu odbiorców - producentów laserów (dominacja firm japońskich). To była dodatkowa bariera wejścia na ten rynek dla firm takich jak Ammono. Ale sytuacja się zmienia. Świat technologii azotku galu rośnie, a wraz z nim popyt na kryształy azotku galu również dla tranzystorów.
Rozbudowa firm typu Ammono nie jest jednak w Polsce sprawą oczywistą. Lokalny venture capital nie ma na to pieniędzy, a fundusze międzynarodowe uważają inwestowanie w Polsce za ryzykowne ze względu na brak tradycji i infrastruktury.
Azotki uważane są w tej chwili za najbardziej obiecujący system półprzewodnikowy. Wiadomo, że nie wyprą krzemu z zastosowań w zintegrowanej elektronice (mikroprocesory), ale w elementach dyskretnych wysokiej mocy jest duża szansa na masową penetrację rynku przez elektronikę azotkową. Czy tę szansę uda nam się jakoś wykorzystać?
- Ale kto w Polsce ma robić ten azotek galu?
- Podłoża z azotku galu może robić Ammono, jeśli przeżyje. Technologia Ammono współdziała też z innymi technologiami wzrostu opracowanymi w IWC PAN, prowadząc do demonstracji ultrawysokiej jakości materiału. Tak więc szanse są. Trzeba jednak myśleć długofalowo. Wystarczy popatrzeć na Koreę Południową, która kiedyś startowała ze znacznie niższego punktu rozwoju niż Polska. Decyzja stawiająca na przemysł elektroniczny mogła być więc traktowana jako szalona, zwłaszcza, że w Japonii była Sony, Panasonic, Sharp, Toshiba, z którymi trudno było konkurować. Ale była wizja, cierpliwość i ciężka praca, dzięki czemu dziś to Japończycy zielenieją na widok wyrobów Samsunga. Więc może nadszedł czas zainwestowania i u nas w coś nowoczesnego, co mogłoby za 20 lat wynieść nas na szczyty.
- Temu ma służyć plan wicepremiera Morawieckiego.
- Trzeba mieć wizje rozwojowe, nie powinniśmy się ich bać. Kto ma być motorem napędowym rozwoju technologicznego przemysłu w Polsce? Dla naszego przemysłu – takiego jak choćby chemicznego czy surowcowego - takie przedsięwzięcia wysokotechnologiczne są dużym wyzwaniem. Bo to jest decyzja nie do końca tylko ekonomiczna.
- Lotos, Orlen czy KGHM nawet nie zamawiały prac badawczych…
- Rzeczywiście, dlatego jako bardziej naturalny widzę w Polsce rozwój nowych technologii poprzez uczelnie, instytuty i wychodzące z nich start-up-y, którym jednak trzeba zapewnić możliwości przejścia przez trudny początkowy okres. Z samych projektów NCBiR nie przeżyją, muszą mieć też dodatkowe źródła finansowania. Problem w tym, że kapitału na rozwój tych firm prawie nie ma, a istniejący jest bardzo specyficznie ukierunkowany. Jednak w żadnym wypadku nie rezygnowałbym z inicjatyw zmierzających do kreowania dużych przedsięwzięć, gdyż start-upy szybko dochodzą do bariery maksymalnego rozwoju.
- Czy z tego długiego cyklu dochodzenia do pozycji rynkowej i trudności finansowania bierze się opinia, że w Polsce jest niechęć do wdrożeń?
- Myślę, że ludzie z uczelni boją się przedsięwzięć przemysłowych, bo jest to bardzo ryzykowna strategia życiowa i niespecjalnie rokująca materialnie. To jest niezwykle trudna droga, psychologicznie niekonkurencyjna dla konwencjonalnej akademickiej kariery naukowej.
- Czyli lepiej publikować, starać się o granty niż ryzykować niepowodzenie…
- Ludzie zdają sobie sprawę, że jeśli przedsięwzięcie się nie uda, to może przetrącić ich karierę naukową, będą mieć problemy z powrotem na uczelnię. Ponadto u nas ludzie wstydzą się, kiedy ich firma upadnie, czego nie ma np. w USA, gdzie wynalazca, który przeżył upadek nawet kilku firm jest poszukiwanym ekspertem, cenionym za praktyczne doświadczenie, upór i wizję. W dodatku ludzie ci często powracają na uczelnie po odniesieniu sukcesu na polu gospodarczym.
Wydaje mi się, że fundamentalnym problemem sprzężenia polskiej nauki z gospodarką jest pokonanie pewnej wartości krytycznej. Przez ostatnie 20 lat np. rozmawiamy o tym, czy niebieski laser był klęską czy sukcesem, teraz rozmawiamy o Ammono, grafenie i perowskitach. Czyli trzech - czterech przedsięwzięciach z obszaru wysokiej technologii, obiektywnie niewielkich. Podpieramy się jasnym punktem sukcesu warszawskiego Vigo (detektory podczerwieni). Tymczasem takich przedsięwzięć w samej Warszawie winna być ze setka, żeby uczelnie czuły na plecach oddech przemysłu. Bo tak naprawdę uczelniami interesują się przede wszystkim małe firmy, które potrzebują wkładu naukowego, żeby utrzymać się na rynku.
Wydaje mi się, że duży przemysł jeszcze nie potrzebuje nauki akademickiej jako wsparcia, bo kupuje gotowe rozwiązania, technologie pod klucz. Robi tak, gdyż stworzenie prawdziwie innowacyjnej technologii trwa 10-15 lat. Jednak jeśli będziemy się bać perspektywy 15 lat, to nie zrobimy nic poważnego. 2-3 lata to dosyć na niektóre rozwiązania IT, tu Polska nie jest słabeuszem, musimy jednak myśleć w perspektywie długofalowej, inaczej nasze sny o polskiej Nokii nigdy się nie spełnią. Pomagajmy więc start-up-om - to nie są wielkie wydatki i dobrze pasują do naszego ducha oddolnej inicjatywy, ale pomyślmy też jak wykreować przyszłe Nokie lub takie firmy jak niemiecki Infeon.
– Właściwie nie wiadomo, jak postępować przy słabościach gospodarki i braku kapitału. Bo w przypadku jakiegoś odkrycia, dobrego pomysłu, są dwie drogi: albo sprzedać go za granicę i stracić nad tym kontrolę, albo próbować rozwijać u siebie. Obie drogi są niesatysfakcjonujące.
- Nie mając w Polsce wiele przemysłu hi-tech nie mamy też doświadczenia, ani przetartych dróg w jego tworzeniu i konsumpcji innowacji. Ostatnim pomysłem (Ministra Rozwoju) było użycie do tego celu wielkich spółek z udziałem skarbu państwa. Nie mamy, niestety, amerykańskiej DARPA-y, myślącej o postępie w kategoriach dekad, ani odpowiednio bogatej armii. W USA, w przypadku branży półprzewodników, to zamówienia wojskowe odgrywają znaczącą rolę w stymulowaniu prac rozwojowych. Brak tych mechanizmów w Polsce powoduje, że trudno jest pomóc spółce Ammono.
- Czyli w przypadku, gdyby nasze wojsko chciało nawet skorzystać z rodzimych rozwiązań, to i tak w Polsce nie miałby kto takich azotkowych tranzystorów zrobić?
- Nie do końca, bo jak już wspominałem, niedawno z dużym sukcesem zakończył się projekt NCBiR – POLHEMT, dotyczący opracowania tranzystorów azotkowych dla radarów (ITE, IEC PAN, Politechnika Warszawska). Obszarem tranzystorowym zainteresowane jest Centrum Zaawansowanych Materiałów (CEZAMAT). Punkt startowy byłby więc bardzo dobry.
Ale chciałbym tu dorzucić uwagę o medialnych aspektach innowacji. Oczywiście, miło byłoby powiedzieć, że coś jest polską specjalnością, coś wymyśliliśmy, jednak medialny przekaz po niebieskim laserze, grafenie, a i po perowskitach, był dla klimatu innowacyjności w Polsce fatalny. Przekonano ludzi, że to w Polsce narodziły się te urządzenia czy materiały. Trudno było potem wytłumaczyć, dlaczego nie odcinamy kuponów od tych pionierskich wynalazków. A przecież pierwszy laser azotkowy zademonstrowali Japończycy, grafen otrzymano w Wielkiej Brytanii, perowskity syntetyzowane są w wielu miejscach i różnymi metodami.
W każdym z tych obszarów polscy badacze mieli swój udział, zostawili ślad, ale oni tego nie wymyślili pierwsi. Legendy tego typu, chętnie podchwytywane przez media, zawsze prowadzą po roku czy dwóch do rozczarowań i zniechęcenia zarówno opinii publicznej jak i decydentów. Prawda zaś jest taka, że w każdym interesującym obszarze technologii na świecie są setki lub tysiące zespołów próbujących zdobyć wysoką pozycję. Znaczna część z nich ma więcej pieniędzy lub więcej doświadczenia niż zespoły polskie. Łatwo zrozumieć, że wywalczenie pozycji w czołówce jest trudne i nigdy nie jesteśmy tam sami.
Cieszmy się więc z naszych innowacji, ale nastawmy się na to, że w każdym z tych przypadków do końcowego sukcesu komercyjnego jest bardzo daleko i potrzeba nam do tego wiele uporu, determinacji, szczęścia i pieniędzy. Ale przede wszystkim trzeba chcieć, bo koniec końców wszystko jest możliwe!
Dziękuję za rozmowę.