CIOPolecane tematy

Tylko demokratyczna kontrola społeczna jest w stanie współtworzyć lepsze technologie

Z Janem J. Zygmuntowskim, ekonomistą związanym z obszarami innowacji, cyfrowej gospodarki i zrównoważonego rozwoju, pracownikiem naukowym Akademii Leona Koźmińskiego, dyrektorem programowym CoopTech Hub, pierwszego w Polsce centrum technologii spółdzielczych rozmawiamy o kluczowych zjawiskach towarzyszących cyfrowej transformacji; nieuregulowanym rozwoju nowych technologii; społecznych i gospodarczych tego konsekwencjach; dominującej roli BigTechów; cyfrowej suwerenności; kontrolowaniu współdzielenia danych; rynku pracy przyszłości i wizji bezrobocia technologicznego, a także roli człowieka w czwartej rewolucji technologicznej oraz o tym, jaki może być nasz następny krok po tej rewolucji.

Tylko demokratyczna kontrola społeczna jest w stanie współtworzyć lepsze technologie

Wraz z wejściem technologii w kolejne obszary okazuje się, iż obywatel bez dostępu do internetu nie może np. skorzystać z paszportu covidovego. Nawet samo państwo komunikuje prowadzoną przez siebie politykę przy pomocy platform mediów społecznościowych. Stopniowo zależność od tych platform, a szczególnie od algorytmów, sprawia, że wszyscy inni w ekosystemie: małe firmy, duże, państwo, obywatele, stają się zależni od koncernów i zaprojektowanych przez nie algorytmów. I jeśli będziemy ten „ołowiany pył danych” zamieniać w alchemiczne złoto, czyli sztuczną inteligencję, to za jakiś czas okaże się, że nikt właściwie nie wie dlaczego algorytmy rządzą tak, a nie inaczej.

W książce „Gospodarka cyfrowa. Jak nowe technologie zmieniają świat” autorki, Katarzyna Śledziewska i Renata Włoch, wskazują, że zjawiska datafikacji, usieciowienia i personalizacji, nakładając się na mechanizmy gospodarcze, tworzą nową jakość i istotnie reorganizują systemy gospodarcze. Czy Pan również uważa, że to są kluczowe zjawiska towarzyszące współczesnej cyfryzacji? 

Rzeczywiście występuje silny trend datafikacji, a więc zamiany różnych procesów czy aktywności człowieka w strumienie danych, zbieranie ich i wyciąganie z nich wartości ekonomicznej. Sam termin datafikacji jest pewnie bardziej neutralny. Natomiast duża część badaczy – chociażby Nick Couldry – nazywa ten trend kolonizacją danych, czyli wejściem aparatów technologicznych, platform czy urządzeń typu smart w procesy komunikacji, świadczenie usług publicznych, tkankę miasta i zamianę różnych aktywności w dane. Dzięki temu pozyskuje się konkretną wiedzę. A wiedza to władza. Z tym wiąże się – otwarta na nowo – kwestia suwerenności cyfrowej czy technologicznej. Pojawia się bowiem pytanie, kto sprawuje władzę, czyli kto decyduje o rozwoju technologii?

Jest niestety tak, że – wraz z wejściem technologii w kolejne obszary – okazuje się, iż obywatel bez dostępu do internetu nie może np. skorzystać z paszportu covidovego. Nawet samo państwo komunikuje prowadzoną przez siebie politykę przy pomocy platform mediów społecznościowych. Stopniowo zależność od tych platform, a szczególnie od algorytmów, sprawia, że wszyscy inni w ekosystemie: małe firmy, duże, państwo, obywatele, stają się zależni od koncernów i zaprojektowanych przez nie algorytmów. I jeśli będziemy ten „ołowiany pył danych” zamieniać w alchemiczne złoto, czyli sztuczną inteligencję, to za jakiś czas okaże się, że nikt właściwie nie wie dlaczego algorytmy rządzą tak, a nie inaczej.

Czy to oznacza, że możemy stać się w przyszłości niewolnikami algorytmów?

Ekonomista John Maynard Keynes prognozował, że skoro w przyszłości będzie tyle różnego rodzaju algorytmów, to ludzie będą pracowali 4 godziny dziennie, resztę czasu przeznaczając na wypoczynek. Wszystkie, podstawowe produkty, których potrzebujemy będą bowiem wytwarzane przez algorytmy. Dziś, obserwując miejsca, w których najdalej zaszedł ten cyfrowy nadzór – np. magazyny Amazona, gdzie przy pomocy najnowszych technologii zbierane są bardzo precyzyjne dane na temat zachowania pracowników – widzimy, że jest dokładnie odwrotnie. Pracujemy ciężej i często za gorszą pensję.

Śledzeni są nawet przedstawiciele sektora IT, których można nazwać „arystokracją pracy”. Badana jest aktywność myszki od komputera czy klawiatury, precyzyjnie mierzone są nie tylko taski, ale i to czy wykonuje się je odpowiednio szybko. Dyskusje o zarządzaniu projektem coraz rzadziej dotyczą technologii, którą się wybierze, a coraz częściej tego w jaki sposób sprinty wykonywać jak najszybciej. To pokazuje, że niekoniecznie więcej algorytmów i cyfryzacji, sprawi iż automatycznie będziemy bardziej wolni, demokratyczni czy bardziej majętni. Technologia może być użyta w dokładnie odwrotnym celu. Najlepszym tego przykładem jest pilotaż chińskiego system kredytu społecznego, czyli system scoringu bazujący na różnych zachowaniach społecznych.

Jakie mogą być negatywne konsekwencje społeczne i gospodarcze dla nieuregulowanego rozwoju nowych technologii?

Gdyby zadał pan to pytanie prawnikowi, na szczycie listy byłaby pewnie prywatność czy bezpieczeństwo danych. Nie twierdzę, że zagadnienia te są mniej ważne, po prostu nie znam się na nich na tyle, aby się wypowiadać. Odpowiem wyłącznie z zakresu ekonomii. A jest nim przede wszystkim dramatyczny wzrost nierówności. Z jednej strony są największe firmy cyfrowe sprawujące władzę, z drugiej pracownicy i pogarszające się warunki ich pracy. Widzimy jak wiele firm cyfrowych – nie tylko tych BigTechów – ale także takich, jak np. Uber, pod płaszczykiem cyfrowej innowacji i postępu nie płaci podatków, obchodzi prawo pracy, nadużywa dominującej pozycji na rynku, aby niszczyć konkurencję. Wiemy o zmowach monopolistycznych między Google a Facebook’iem, o celowym podnoszeniu cen reklam i wyciskaniu pieniędzy z lokalnego rynku. A przecież można dokonywać tego postępu inaczej. Mamy przykłady spółdzielni cyfrowych, firm płacących lokalnie podatki, które szanują prawo.

Ten ogromny wzrost nierówności, erozja bazy podatkowej, słabsze usługi publiczne itd., prowadzą do niższej mobilności społecznej, większych napięć klasowych, a ostatecznie hamują wzrost gospodarczy i innowacje. Mogą prowadzić nawet do niepokojów społecznych jak rewolucje czy wojny. Konsekwencje są więc daleko idące. Dodam, że ostatni tak duży poziom nierówności widzieliśmy przed I Wojną Światową. Wówczas największe firmy również zaczęły wchodzić w sojusze z państwami, aby podbijać nowe terytoria i rynki. Nazywaliśmy to fazą imperializmu. Podobną fazę widzimy obecnie w działalności BigTechów – amerykańskich i chińskich.

Nie brzmi to zbyt optymistycznie, ale chyba nie jesteśmy na straconej pozycji? Jaka jest alternatywa?

Nie jesteśmy, bo potrafimy uczyć się na błędach i wyciągamy wnioski. Wreszcie, po 30 latach rozwoju bardzo nieregulowanego internetu „obudzili się” regulatorzy. Zarówno w USA, Chinach, Europie, jak i Indiach, widzimy próby wyznaczenia choć minimalnych zasad, aby chronić konkurencję i konsumentów. W Europie przyjmują one postać Kodeksu Rynków Cyfrowych, Kodeksu Usług Cyfrowych, pojawiła się też propozycja ochrony pracowników platformowych. I to są bardzo słuszne propozycje.

Ogromny wzrost nierówności, erozja bazy podatkowej, słabsze usługi publiczne itd., prowadzą do niższej mobilności społecznej, większych napięć klasowych, a ostatecznie hamują wzrost gospodarczy i innowacje. Mogą prowadzić nawet do niepokojów społecznych jak rewolucje czy wojny. Konsekwencje są więc daleko idące. Dodam, że ostatni tak duży poziom nierówności widzieliśmy przed I Wojną Światową. Wówczas największe firmy również zaczęły wchodzić w sojusze z państwami, aby podbijać nowe terytoria i rynki. Nazywaliśmy to fazą imperializmu. Podobną fazę widzimy obecnie w działalności BigTechów – amerykańskich i chińskich.

Jak reaguje na nie biznes?

Big Techy oczywiście lobbują i próbuje osłabić te inicjatywy. Mniejszy, lokalny biznes natomiast jest przychylny, bo dostaje szansę na równe zasady gry. Ale mam wrażenie, że powszechna świadomość problemu jest na tyle duża, że przynajmniej zręby wspólnych zasad rynkowych zostaną zaproponowane. To jednak nie wystarczy. Musimy zacząć budować inne technologie i stosować inne innowacje. Nie możemy myśleć o nich, jak o sposobie na jak największe wyeliminowanie człowieka, albo poddanie go jeszcze większej inwigilacji. Powinniśmy za to kombinować jak technologia może posłużyć do tego, aby ludzie mogli jeszcze sprawniej zarządzać danymi, albo oferować im jeszcze lepsze miejsca pracy.

To jest w ogóle możliwe?

Wspominałem już o powstającej na świecie spółdzielczości cyfrowej. Mamy dobre przykłady takich działań na świecie i w Europie. W takich spółdzielniach stosuje się technologię głównie jako narzędzie lepszej pracy dla pracowników czy dla rozwoju dla miast. I nie jest to rozwój zależny od największych koncernów, ale bardziej lokalny, jak chociażby w przypadku etycznej turystyki Fairbnb. Lokalnie tę wypracowaną wartość zostawiający.

W tym zakresie bardzo ważna jest także rola państwa. Nie może to być wyłącznie kupowanie najtańszych rozwiązań od największych dostawców, ale też stawianie pewnych wymagań. Mówiąc brutalnie trzeba mieć świadomość, aby nie robić rzeczy głupich i nie wkładać ręki do ognia. Niestety, takie sytuacje wciąż się dzieją. Publiczna Chmura Krajowa w dużej mierze jest resellerem rozwiązań Google i Microsoftu, a Azure zarabia krocie na „pikach” przesyłu danych podatkowych JPK VAT. To jakich dobierzemy dostawców, jakie ustanowimy regulacje czy jakie zamówienia publiczne wybierzemy, w konsekwencji tworzy nową jakość.

Póki nie będziemy kontrolowali własnych danych i wartości jaka z nich płynie, nie mamy szansy, aby stanąć do wyścigu o sztuczną inteligencję oraz gospodarkę opartą na danych.

Jak więc europejski system prawny radzi sobie z kontrolowaniem współdzielenia danych?

Jeśli chodzi o naruszenia konkurencji, prawo podatkowe, ochronę konsumenta czy wgląd w algorytmy, widać, że nie wszystkie kraje podejmują inicjatywy dotyczące tych kwestii – i do nich niestety należy Polska – ale Unia ma już „rozpisane” różne kodeksy, które będą niebawem przegłosowywane w Parlamencie Europejskim. I mimo, że regulacje te nie są tak ambitne, jak byśmy chcieli, to i tak jesteśmy dobrej myśli.

Wracając do Pana pytania – samo współdzielenie danych to najsłabszy element. Z prostych powodów, weźmy np. niedawną wrzawę wokół rejestru ciąż – jeśli obywatele nie mają dużej dozy zaufania do państwa to nie będą chcieli się swoimi danymi z nim dzielić. Danymi nie chcę dzielić się także firmy. Te największe mają ich duży zasób, po co więc miałyby je oddawać. Małe znowuż nie mają zasobów i nie wiedzą jak je pozyskiwać.

Natomiast państwo siedzi na ogromnych zbiorach danych np. zdrowotnych, ale wciąż nie ma żadnego mechanizmu, który mądrze by te dane udostępniał bez oddawania ich za darmo. Tak jak zrobiła to choćby Wielka Brytania, która firmom Google i Deep Mind oddała dane milionów obywateli, bo źle przygotowano umowę ich udostepnienia.

Dyskusje o zarządzaniu projektem coraz rzadziej dotyczą technologii, którą się wybierze, a coraz częściej tego w jaki sposób sprinty wykonywać jak najszybciej. To pokazuje, że niekoniecznie więcej algorytmów i cyfryzacji, sprawi iż automatycznie będziemy bardziej wolni, demokratyczni czy bardziej majętni. Mam wrażenie, że powszechna świadomość problemu jest na tyle duża, że przynajmniej zręby wspólnych zasad rynkowych zostaną zaproponowane. To jednak nie wystarczy. Musimy zacząć budować inne technologie i stosować inne innowacje. Nie możemy myśleć o nich, jak o sposobie na jak największe wyeliminowanie człowieka, albo poddanie go jeszcze większej inwigilacji. Powinniśmy za to kombinować jak technologia może posłużyć do tego, aby ludzie mogli jeszcze sprawniej zarządzać swoimi danymi, albo jak oferować im jeszcze lepsze miejsca pracy.

Czy rządy – nie tylko nasz, ale i te w UE – nie zaczynają czasem zbierać zbyt wielu danych o nas?

Może nie tyle zbyt wiele, co niewłaściwe rodzaje danych. Są obecnie prowadzone w Brukseli kampanie w związku z regulacjami, aby np. zakazać automatycznego rozpoznawania twarzy przez inteligentne kamery. Zbliżamy się bowiem powoli do tego rodzaju inwigilacji, która kojarzyć się może z totalitarnymi reżimami. Rozwija się więc tego typu technologie, a nie zbiera danych, które miałby dużo większe znaczenie. Nie buduje się powiedzmy wspólnicy danych zdrowotnych, która mogłyby poprawić profilaktykę zdrowotną.

W jaki sposób można by więc mądrze zarządzać danymi?

Trzeba stworzyć nowy model publicznej instytucji – oczywiście niepowiązanej z rządem – która byłaby czymś w rodzaju biblioteki narodowej czy banku centralnego, tylko że dla danych. Ja nazywam ją „Wspólnicą Danych”. Taka instytucja powinna przechowywać nasze dane, zabezpieczać je, sprawdzać wszelkie algorytmy przychodzące do testowania na tych danych, a z drugiej strony pobierać opłaty. Oczywiście od tych, kogo na to stać. Bo jeśli będą to naukowcy pracujący np. nad wykrywaniem raka przez sztuczną inteligencję – niech trenują swoje algorytmy za darmo. Z kolei sam pacjent, zamiast prosić się, aby ukarać firmę za naruszenie jego praw – w myśl zasad RODO – powinien mieć prostą aplikację do zarządzania danymi. Takie instytucje należy tworzyć w przyszłości, bo bez nich dane będą dalej pozamykane w rożnych silosach, a obywatele nadal będą się o nie obawiać.

Takie instytucje funkcjonują już gdzieś w Europie?

Próbę stworzenia takiej biblioteki danych podjęła Estonia, która ma X-Road – interoperacyjną infrastrukturę do wymiany danych. Do niej musi dodać jeszcze warstwę instytucjonalną. Z kolei Finlandia powołała instytucję o nazwie FinData, która wydaje wspomniane pozwolenia i jest rodzajem organu kontrolnego. Mamy też takie przykłady jak niemiecki system MII albo francuski Health Data Hub. Na tym tle Polska jest na etapie zero. Cieszymy się z e-recepty, która jest tak naprawdę interoperacyjnością stopnia pierwszego, ale do silnej interoperacyjności jest z tego poziomu jeszcze długa droga i – co najgorsze – nie widzę intencji, aby ktoś chciał w nią wyruszyć.

Można wywnioskować, że oddajemy technologiom – w ekonomii, biznesie i zarządzaniu – zbyt wiele pola…

Powiedziałbym, że mamy nawet lekką kolonizację świata przez technologię. Wszystko można bowiem technologicznie rozwiązywać w tym wspomniane przez Pana zarządzanie. Z badań, które prowadziliśmy na pracownikach m.in. call center, wiemy że czas ich pracy – oraz przerwy w niej – wyznacza algorytm. Teoretycznie jest menedżer, który powinien ten grafik ustawiać, ale on nie ma na niego wpływy, bo „wyręcza” go algorytm, do którego nie ma wglądu, ponieważ akurat chroni go właściciel firmy-zleceniodawcy zasłaniając się prawem własności intelektualnej.

My zatem nie tylko oddajemy zbyt wiele pola technologii, ale oddajemy go konkretnie wielkim producentom technologii. Nie widzę bowiem nic złego w tym, abyśmy mieli różne algorytmy dostarczające treści np. na mediach społecznościowych i abyśmy moglibyśmy wybierać z nich tylko te, które chcemy. Ale takiego wyboru nie mamy. Jest jeden „wall” na Facebooku i jeśli w przyszłym roku będą chcieli wyciągnąć jeszcze większe pieniądze, to osłabią znów wyświetlanie treści niesponsorowanych i będziemy musieli się z tym pogodzić.

Trzeba stworzyć nowy model publicznej instytucji – oczywiście niepowiązanej z rządem – która byłaby czymś w rodzaju biblioteki narodowej czy banku centralnego, tylko że dla danych. Ja nazywam ją „Wspólnicą Danych”. Taka instytucja powinna przechowywać nasze dane, zabezpieczać je, sprawdzać wszelkie algorytmy przychodzące do testowania na tych danych, a z drugiej strony pobierać opłaty. Oczywiście od tych, kogo na to stać. Bo jeśli będą to naukowcy pracujący np. nad wykrywaniem raka przez sztuczną inteligencję – niech trenują swoje algorytmy za darmo. Z kolei sam pacjent, zamiast prosić się, aby ukarać firmę za naruszenie jego praw – w myśl zasad RODO – powinien mieć prostą aplikację do zarządzania danymi.

Jak w przyszłości może wyglądać rynek pracy biorąc pod uwagę rozwój automatyzacji? Czy rzeczywiście będzie tak jak zaprognozowano podczas niedawnego Światowego Forum Ekonomicznego, że automatyzacja, wbrew powszechnym obawom, nie pozbawi ludzi zatrudnienia, a wręcz wygeneruje nowe miejsca pracy?

Zastanawiałem się nad tym, patrząc na robotyzację w przemyśle motoryzacyjnym w USA, gdzie pierwszego robota wprowadzono w 1962 roku, a do 1990 roku zainstalowano ich blisko 100 tys. W okresie tym cały czas rosło zatrudnienie w tej branży. Zmieniał się jedynie charakter pracy – pracownicy przechodzili z montowni na stanowiska specjalistów sprzedaży, marketingu, do działów R&D, logistyki itd. Tylko potem mieliśmy wielki upadek tego przemysłu. Nie był on jednak spowodowany przez roboty, a przez przenoszenie fabryk do Chin. Dlatego patrząc jak się ten rynek pracy układa, trzeba skupić się nie tyle na stronie technologicznej, co ekonomicznej. Jaki będzie podział wypracowanego zysku? Struktura własnościowa tych firm?

Automatyzacja czy robotyzacja niekoniecznie muszą odebrać miejsca pracy. One może też stworzą nowe miejsca pracy i to dobrze płatne, ale przy tym jak dziś wygląda rynek, szczerze w to wątpię. Bardziej skłonny jestem zgodzić się natomiast z tymi ekspertami, którzy sądzą, że czeka nas dalsze rozszczepianie się rynku spowodowane różnym poziomem wykwalifikowania pracy. Mamy bowiem zarabiających bardzo dużo „superstars”, którzy mają często paru nisko opłacanych juniorów, wykonujących dla nich drobne zadania. Reszta pracy jest zautomatyzowana.

Czy to oznacza, że będziemy mieli bezrobocie technologiczne?

Póki co, raczej go nie obserwujemy. Rozrasta się bardziej grupa pracowników Gig Economy. Chodzi o realizowanie projektów i zadań przez niezależnych, niezatrudnionych na etatach pracowników, w ramach cyfrowych platform. To są ludzie niby elastyczni, ale ta elastyczność to złudzenie, bo jeśli nie będą pracowali bardzo dużo, to zarobią niewiele. Ta kategoria pracowników powiększa nam się coraz bardziej.

W Polsce przed pandemią wynosiła 5% wszystkich zatrudnionych, obecnie podejrzewam, że sięgać może już 10%. Łącznie, w całej UE, mówimy o 10-30 mln pracowników zarabiających w ten sposób. Jest to więc cała masa osób, która utknęła w szczelinie między pracą na etat a niepełną i która jest w dużej mierze zarządzana właśnie przez algorytmy. Ten trend fragmentaryzacji pracy będzie niestety dalej postępował i będzie się wiązał z wspomnianym już jeszcze większym nadzorem.

Racje miał więc David Graeber, który opisał rynek pracy dosadnym określeniem „bullshit jobs”. Wykonujemy bowiem coraz częściej pracę bardzo wyalienowaną, nie wiedząc już właściwie czemu ona służy, a przychody z tej pracy są akumulowane przez „superstars”.

Jaka więc powinna być nasza rola w czwartej rewolucji technologicznej? Co z naszą suwerennością?

Tak naprawdę chodzi o to, aby każdy z nas miał jakiś wpływ na to, jak technologie się rozwijają. Społeczeństwo ma być suwerenne, a technologia ma się rozwijać dla nas. A nie odwrotnie. I to jest klucz. Regulacje, o których rozmawialiśmy, mają być pierwszym krokiem, który ma przywrócić normalność, aby nie niszczyć konkurencji, MŚP, obywateli i ich prywatności. W kolejnym kroku technologie powinny stać się wspólną własnością obywateli. Czyli czymś co realizuje przywoływana przeze mnie spółdzielczość cyfrowa.

Pytanie tylko, czy gdyby taki Facebook stał się spółdzielnią, wspólną własnością 3 mld obywateli – bo tylu ma użytkowników – to w jaki sposób powinien być zarządzany? Jak budowałby interfejsy? Czy celowo by nas inwigilował i „żerował” na tym, że jesteśmy uzależnieni od pewnych algorytmów? To są pytania, które powinniśmy sobie teraz zadawać. Bo regulacje raczej tego nie zabezpieczą. Tylko wspólna, demokratyczna kontrola społeczna jest w stanie współtworzyć lepsze technologie.

W Polsce przed pandemią liczba pracowników Gig Economy wynosiła 5% wszystkich zatrudnionych, obecnie podejrzewam, że sięgać może już 10%. Łącznie, w całej UE, mówimy o 10-30 mln pracowników zarabiających w ten sposób. Jest to więc cała masa osób, która utknęła w szczelinie między pracą na etat a niepełną i która jest w dużej mierze zarządzana właśnie przez algorytmy. Ten trend fragmentaryzacji pracy będzie niestety dalej postępował i będzie się wiązał z wspomnianym już jeszcze większym nadzorem. Racje miał więc David Graeber, który opisał rynek pracy dosadnym określeniem „bullshit jobs”.

Ciężko to sobie póki co wyobrazić. Pójdźmy jednak jeszcze dalej. Jaki może być następny krok po czwartej rewolucji technologicznej?

Kamieniem milowym czwartej rewolucji przemysłowej jest fakt, że Facebook zamienia się obecnie w Meta i w pewnym stopniu sam zapowiada swój końcowy etap. Tak jak kiedyś serfowaliśmy w internecie, tak teraz ma dojść do „pełnego zanurzenia” człowieka w metawersum, w wirtualnej rzeczywistości. Stworzone przez człowieka algorytmy wyznaczają prawo, a kryptoaktywa określają własność. To jest wizja, którą daje nam dziś nie tylko Meta, ale także Microsoft, który również staje do tej „walki” i Google, zastanawiający się jak się ma w tej przyszłości odnaleźć.

Spora część ludzi fascynuje się też czymś co nazywa się Web3, czyli kryptoprotokołami, zdecentralizowanymi organizacjami. Ale z punktu widzenia technologicznego i ekonomicznego większość z tych rozwiązań jest bańką spekulacyjną. To nie są przełomowe technologie, które byłyby np. bardziej efektywne niż scentralizowane bazy danych. Mam wrażenie, że kryptowaluty, NFT, Web3 to chęć zbudowania innego internetu, ale bez solidnego fundamentu ekonomicznego. Dopiero gdy ta spekulacyjna bańka w końcu pęknie – jak bańka dotcomów w 2000 roku – będziemy mogli oczekiwać lepszej jakości rozwiązań i technologii.

Ile jeszcze czasu musi upłynąć, aby to się stało?

Dobre pytanie. Nie tak dawno wiodące medium krypto CoinDesk samo podało, że opisany przez nich w artykule OlympusDAO jest schematem Ponziego, czyli po prostu piramidą finansową. A takie schematy upadają wtedy, kiedy zatrzymuje się masowe wciąganie do nich ludzi. Dochodzi wtedy do tzw. momentu Minsky’ego i nagłego załamania ceny. Nie realizuje się oczekiwanie wzrostu aktywów wcześniejszej fali inwestorów, która weszła do takiej piramid.

Sytuacja ta może jeszcze trochę potrwać, biorąc pod uwagę choćby poziom inflacji na świecie. Ludzie chcą uciekać do różnych aktywów i dywersyfikować portfele. Moim zdaniem pękniecie tej bańki nastąpi w momencie, w którym nastąpi zwrot w kierunku zrównoważonego rozwoju. Ale takiego prawdziwego. Nie kolejnego greenwashingu, tylko takiego, w którym realizowane są masowe inwestycje publiczne w tanią energię, albo nakłada się progresywne podatki na najbogatszych. Wtedy te bańki pękną.

Bitcoin też?

Bitcoin pewnie już z nami zostanie. Tak, jak kościół scjentologów (śmiech).

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *