Dzień dobry, nazywam się Marcin Lis i zapraszam do wysłuchania kolejnego odcinka What the Fox Says.
W dzisiejszym odcinku będzie trochę o bezpieczeństwie i prywatności, trochę o technologiach satelitarnych, oczywiście o open source, ale zaczniemy od samochodów elektrycznych, a raczej od baterii w samochodach elektrycznych.
Chińczycy
robią kolejny krok w kierunku rewolucji, jeżeli chodzi o samochody elektryczne, czyli uruchamiają pierwszą na świecie linię produkcyjną baterii All Solid State do pojazdów elektrycznych.
Co to są baterie All Solid State?
Są to baterie, w których ciekły elektrolit zastępuje się ciałem stałym, co zwiększa po części bezpieczeństwo, ale też trwałość i pojemność baterii.
Problemem jest to, że technologia takich baterii jest dużo bardziej kosztowna i trudniejsza.
Ale Chińczycy obiecują, że ich nowe baterie będą mogły podwoić zasięg samochodów elektrycznych.
Ich nowo uruchomiona linia produkcyjna wykorzystuje tzw. suchy proces, który łączy przygotowanie, powlekanie, rolkowanie tych baterii.
Wszystko w jednym kroku, co skraca czas produkcji oraz zmniejsza koszty.
Nowe baterie mają zapewnić zasięgi około 1000, może nawet ponad 1000 km na jednym ładowaniu.
Testy małoseryjne pojazdów z tymi bateriami mają ruszyć już w 2026 roku, a masowa produkcja tychże baterii i samochodów na nich opartych w latach kolejnych, czyli 2027-2030.
W Chinach, jak to w Chinach oczywiście, wszystko jest sterowane centralnie, w związku z tym ta produkcja ma się odbywać przez tzw.
All Solid State Battery Collaborative Innovation Platform, która łączy producentów baterii, koncerny motoryzacyjne, wspiera ten rozwój technologii.
Wiadomo, Chińczykom na tym zależy, chcą być pierwsi, najlepsi, chcą przejąć, co się da.
Co ciekawe, w Chinach nie tylko GAC Group, która uruchamia tę fabrykę, ale też inni producenci pracują nad takimi samymi bateriami albo bardzo podobnymi.
Psychmotor, BID, CATL, wszystkie te grupy aktywnie rozwijają własne baterie typu All Solid State i chcą wyruszyć jak najszybciej z produkcją seryjną tychże baterii.
Więc mamy duże szanse na to, że już niedługo jazda autem elektrycznym i zasięgi ponad 1000 km nie będą niczym dziwnym.
Kolejna wiadomość dotyczy firmy Amazon.
Amazon przedstawił swój terminal satelitarny Leo Ultra.
Jest to urządzenie zaprojektowane do obsługi nowej satelitarnej usługi internetowej Amazon Leo, która wcześniej znana była pod nazwą Project Kuiper.
Terminal oferuje prędkość pobierania do 1 gigabita oraz wysłanie do 400 megabitów i przeznaczony jest do stałej instalacji na zewnątrz budynku.
Urządzenie wewnątrz zawiera specjalny układ z salony opracowany i zaprojektowany przez Amazona, który umożliwia pełny dupleks, czyli jednoczesne wysłanie i odbieranie danych.
Technologię antenową, która pozwala na sterowanie kierunkiem sygnału radiowego elektronicznie bez fizycznego obracania anteny, dzięki czemu urządzenie może szybciej i efektywniej komunikować się z różnymi satelitami.
I innowacyjne rozwiązanie Amazona, który wykorzystuje to, że jednak na nim hostuje się duża część internetu, nazywające się Direct to AWS.
Pozwala ono na bezpośrednie przesyłanie danych z satelity do infrastruktury chmurowej Amazon Web Services, pomijając publiczny internet, co ma poprawić szybkość i bezpieczeństwo transmisji.
Amazon Leo ma wejść do sprzedaży jakoś już niedługo.
Jego szersza dostępność planowana jest na przyszły rok.
Firma wypuściła już też ponad 150 satelitów będących na niskiej orbicie i planuje wystrzelenie kolejnych kilku tysięcy, co ma zapewnić globalne pokrycie i zapewnić im możliwość konkurowania z istniejącymi usługami takimi jak Starlink od SpaceX Elanomuska.
Dodatkowo Amazon ma też w planach wdrożenie datacenter w przestrzeni kosmicznej, co może być ciekawym rozwiązaniem i umożliwić na przetwarzanie danych bezpośrednio na orbicie.
Wiem, że brzmi to trochę jak science fiction, ale kto wie, poczekamy parę lat, może coś takiego się okaże.
Nie jest to pierwsza firma, która o czymś takim myśli.
Terminal Leo Ultra, patrząc na to, jakie zawiera technologie, zwłaszcza to Direct to AWS, raczej jest skierowany do klientów korporacyjnych niż zwykłych użytkowników prywatnych.
Na pewno są klienci korporacyjni, którzy potrzebują niezawodnego i szybkiego dostępu internetu w miejscach, w których ciężko jest dociągnąć standardowo łącze światłowodowe.
Albo ewentualnie też chcą mieć po prostu jakieś łącze zapasowe, gdyby z głównym stało się coś złego.
Tak czy siak, jak widać, jest na rynku komunikacji statylitarnej cały czas miejsce na nowe firmy i nowe rozwiązania.
A teraz trochę w temacie bezpieczeństwa.
Okazuje się, że w publicznych repozytoriach Gitlaba, w tym wiele takich, które na pewno nie powinny się tam znaleźć, niezależny inżynier, inżynier, przepraszam, bezpieczeństwa Luke Marshall
przeskanował ponad 5 milionów publicznych repozytoriów GitLab Cloud, wykorzystał do tego narzędzie open source'owe, które służy do wyszukiwania w kodzie wrażliwych danych, takich jak klucze API, hasła, tokeny i tym podobne rzeczy.
W efekcie tego zidentyfikował ponad 17 tysięcy żywych sekretów powiązanych z prawie 3 tysiącami unikalnych domen, co oznacza niemal trzykrotnie więcej wrażliwych danych niż podczas gdy poprzednim razem skanował Bitbucketa.
Marshall zrobił to w bardzo ciekawy sposób.
Wykorzystał publicznie dostępne API Gitlaba do wylistowania wszystkich publicznych repozytoriów.
Następnie przy pomocy napisanego przez siebie skryptu w Pythonie sortował projekty według ID, uzyskując listę unikalnych projektów.
Było ich ponad 5 milionów.
Nazwy projektów trafiły do kolejki AWS SQS, skąd funkcja AWS Lambda, a raczej powinienem powiedzieć funkcję AWS Lambda, bo tutaj trzeba zaznaczyć liczbę mnogą, uruchamiały Truffle Hawk, czyli właśnie to wcześniej wspomniane narzędzie open source'owe,
i uruchamiały je równolegle, odpalając ponad 1000 czy około 1000 skanów jednocześnie, co pozwoliło mu zakończyć pełne skanowanie tych wszystkich publicznych roborytetoriów w niewiele ponad 24 godziny, co kosztowało go, jeżeli chodzi o usługi AWS, niecałe 800 dolarów.
Jakie sekrety wyciekły?
Co ciekawe, największą grupę ujawnionych danych stanowiły poświadczenia do Google Cloud Platform.
Były tam też takie rzeczy jak klucze do baz MongoDB, tokeny butonów Telegrama, klucze do usług OpenAI.
Było też kilkaset kluczy GitLab'a.
A analiza historii tych danych pokazała, że mimo tego, że większość z nich jest całkiem, może nie całkiem, relatywnie nowa, bo pochodzi z okresu po 2018 roku, to są tam też dane sięgające aż do 2009 roku.
Co zrobił z tym Marshal, czyli ten inżynier bezpieczeństwa?
Ze względu na ilość znalezionych danych postanowił zautomatyzować proces powiadomiania organizacji o tym, że znalazł dane w ich, konkretne dane w ich repozytoriach.
Połączył on model AI Cloud Sonnet z wyszukiwarką i własnym skryptem do generowania maili, dzięki czemu był w stanie bardzo szybko wysłać im informacje o tym i prawie że w pełni automatycznie.
W efekcie wiele firm unieważniło klucze i hasła, które zostały znalezione, a sam Marshall otrzymał około 9 tysięcy dolarów z różnych programów Bug Bounty,
Ale, co ciekawe, część sekretów mimo wszystko nadal pozostaje publicznie dostępna, nie zostały one usunięcie.
Sytuacja ta unacznia, że nawet dojrzałe zespoły deweloperskie potrafią ignorować podstawowe zasady bezpieczeństwa informacji, można powiedzieć takiej higieny bezpieczeństwa deweloperskiej.
Eksperci podkreślają konieczność stosowania menadżerów sekretów, konieczność stosowania automatycznych skanów repozytoriów właśnie, żeby znaleźć, czy coś takiego się nie prześlizgnęło, żeby minimalizować prawdopodobieństwo podobnych wycieków, bo każdy taki wyciek stanowi poważne ryzyko dla organizacji i to dla organizacji niezależnie od jej wielkości.
A jak już mówimy o bezpieczeństwie tak teraz trochę o prawodawstwie w Unii Europejskiej.
Po ponad trzech latach przepychanek pomiędzy rządami, rządy państw Unii Europejskiej osiągnęły porozumienie w sprawie bardzo kontrowersyjnego rozporządzenia oficjalnie zwanego CSAR, czyli Children Sexual Abuse Regulation, ale które znane jest szerzej pod popularną nazwą chat-kontrola.
Wcześniej wielu ekspertów, ale nie tylko ekspertów protestowało przeciwko temu rozwiązaniu, ponieważ miało ono oznaczać tak naprawdę koniec szyfrowania end-to-end i wprowadzenie powszechnej inwigilacji.
Dlatego też było ono regularnie odrzucane.
Jednakże decyzja ostatnia podjęta nad tą ustawą, nad tym rozporządzeniem formalnie czyni skanowanie prywatnych wiadomości dobrowolnym, a nie obowiązkowym.
W papierze wygląda to na niezły kompromis.
W praktyce raczej niewiele się zmieni.
Jednakże ta zmiana pozwoliła przełamać impas polityczny, dlatego że przepisy z obligatoryjnych zostały zmienione na dobrowolne, więc część państw członkowskich
mogła zgodzić się na przyjęcie tego, dlatego że przepisy dają im wolną rękę o decydowaniu, czy chcą wdrożyć takie mechanizmy, czy nie.
Problem jest jednak taki, że w tej regulacji jest taki niebezpieczny mechanizm prawny.
Choć skanowanie jest teoretycznie dobrowolne, firmy mają być zobowiązane do oceny ryzyka.
Czyli firmy mają ocenić, czy wykorzystanie ich platform do celów przestępczych jest niebezpieczne.
Możliwe czy nie, a jeżeli możliwe, to czy ryzyko jest niskie, średnie, wysokie itd.
I teraz cała zabawa.
Jeżeli platforma, np. Signal, Whatsapp, Discord, whatever, zostanie uznana za platformę wysokiego ryzyka,
Unijna Agencja będzie mogła nałożyć na nią karę lub zmusić ją do wdrożenia tzw. środków mitygujących, czyli tak naprawdę właśnie do wdrożenia mechanizmu szpiegowania wiadomości na tej platformie.
Więc dla mnie nie jest to
na zasadzie dobrowolnie możecie skanować, bo tak naprawdę jest tutaj mechanizm, który może zmusić do skanowania każdą firmę, niezależnie od tej dobrowolności tak zwanej.
Zresztą Meredith Whitaker, prezeska fundacji Signal,
Już zagroziła wycofaniem aplikacji z rynku europejskiego, jeżeli to prawo wejdzie w życie w obecnym kształcie.
Bo jak sama powiedziała, tutaj nie chodzi o ochronę dzieci.
To jest po prostu luka prawna.
która ma na celu umożliwić masowe skanowanie wiadomości.
Sama regulacja też nie przeszła bez sprzeciwu.
Głosowanie w Radzie Unii Europejskiej było ciekawe.
Część krajów była za przyjęciem tej regulacji.
Część była taka, która zdecydowanie sprzeciwiała się tym przepisom.
Argumentowały to...
tym, że walka z pedofilią nie może odbywać się kosztem tajemnicy korespondencji prywatności, czyli tak naprawdę fundamentalnych praw obywatelskich.
Ale część krajów właśnie dzięki temu zapisowi o dobrowolności, w cudzysłowie, były... Ta część krajów była... nie wetowała...
tej ustawy nie była przeciwko, dzięki czemu brak ich sprzeciwu pozwolił zwolennikom tej regulacji na uzyskanie większości kwalifikowanej.
Obydwie strony sporu, czyli przeciwnicy tego rozwiązania oraz ci zwolennicy mają swoje argumenty.
Zwolennicy czat kontrolu mówią, że chodzi im o ochronę najsłabszych, czyli walkę z plagą materiałów dotyczących pedofilii i tym podobne rzeczy.
Argumentują to tym, że obecne metody są nieskuteczne, a przestępcy ukrywają się zaszyfrowaniem.
a szybkie, istniejące, automatyczne systemy AI mogą przetwarzać miliony obrazów dziennie, miliony wiadomości dziennie, co teoretycznie mogłoby pozwolić na błyskawiczne namierzanie ludzi dystrybuujących takie treści.
Regulacja ta zmusza też gigantów technologicznych do wzięcia odpowiedzialności za to, co dzieje się w ich ekosystemach, zamiast po prostu zasłaniania się prywatnością.
Z drugiej strony przeciwnicy jej też mają swoje argumenty.
Po pierwsze, wnoszą to, że jest to koniec prywatności.
Wdrożenie tego chat-kontrolu oznacza, że nasze telefony stają się narzędziami inwigilacji.
Każde nasze zdjęcie, czy to prywatne, czy rodzinne, czy jakiekolwiek będzie oceniane przez algorytm.
Systemy AI też nie są nieomylne.
Istnieje ryzyko, że zdjęcie z wakacji, które wyślemy do rodziny, zostanie błędnie oflagowane jako pornografia dziecięca, a to może mieć bardzo nieciekawy wpływ na życie ludzi,
łatwo rzuca się oskarżeniami, dużo trudniej jest potem wycofać się z tego i tak naprawdę często takie oskarżenie, nawet jeżeli nie kończy się skazaniem, to jednak wśród sąsiadów zostaje i opinia idzie za ludźmi.
Poza tym przeciwnicy wnoszą też to, że stworzenie takiej tylnej furtki w szyfrowaniu to prezent dla różnych reżimów, które będą wykorzystywać to przeciwko swoim własnym obywatelom.
Oraz kolejny argument to tak naprawdę zaufanie własnych ludzi, zaufanie też użytkowników i zaufanie obywateli, bo firmy takie jak Signal czy Tuta, Tuta to tak naprawdę dostarczyciel bezpiecznej poczty e-mail, już zapowiedziały, że prędzej opuszczą rynek europejski, niż zgadzą się na obniżenie standardów bezpieczeństwa.
Czyli wracamy do tego, o czym mówiłem już w poprzednim odcinku, czy dwa odcinki temu, że
Kolejne takie regulacje mogą doprowadzić do tego, że Europa stanie się taką cyfrową wyspą wykluczoną z wielu rzeczy.
Na szczęście to jeszcze nie koniec.
Zgoda Rady Unii Europejskiej to dopiero początek tej fazy.
Teraz projekt musi trafić do negocjacji pomiędzy Radą, Komisją Europejską i Parlamentem Europejskim.
Dopiero po tym poznamy ostateczny kształt tych przepisów.
Jednakże ważne jest to, że ten kolejny krok został uczyniony.
Do tej pory było to wstrzymywane na tym etapie.
Teraz jesteśmy już etap dalej.
I teraz tak naprawdę pozostaje pytanie.
Czy w imię bezpieczeństwa,
Jesteśmy gotowi na to, żeby zgodzić się, żeby czy to algorytm, czy urzędnik, policjant zaglądał nam w nasze prywatne rzeczy za każdym razem, kiedy wysyłamy zdjęcie, czy wiadomość, czy coś takiego.
A teraz trochę w moim ukochanym temacie, czyli open source.
Może nie do końca w tym przypadku jest to 100% open source, ale bardzo związane.
Całkiem niedawno firma Qualcomm przejęła Arduino.
Dla tych, co nie wiedzą, Arduino to do tej pory przynajmniej otwarta platforma elektroniczna, która umożliwia tworzenie różnych projektów urządzeń, interaktywnych projektów urządzeń.
Składa się ona tak naprawdę z dwóch głównych elementów.
Z płytki Arduino, czyli z hardware'u i z IDE, czyli oprogramowania, które służy do pisania i wgrywania kodu.
Nie będę wchodził w szczegóły odnośnie Arduino, bo jeżeli ktoś będzie chciał, to się tym zainteresuje.
Wracając do tego przejęcia przez Qualcoma.
Firma Qualcom po przejęciu Arduino zaktualizowała regulamin oraz politykę prywatności tych usług.
Zmiany obejmują, powiedziałbym, kluczowe obszary, bo prawo do inżynierii wstecznej, zasady przetwarzania danych, licencjonowanie treści użytkowników...
I tak naprawdę dla hobbystów, ale też dla twórców może to oznaczać bardzo duże zmiany.
Na przykład nowy regulamin wprowadza kategoryczny zakaz tłumaczenia, dekompilacji lub inżynierii wstecznej platformy, czyli tak naprawdę poznawanie algorytmów i logiki jej działania.
Arduino było marką, która przez lata budowała swoją reputację na otwartości, na możliwości uczenia się poprzez właśnie rozbieranie jej systemów na czynniki pierwszy, więc taki zapis został odebrany jako fundamentalna zmiana podejścia firmy.
Teoretycznie firma zapewnia, że sprzęt, schematy i Arduino IDE pozostają na licencjach open source.
I argumentują, że nowe ograniczenia dotyczą wyłącznie usług chmurowych.
Jednakże język regulaminu jest na tyle nieprecyzyjny, że są to tylko zapewnienia firmy.
Kontrowersję budzi też nowa sekcja, która została poświęcona usługom opartym na sztucznej inteligencji, bo Arduino zastrzega sobie prawo do monitorowania kont użytkowników oraz sposobu korzystania z produktów AI, m.in. do takich rzeczy jak czas obliczeniowy, przechowywane dane, ale nie wskazuje ani zakresu, ani celu takiego nadzoru.
Ten brak transparentności, brak konkretów w opisie o tym, jakie informacje będą zbierane oraz potencjalny dostęp Qualcommu do tych danych,
tak naprawdę osłabia zaufanie wobec platformy.
Szczególnie, jeżeli mamy zapis, w którym użytkownik, który publikuje materiały na platformie, czy to kod, czy tekst, czy obraz, udziela automatycznie Arduino niewyłącznej, nieodwołalnej i zbywalnej licencji na ich wykorzystanie.
Czyli tak naprawdę pozwala Arduino zrobić wszystko z naszą pracą, nawet na monetyzację tej pracy.
Jest to totalne zaprzeczenie idei ruchu open source, który polega na współdzieleniu się swoimi rzeczami, ale też na poszanowaniu autorstwa i poszanowaniu autorów.
A najśmieszniejszym z mojego punktu widzenia elementem nowego regulaminu jest, jak to zostało zapisane, zakaz wykorzystywania platformy do zbierania dowodów wspierających roszczenia patentowe przeciwko Arduino.
W świecie open source raczej się czegoś takiego nie stosuje.
Jest to, można powiedzieć, próba prewencyjnego uciszenia użytkowników, którzy mogliby wykryć jakiekolwiek naruszenia własności intelektualnej w kodzie źródłowym Arduino.
Więc z jednej strony mamy platformę, która zbudowała
wokół siebie taki mit platformy o otwartym kodzie, która pozwala na hakowanie software'u, hardware'u, po czym przyszedł Qualcomm i następuje zwrot o 180 stopni.
A skoro już jesteśmy w temacie open source, możemy przejść do tematu odcinka, czyli sytuacji związanej z projektem Ingress Engine X.
Co to jest ingress NGINX?
Jest to kontroler ruchu przychodzącego w klastrach Kubernetes, który jest odpowiedzialny za zarządzanie ruchem i przekierowanie zewnętrznego ruchu HTTP i HTTPS do wewnętrznych usług klastra.
Tak naprawdę pełni to funkcję reverse proxy, zapewniając, że żądania klientów zewnętrznych są przekazywane do odpowiednich serwisów backendowych zgodnie z konfiguracją domen, certyfikatów SSL itp.
Projekt jest bardzo popularny, ponieważ jest elastyczny, ma bogaty zestaw funkcji, niezależny jest od konkretnego dostawcy chmury.
Według różnych szacunków ponad 40% administratorów Kubernetes skorzysta z tego rozwiązania, a ilość aktywnych implementacji w internecie jest szacowana na około 6 tysięcy.
Na początku tego roku badacze z firmy WIS ujawnili zestaw pięciu krytycznych luk bezpieczeństwa, które są nazwane zbiorczo Ingress Nightmare i które umożliwiają tak naprawdę nieautoryzowane zdalne wykorzystanie kodu na bezpieczeństwo.
W konsekwencji atakujący może uzyskać dostęp do wszystkich sekretów we wszystkich przestrzeniach nazw klastra, ma możliwość pełnego przejęcia kontroli nad klastrem Kubernetes oraz wykonania dowolnego kodu w kontekście kontrolera.
I tutaj nawiązanie do ostatniego odcinka.
Jak wskazała Tabitha Sable, czyli współprzewodnicząca grupy do spraw bezpieczeństwa Kubernetes, ingress Nginx od zawsze zmagał się z niewystarczającą liczbą opiekunów.
Przez lata ten projekt, tak krytyczny dla wielu osób, ale też firm, był rozwijany przez jedną, maksymalnie dwie osoby po ich godzinach pracy, ewentualnie w weekendy, czyli typowo był to dla nich projekt hobbystyczny.
Co ciekawe, już w 2024 roku opiekunowie Ingress Engine X ogłosili plany wygaszenia projektu.
Chcieli opracować zamiennika tego o nazwie InGate.
Niestety mało kto się tym zainteresował.
A co ciekawe, aktualnie ludzie, może zresztą inaczej, bo chyba nie powiedziałem, co się stało, więc zostało ogłoszone zakończenie wsparcia dla projektu Ingress Engine X.
Zakończone wsparcie ma być w marcu 2026 roku, co oznacza jeszcze tylko 4 miesiące tak naprawdę.
Decyzja ta została właśnie z jednej strony podyktowana tym, że nie ma kto nad tym pracować, jest narastający dług technologiczny, ale właśnie najbardziej dołożyły się do tego te krytyczne luki bezpieczeństwa odkryte przez firmę WIZY.
Jeden z opiekunów Kubernetes, Tim Hawking, odpowiedział na reakcje ludzi, którzy nie byli zachwyceni tą informacją i którzy uważali, że informacja taka powinna zostać ogłoszona z dużo większym wyprzedzeniem, żeby dać czas ludziom na migrację, na inne rozwiązania.
Powiedział, że, cytuję, rozumiem wasze uczucia, ale proszę, odłóżcie na bok roszczeniową postawę.
Ludzie, którzy obecnie pracują nad Ingress Engine X, robią to za darmo.
Robią to głównie z poczucia obowiązku.
Przez dwa lata, odkąd temat jest dyskutowany, praktycznie nikt nie zgłosił się do pomocy.
Nie ma nowych wykonów w kolejce.
Zamknięcie tego projektu jest konieczne.
Koniec cytatu.
Historia ta
Podobnie jak inne, które wspomniałem w poprzednim odcinku, ilustruje jeden z głównych problemów ekosystemu open source.
ekosystem ten tak naprawdę nie pozwala na pracę wolontariacką aktualnie, bo społeczność ma bardzo specyficzny stosunek do oprogramowania open source.
Mało kto chce coś od siebie włożyć, wszyscy chcą tylko korzystać z tych projektów.
Jest taka relacja konsumpcji.
I jak mówiłem już w poprzednim odcinku, tak naprawdę
albo będziemy finansować projekty,
albo będą one upadać.
W przypadku projektów takich jak Ingress Engine X, które są krytyczne dla wielu firm korzystających z niego, to finansowanie powinno być zapewniane przez te firmy, które z tego korzystają.
Tak naprawdę jeżeli ktokolwiek chce z tego korzystać, robiąc na tym biznes, a firmy wykorzystują to produkcyjne, powinny te firmy płacić opiekunom tych projektów.
Jest to kolejne ostrzeżenie dla całej branży technologicznej, bo jak wspomniałem, jest to projekt używany przez tysiące organizacji na całym świecie, który przez lata był utrzymywany przez jedną górę, dwie osoby w ich wolnym czasie.
I gdy zostały wynalezione krytyczne luki bezpieczeństwa, okazało się, że nie ma nikogo, kto mógłby je w odpowiednim czasie załatać i rozwijać ten projekt.
Po prostu przekroczyło to fizyczne możliwości tych kilku osób, bo musiały one by poświęcić więcej swojego prywatnego czasu.
Zapewne musieliby poświęcić też czas, w którym pracują, czyli coś, z czego żyją, żeby mieć czas na pracę nad projektem hobbystycznym.
Pokazuje to bardzo smutną rzeczywistość, jak bardzo
Opiekunowie projektów open source są niedoceniani w obecnym świecie, gdzie nie tylko osoby prywatne, ale bardzo dużo firm uznaje projekty open source, ich istnienie i możliwość skorzystania z nich jako coś oczywistego, a co jednak przecież takim oczywistym nie jest, bo ktoś musi je pisać, ktoś musi je tworzyć, ktoś musi je utrzymywać.
No i to chyba tyle na dzisiaj.
Dziękuję za wysłuchanie tego odcinka i do usłyszenia następnym razem, prawdopodobnie za dwa tygodnie.
Hej!