Open Source za darmo, korporacje za miliardy
S01:E06

Open Source za darmo, korporacje za miliardy

Episode description

W tym odcinku czekają na Was naprawdę duże tematy!

(00:16) Zaczynamy od kolejnej światowej awarii infrastruktury internetu, tym razem spowodowanej błędem konfiguracyjnym Cloudflare, która wyłączyła ChatGPT, Spotify, Discord i wiele innych serwisów.

(06:00) Potem zagłębiamy się w rozczarowanie unijnym Digital Market Act — w założeniu prawo to miało obniżyć ceny dla konsumentów, a tymczasem obniżyło tylko ochronę prywatności i dało nam chaos zamiast wyboru.

(12:46) Omówię też budzące obawy zmiany w RODO, które mogą otworzyć furtkę wielkim technologicznym koncernom na dostęp do naszych wrażliwych danych.

(18:11) Gdzie ucieka nasza energia? Czyli ile jej zuzywamy globalnie i jakie sa prognozy.

(21:52) Na koniec najpoważniejszy problem — jak gigantyczne korporacje bezkarnie zarabiają miliardy na darmowym oprogramowaniu open source, nie dając nic twórcom projektów, którzy pracują zupełnie za darmo.

Źródła:

  1. Pad Cloudflare:
  1. DMA:
  1. Digital Omnibus:
  1. Energia:
  1. Korpo vs Open Source:

Podoba Ci sie mój podcast? Możesz kupić mi kawę

Transkrypcja jest robiona przy pomocy AI

Odwiedź inne moje projekty na https://rodzinka.link

Download transcript (.srt)
0:00

Dzień dobry, nazywam się Marcin Lis i zapraszam do wysłuchania kolejnego odcinka podcastu What the Fox Says.

0:07

Na dziś mam przygotowanych kilka tematów, ale najpierw krótkie nawiązanie do tego, o czym mówiłem w poprzednim odcinku i jeszcze we wcześniejszym.

0:16

Dwa odcinki temu mówiłem o wielkiej awarii internetu spowodowanej przez problemy ze sługą AWS od firmy Amazon.

0:25

W poprzednim odcinku mówiłem o kolejnej awarii, tym razem spowodowanej problemem z usługą Azure od firmy Microsoft, a dziś muszę wspomnieć o tym, co stało się ostatnio, dokładnie 18 listopada, z usługą dostarczaną przez firmę Cloudflare.

0:45

Firma Cloudflare jest między innymi dostarczycielem usługi CDN, czyli Content Delivery Network.

0:51

Co to jest?

0:53

Już mówię.

0:54

Content Delivery Network to rozproszona sieć serwerów, które są rozmieszczone w różnych lokalizacjach na świecie, a zadaniem tej usługi jest szybkie i skuteczne dostarczanie treści internetowych do użytkowników.

1:09

Działa to na zasadzie przechowywania kopli strony internetowej w różnych centrach danych zlokalizowanych w różnych miejscach na świecie.

1:18

Dzięki temu, gdy ktoś chce odwiedzić jakąś stronę, jej zawartość jest przesyłana do najbliższego serwera z DN, a nie jest transportowana z głównego serwera, gdzie ta strona stoi, co w efekcie przyspiesza ładowanie strony, zmniejsza obciążenie tego głównego serwera,

1:37

W praktyce mamy taki efekt, że w momencie, kiedy użytkownik, nie wiem, w Stanach Zjednoczonych chce wejść na stronę w Polsce, zamiast łączyć się z serwerem znajdującym się w Polsce na drugim końcu świata, użytkownik ten łączy się z lokalnym serwerem CDN, który ma już w pamięci wszystkie pliki tej strony, czyli pliki zdjęcia i skrypty i tak dalej.

1:59

Dzięki temu strony internetowe wczytują się szybciej, działają też bardziej niezawodnie, a dodatkowym plusem jest to, że można w ten sposób chronić swoje serwisy przed atakami, ponieważ nie wystawiamy na świat realnego adresu naszej strony czy naszego serwera, a jedynie użytkownicy widzą adresy serwerów CDN Cloudflare.

2:22

W teorii jest to bardzo fajne.

2:25

Niestety, tak jak mówiłem, 18 listopada była awaria Cloudflare, której konsekwencje tak naprawdę odczuli użytkownicy na całym świecie.

2:35

Incydent trwał kilka godzin, a w jego wyniku ucierpiało wiele serwisów, które są używane przez wielu ludzi na co dzień.

2:45

Ofiarami tej awarii były platformy takie jak X, czyli dawny Twitter, ChatGPT, Spotify, Discord i wiele innych popularnych serwisów.

2:55

Zamiast widzieć strony czy móc się dostać do serwisów, użytkownicy widzieli jedynie komunikaty o błędach serwera.

3:02

niemożliwe było zalogowanie się do wielu aplikacji, a co ciekawe, nawet interfejs zarządzania Cloudflare był niedostępny.

3:10

Żeby mieć spojrzenie na to, jak wiele rzeczy mogło być impaktowanych przez ten incydent, Cloudflare w tym momencie obsługuje około 30% firm z listy Fortune 100 i tak naprawdę stanowi krytyczną część infrastruktury internetowej, w związku z czym

3:31

Efekt tej awarii był naprawdę duży i bardzo łatwo zauważalny.

3:36

Na początku zespół Klaffler podejrzewał, że jest to typ ataku DDoS, ale po inwestygacji okazało się, że przyczyna awarii nie była atakiem cybernetycznym, tylko po prostu zwykłym błędem technicznym.

3:54

Pracownicy Klauftler przeprowadzali zmiany uprawnień na jednym ze swoich systemów bazodanowych.

3:59

W efekcie dało to efekt taki, że plik konfiguracyjny, który jest odpowiedzialny za zarządzanie butami i zagrożeniami, zaczął generować dużo więcej wpisów niż tak naprawdę powinien, co spowodowało to, że ten plik praktycznie zdublował swoją wielkość.

4:18

A system okazał się nieprzygotowany na tak dużą ilość danych.

4:23

Po prostu plik przekroczył oczekiwany rozmiar maksymalny, co wywołało błąd ukryty w systemie obsługujących mitygację botów.

4:34

I ta wydawałoby się mała, drobna zmiana uruchomiła efekt domino, który

4:41

spowodował awarię kolejnych komponentów systemu.

4:45

Gdy inżynierowie Klautler ostatecznie stwierdzili, że problem tkwi w tym pliku konfiguracyjnym bot management, cofnęli jego wersję do wcześniejszej działającej wersji, co przywróciło większość usług do normalnego funkcjonowania.

4:59

Po kilku godzinach wszystkie systemy Cloudflare wróciły do pełnej sprawności, co automatycznie spowodowało, że wszystkie serwisy za Cloudflare należące do użytkowników też zaczęły działać normalnie.

5:13

I znowu mamy to samo.

5:15

Mamy awarię, która pokazuje jak niebezpieczna jest centralizacja infrastruktury internetowej w rękach kilku, dosłownie kilku korporacji.

5:25

Jednocześnie pokazuje też jak delikatne są te krytyczne serwery, gdzie prosty błąd konfiguracyjny jest w stanie wyłączyć znaczną część internetu.

5:36

Incydenty takie jak ten, podobnie jak niedawna awaria AWS czy Azure, stanowią ostrzeżenie, które pokazują, że rzeczy takie jak testowanie zmian przed wprowadzeniem ich na produkcji, redundancja, to są rzeczy, które muszą być wdrożone.

5:55

Jest to konieczność, a nie luksus, który można mieć, a nie trzeba.

6:00

Kolejny temat też jest związany z wielkimi korporacjami, ale już nie tak bezpośrednio.

6:06

Mowa tutaj o DMA, czyli unijnym Digital Market Act.

6:13

Unijny akt o rynkach cyfrowych wkroczył w życie jako taka odpowiedź Europy na dominację gigantów technologicznych.

6:22

Miał on zagwarantować uczciwą konkurencję, sprawić, że ceny aplikacji będą niższe.

6:30

Miał poprawić ochronę prywatności konsumentów.

6:33

Minęły dwa lata od jego wdrożenia i niezależne badania dowodzą, że rzeczywistość jest zupełnie inna.

6:41

Wręcz bym powiedział gorsza niż była dla europejskich użytkowników.

6:45

Założenia tego aktu były proste.

6:47

Zmuszenie dużych platform, tzw. strażników dostępu takich jak Apple, Google, Meta czy Amazon do obniżenia prowizji, co miało być przepustką do taniej konkurencji.

6:59

Logika tego była prosta.

7:01

Mniej prowizji to oznacza niższa cena dla konsumentów.

7:04

Jednakże wbrew oczekiwaniom Komisji Europejskiej obniżenie prowizji w App Store nie przełożyło się na obniżkę cen aplikacji dla konsumentów.

7:14

W ponad 90% przypadków deweloperzy zatrzymali obniżki dla siebie lub, co ciekawe, wręcz podnieśli ceny.

7:22

Najciekawszym przykładem jest Spotify, który przez lata marudził na wysokość prowizji nakładanej przez Apple, a w momencie kiedy weszło w życie DMA i Spotify uzyskał prawo do zerowej prowizji, jednocześnie w tym samym czasie podnieśli ceny na całym świecie.

7:41

Dodatkowo uzyskali też możliwość przekierowania transakcji na swoją stronę bez płacenia Apple żadnych opłat.

7:47

W efekcie wprowadzenia DMA konsumenci tracą podwójnie.

7:51

Po pierwsze nie płacą mniej, po drugie zwiększyły się zagrożenia dla prywatności i bezpieczeństwa użytkowników.

7:59

Dlaczego?

8:01

Dlatego, że DMA zmusza, czy to firmy Apple, czy inne firmy, do udostępniania poufnych funkcji aplikacjom spoza ich ekosystemów.

8:12

Na przykład Apple ostrzegało, że wymogi DMA oznaczają konieczność udostępniania innym firmom takich rzeczy jak historia powiadomień użytkowników, listę sieci Wi-Fi, czy nawet danych dotyczących lokalizacji.

8:28

Stwarza to nowe wektory ataków cybernetycznych, zwłaszcza, że aplikacje dystrybuowane poza oficjalnymi sklepami mogą być mniej starannie weryfikowane,

8:38

W efekcie Europejczycy zyskali wybór, ale stracili na bezpieczeństwie.

8:47

Badania przeprowadzone wśród użytkowników w Europie wykazują, że nie widzą oni obiecywanych benefitów, ale za to wyraźnie widzą pogorszenie się doświadczenia związanego z płatnościami w różnych sklepach.

9:02

Ponad dwie trzecie respondentów skarży się na to, że wyszukiwanie i poruszanie się po aplikacjach wymaga teraz więcej kliknięć.

9:11

Wyniki wyszukiwań są mniej przydatne, a nawet takie rzeczy jak personalizowane rekomendacje, które kiedyś pomagały użytkownikom, teraz nie działają tak dobrze, ponieważ została na nich wymuszona tzw. neutralność.

9:24

Nawet Europejskie Stowarzyszenie Konsumentów, które było zwolennikiem regulacji, przyznaje, że obietnice wyboru, które zostały ludziom obiecane, w praktyce oznaczają często bałagan i zamieszanie dla zwykłych użytkowników.

9:38

Badania naukowców wykazują, że po wprowadzeniu DMA europejskie sektory usług poniosły ekonomiczne konsekwencje tego prawa,

9:48

Straty, które firmy widzą, pochodzą z utraty czy to personalizacji, czy upośledzenia funkcjonalności platform cyfrowych.

10:00

W efekcie na przykład małe hotele czy restauracje tracą efektywne kanały sprzedaży, przedsiębiorcy internetowi polegają się z wyższymi kosztami pozyskiwania klientów, a wiadomo, te koszty nie będą ponosić własnych kieszeni, tylko przerzucą je na konsumentów.

10:18

Dodatkowym efektem ubocznym wprowadzenia DMA jest traktowanie Europy jako rynku drugiej kategorii przez coraz większą ilość firm.

10:27

Nowe funkcje albo trafiają do Europy z opóźnieniem, albo nigdy do niej nie docierają.

10:35

deweloperzy, czy to mali, czy duzi, rzadziej wprowadzają innowacje na rynku europejskim, ponieważ są zniechęceni, czy to niepewnością regulacyjną, czy też wysokimi kosztami bycia zgodnym z DMA.

10:51

I tutaj mówimy nie tylko o małych firmach, ale też o gigantach technologicznych.

10:56

W efekcie użytkownicy czy to w Stanach, czy w Azji, czy nawet w Wielkiej Brytanii cieszą się nowymi możliwościami, a europejscy konsumenci czekają albo na to, aż nowe funkcje będą wprowadzone później, albo czekają na to, że może będą wprowadzone kiedykolwiek.

11:15

W efekcie

11:17

Europa zamienia się z innowacyjnego huba w regulacyjny problem.

11:26

Paradoksem tej sytuacji jest fakt, że 80% europejskich konsumentów w ogóle nie ma pojęcia, że coś takiego jak DMA istnieje.

11:38

W związku z czym, owszem, są sfrustrowani, widzą jak to wszystko działa, ale nie mają pojęcia dlaczego.

11:46

W efekcie mamy sytuację, w której regulacja, której celem miała być ochrona konsumenta działa w całkowitej nieświadomości większości, dla której została stworzona.

11:59

Wydaje się, że takim fundamentalnym błędem podczas tworzenia Digital Market Act był fakt, że ludzie, którzy go pisali, wierzyli, że wystarczy

12:14

wymusić wybór, a wolny rynek, konkurencja zadziałają, że pojawią się nowe platformy, obniżą się ceny i tak dalej.

12:27

A w praktyce okazało się, że cyfrowe platformy funkcjonują zupełnie inaczej i tutaj bardziej czasami liczy się personalizacja, integracja, prywatność, bezpieczeństwo,

12:41

a nie koniecznie tylko i wyłącznie możliwość wyboru.

12:46

A pozostając w klimatach Europy i Komisji Europejskiej, aktualnie Komisja Europejska przygotowuje gruntowną reformę GDPR, czyli po polskiemu RODO.

13:00

Zaprezentowany pakiet nazwany Digital Omnibus zawiera dość kontrowersyjne zmiany, zwłaszcza kontrowersyjne wśród obrońców prywatności.

13:12

Generalnym założeniem jest takie, że komisja chce uproszczenia przepisów, tylko że uproszczenia niekoniecznie takiego, jak chcieliby ludzie.

13:22

Największym, najpoważniejszym

13:26

jest redefinicja pojęcia danych osobowych.

13:30

W tym momencie dane osobowe to są każde dane, które pozwalają na identyfikowanie osoby przy, jak to jest napisane oficjalnie, użyciu środków rozsądnie prawdopodobnych.

13:44

Propozycja komisji chce to zmienić i dane osobowe miałyby być tylko za dane osobowe.

13:51

miałyby być uznawane dane tylko wtedy, jeżeli dany konkretny podmiot posiadałby środki do identyfikacji osoby.

14:00

Co oznacza bardzo prostą sprawę.

14:03

Jeżeli mielibyśmy dane osobowe czyjeś, ale należące do partnera biznesowego, które my możemy zidentyfikować, ale tamten podmiot nie,

14:18

to już nie jest to oficjalnie dana osoba, według tej nowej interpretacji.

14:23

Kolejną zmianą związaną z definicją danych osobowych jest dokładnie definicja tzw. danych szczególnych.

14:31

Aktualnie są to dane dotyczące zdrowia, orientacji seksualnej, przekonań politycznych, pochodzenia itd.

14:39

Jeżeli ujawniają one pośrednio lub bezpośrednio te rzeczy,

14:48

A propozycja jest taka, że na przykład zamiast danych zdrowotnych, które są w tym momencie uznawane za dane szczególne, jeżeli pośrednio lub bezpośrednio ujawniają informację o zdrowiu danej osoby, miałyby być to tylko wtedy, kiedy te dane bezpośrednio i konkretnie ujawniają stan zdrowia.

15:09

Co na przykład powoduje, że fakt, że ktoś co miesiąc regularnie kupuje insulinę w aptece internetowej nie może być sklasyfikowany jako dane wrażliwe, no bo nie ujawnia to bezpośrednio, że ta osoba ma cukrzycę, aczkolwiek jest to całkiem logiczne.

15:29

Podobnie jeżeli będziemy wyszukiwać salonów audiologicznych albo szukać aparatów słuchowych,

15:40

to też to nie będzie uznane za daną szczególną, mimo że ona wskazuje na problemy ze zdrowiem, ponieważ nie wskazuje bezpośrednio.

15:49

Czyli tak naprawdę wszystkie dane pośrednie, które dzisiaj są też kwalifikowane jako dane szczególne według RODO, przestałyby takimi być.

15:59

Co ciekawe, propozycja wprowadza też nowy przepis pozwalający na szkolenie systemów AI na danych osobowych, w tym również danych wrażliwych, pod warunkiem, że administrator ma w tym uzasadniony interes.

16:16

Nie oszukujmy się.

16:17

Każdy administrator będzie miał uzasadniony interes, jeżeli będzie chciał, jeżeli będzie mu na tym zależało, żeby móc przetworzyć takie dane i uczyć na nich swoich AI.

16:26

Odnośnie AI jest tam jeszcze jedna ciekawa zmiana w tej propozycji.

16:31

Jest taka kategoria jak zdalny dostęp do urządzeń osobistych.

16:36

Aktualnie RODO wymaga zgody na dostęp do takich urządzeń, co oznacza, że jeżeli chcemy uczyć swoje AI na prywatnych plikach, na przykład na komputerze czy tablecie użytkownika, musi on wyrazić zgodę.

16:51

Według propozycji ma to być dopuszczone dla celów bezpieczeństwa i agregowanych statystyk i to nie będzie wymagało zgody.

17:02

Jestem dziwnie przekonany, że wszystkie firmy zinterpretują ten przepis tak, że będą skanować dokładnie wszystkie dane prywatne użytkownika, uzasadniając to właśnie celem bezpieczeństwa czy agregowaniem statystyk i będą na tym robiły kasę.

17:22

Nie są to jedyne zaproponowane zmiany.

17:26

Możecie o nich przeczytać w linku pod tym odcinkiem, ale tak naprawdę

17:32

Komisja podkreśla, że wszystkie te zmiany mają dać w efekcie uproszczenie tej ustawy, mają ułatwić innowacyjność i tak dalej, ale przynajmniej w moim przekonaniu konsekwencje mogą być bardzo niefajne dla zwykłych, prywatnych użytkowników,

17:57

a bardzo satysfakcjonujące dla wielkich globalnych big techów, które nagle dostaną dostęp do danych, do których dostępu nie miały właśnie dzięki temu, że chroniło nas RODO.

18:11

A pozostając w temacie AI, a przynajmniej związanym z AI,

18:18

Międzynarodowa Agencja Energii w swoim raporcie World Energy Outlook 2025 ogłosiła, że transformacja energetyczna świata dzieje się szybciej niż ktokolwiek oczekiwał i że osiągnęliśmy punkt zwrotny globalnej strategii energetycznej, czyli można powiedzieć, że elektryczność stała się siłą napędową współczesnych gospodarek.

18:43

Co ciekawe, na chwilę obecną popyt na energię elektryczną to jest tylko 20% globalnego zużycia energii, ale jednocześnie te 20% globalnego zużycia energii napędza ponad 40% światowej gospodarki.

18:59

To pokazuje nierówność, jaka występuje pomiędzy zużyciem energii a...

19:06

jej wynikami i pokazuje też to, jak krytyczną rolę ma energia elektryczna i jak jeszcze bardziej krytyczną rolę będzie odgrywać w przyszłości.

19:17

Według Proznos popyt na energię elektryczną w przeciągu najbliższych 10 lat wzrośnie o 40-50%.

19:24

A co napędza ten popyt?

19:28

Między innymi właśnie AI, czyli centra danych i sztuczna inteligencja.

19:32

To jest najszybciej rosnący sektor, który

19:37

Już teraz odpowiada za mniej więcej 15% zużycia energii, a w przeciągu najbliższych 5 lat ten odsetek może wzrosnąć nawet do 50%.

19:47

Prognozuje się, że w przeciągu najbliższych kilku lat ponad połowa energii elektrycznej zużywana w centrach danych będzie przeznaczona typowo pod AI.

20:00

Dodatkowym czynnikiem zwiększającym zużycie energii elektrycznej jest też elektryfikacja transportu, ogrzewania, produkcji.

20:08

Generalnie bardzo dużo rzeczy przestawiamy w naszej gospodarce, naszej na zasadzie światowej, z paliw kopalnych, czy to na przykład benzyny, czy diesla, jeżeli chodzi o transport,

20:21

na elektryki, podobnie z ogrzewaniem, że uciekamy od spalania węgla i ogólnie paliw kopalnych i staramy się przejść na energię elektryczną.

20:31

Jednakże, żeby mieć energię na to wszystko, musimy ją wyprodukować.

20:35

Skoro chcemy uciec od paliw kopalnych, no to zostaje nam albo energia atomowa, albo energia zielona, czyli najczęściej to jest energia słoneczna lub wiatrowa.

20:49

I tutaj energia słoneczna tak naprawdę przewodzi transformacji.

20:57

W poprzednim, czyli 2024 roku globalnie zainstalowano 700 gigawatów nowych elektrowni produkujących prąd z energii odnawialnej, przy czym 80% tego to były właśnie elektrownie wykorzystujące energię słoneczną.

21:15

Według Światowej Agencji Energetyki i jej prognoz do 2035 roku, czyli w przeciągu najbliższych 10 lat, energia słoneczna i wiatrowa mają stanowić łącznie jedną część globalnego zapotrzebowania w energię w ogóle.

21:34

Jako ciekawostkę mogę powiedzieć, że mimo całego rozwoju energetyki, czy to klasycznej, czy jądrowej, czy odnawialnej, na świecie

21:45

Ponad 700 milionów ludzi nadal żyje w ogóle bez dostępu do elektryczności.

21:52

A teraz może przejdźmy do głównego tematu tego odcinka, którym jest, jak olbrzymie korporacje wykorzystują oprogramowanie open source, praktycznie nie dając od siebie nic w zamian, albo nawet jeżeli dają, to bardzo mało i bardzo późno.

22:12

O tym właśnie za chwilę opowiem.

22:14

Pomysł by o tym opowiedzieć wziął się z tego, że w tym miesiącu pojawił się bardzo duży problem pomiędzy grupą wolontariuszy opiekującą się projektem FFMPG a firmą Alphabet.

22:31

Firma Alphabet

22:33

używa tej biblioteki FFMPG, czyli to jest biblioteka do przetwarzania wideo i audio, praktycznie wszędzie.

22:40

Używają jej w swojej AI, używają jej w Google, używają jej w YouTube.

22:46

Tak naprawdę YouTube jest oparty o tą bibliotekę i bez niej by nie działał.

22:51

Czyli można powiedzieć, że jest to biblioteka kluczowa dla tej firmy.

22:56

W ramach Google jest coś takiego jak Project Zero.

23:00

Jest to zespół, który

23:05

Przy pomocy sztucznej inteligencji przegląda różne otwarte oprogramowanie i generuje raporty o błędach.

23:12

No i właśnie zespół odpowiedzialny za FFmpeg został zalany niesamowicie dużą ilością zgłoszonych błędów, jednakże Google na tym się zatrzymało.

23:26

Zgłosili błędy, ale nie zaproponowali od siebie żadnych poprawek.

23:31

Teoretycznie po upływie terminu 90 dni Google może publicznie ujawnić wszystkie luki bezpieczeństwa, jakie znalazło i zgłosiło do maintainerów FFMPG.

23:48

Problemem jest tylko to, że Google wykorzystał swoje zasoby obliczeniowe, swoje AI, by automatycznie znaleźć błędy w kodzie,

24:01

A zespół FFMPG, jest to zespół wolontariuszy, którzy pracują za darmo, w swoim wolnym czasie, robią to tak naprawdę typowo hobbystycznie.

24:17

Nie można ich zmusić do tego, żeby robili coś szybciej, więc mieli do wyboru albo naprawić błędy tak szybko, jak Google zasypuje ich swoimi zgłoszeniami, co nie jest zbyt niemożliwe, albo ryzykować fakt publicznego ujawnienia luk bezpieczeństwa w oprogramowaniu, co niezbyt byłoby dobre.

24:44

Co ciekawe, jednocześnie i śmieszne i tragiczne, jest fakt, że firmy bazujące na oprogramowaniu open source nie płacą za to, w związku z czym nie mają żadnej umowy, nie mają zagwarantowanego supportu, nie ma żadnego NDA, nie ma nic takiego.

25:08

ale nie ma też gwarancji, że to oprogramowanie będzie działać, albo że będzie dostępne.

25:13

Tak naprawdę taki Google, opierając YouTube na tej bibliotece otwartej, ryzykuje tym, że maintainerzy mogą w pewnym momencie zmienić licencję, zablokować im dostęp do tego i tak naprawdę zlikwidować im usługę YouTube, gdyby tylko postanowili być na tyle wredni.

25:34

A skąd wiadomo, że tak może być?

25:37

No z historii.

25:39

W 2021 roku była taka luka krytyczna związana z biblioteką Javy.

25:48

Było to Lock4J.

25:50

Była to biblioteka utrzymywana też przez niewielką grupę wolontariuszy, a używana przez, można powiedzieć, miliardy urządzeń na całym świecie.

26:01

Co ciekawe, przed momentem ujawnienia tej luki bezpieczeństwa projekt miał zaledwie trzech sponsorów na GitHubie, a z biblioteki tej korzystały wszyscy, łącznie z takimi firmami jak Apple, Microsoft, Steam, Twitter, Cloudflare.

26:18

Według szacunków naprawienie tej luki kosztowało miliardy dolarów łącznie.

26:26

A maintainer, który koniec końców naprawił tę lukę, pracował nad projektem w niepełnym wymiarze czasu, bo tak jak mówię, miał tylko trzech sponsorów, więc nie było to dla niego sposób na życie.

26:37

Musiał pracować gdzie indziej, żeby się utrzymać, a to robił typowo hobbystycznie.

26:42

Faktem jest, że obecnie projekt...

26:47

ma ponad 100 sponsorów.

26:49

No ale jest to działanie trochę po czasie i akurat w przypadku tego jednego projektu.

26:58

Sięgając jeszcze dalej w historię.

27:01

OpenSSL.

27:03

Podstawowa biblioteka kryptograficzna.

27:06

Używana przez, można powiedzieć, większość internetu.

27:10

W 2014 roku była utrzymywana przez dwie osoby zajmujące się tym w niepełnym wymiarze czasu.

27:19

Wtedy została ujawniona luka Heartbleed.

27:25

Była to luka krytyczna.

27:28

Musiała zostać przepisana, naprawiona.

27:32

Co ciekawe, wtedy projekt otrzymywał mniej niż 2000 dolarów rocznie w darowiznach, mimo faktu, że działał na ponad 65% wszystkich serwerów internetowych w ogóle na świecie.

27:48

Po Heartbeat zostało utworzone CII, czyli Core Infrastructure Initiative, do którego giganci technologiczni tacy jak Facebook, Google, IBM, Microsoft, Dell, Amazon itd.

28:04

dołączyli i zobowiązali się do przekazywania informacji,

28:09

Chyba po 100 tysięcy dolarów rocznie na to.

28:14

Jest tam też Linux Foundation i tak dalej.

28:17

W każdym razie CII wspiera wiodące projekty open source.

28:23

Problem jest tylko taki, że wiodące nie oznacza wszystkie, bo zawsze wiodące zależy dla kogo, z jakiego punktu widzenia.

28:30

Na przykład FFMPG, od którego zacząłem, nie jest wiodącym projektem, patrząc ze względów na security, ale jest krytycznym ze względów na usability dla użytkowników.

28:46

Innym sposobem reakcji na wykorzystywanie open source przez duże korporacje

28:52

jest, niestety, po prostu zmiana licencji.

28:57

Przykładami takich rozwiązań jest Redis, Elastic czy HashiCorp z Terraformem.

29:04

Redis do pewnego momentu był oparty o licencję BSD,

29:12

ale w momencie, kiedy firmy takie jak Amazon w swoim AWS-ie czy Alibaba Cloud zaczęły oferować usługi oparte na Redis, zarabiając miliony dolarów i nawet nie wspierając projektu, choćby dolarem,

29:32

więc brali darmowe, otwarte oprogramowanie i zarabiali na nim bardzo dużo.

29:39

W 2024 roku CEO Redis ogłosił zmianę licencji i od tej pory Redis ma podwójne licencjonowanie.

29:47

Jest Redis Source Available License i Server Site Public License.

29:54

W efekcie dzięki takiemu podejściu osoby prywatne nadal mogą używać Redisa za darmo,

30:00

Ale firmy nie mogą zarabiać bezpłatnie korzystając z tego oprogramowania.

30:09

Na przykład HashiCorp, czyli producent Terraform, jest to takie narzędzie do automatyzacji wdrożeń.

30:15

Dwa lata temu zmienił licencję na Business Source License.

30:19

Elastic, czyli twórca wyszukiwarki Elasticsearch.

30:24

Również zmienił licencję i co ciekawe również po tym, jak Amazon uruchomił konkurencyjną, płatną usługę, żeby było śmieszniej, oparte na oprogramowaniu Elasticsearch.

30:39

Różnica była taka, że Elastic oferował u siebie funkcje premium, płatne, ale udostępniał też Elasticsearch za darmo.

30:51

A Amazon kasował wszystkich za użycie Elasticsearch u nich, dodając oczywiście od siebie ładne GUI, etc.

31:00

Ale znowu, twórca oprogramowania nie dostawał nic.

31:04

W związku z tym Elasticsearch, tak jak mówiłem na początku, też zmienił swoją licencję, by Amazon nie mógł z niej darmowo korzystać.

31:13

Ale to są pojedyncze przypadki.

31:15

Pojedyncze na zasadzie może nie firm, ale pojedynczych projektów.

31:21

Najciekawszym przykładem takiego wykorzystania oprogramowania open source jest firma Microsoft i ich GitHub Copilot.

31:31

Podejrzewam, że nie jest to jedyne takie wykorzystanie, ale wiem, że w tym przypadku w listopadzie 2022 roku został wniesiony pozew zbiorowy przeciwko GitHubowi, Microsoftowi oraz OpenAI.

31:48

Dlaczego?

31:49

Dlatego, że Copilot, czyli to jest taki asystent kodowania oparty o AI, opracowany przez Githuba, czyli firmę należącą w tym momencie do OpenAI, sorry, Githuba, czyli firmę należącą do Microsoftu, za duży skrót myślowy, we współpracy z OpenAI,

32:10

Tylko pilot AI został wytrenowany na kodzie dostępnym publicznie w repozytoriach GitHub.

32:20

Czyli tak naprawdę GitHub wykorzystał pracę autorów open source, którzy hobbystycznie coś tworzyli, do stworzenia produktu komercyjnego.

32:32

I to nie pojedyncze biblioteki, tylko po prostu całość, wszystkie publiczne repozytoria dostępne w GitHubie.

32:40

Czyli był to tak naprawdę olbrzymi scrapping darmowego kodu.

32:46

Co ciekawe,

32:48

Licencje takie jak np. GNU General Public License czy licencja MIT wymagają informacji o autorze, czyli nie tyle o samych prawach autorskich, gdy ten kod jest rozpowszechniany, nawet po zmianach, gdy jest ponownie używany itp. Tutaj

33:13

na tym kodzie został wytronowany AI.

33:16

AI, które pomaga w tworzeniu nowego kodu.

33:19

Tylko, że jak wszyscy wiemy, AI nie tworzy nowych rzeczy.

33:23

AI kompiluje to, co zna.

33:26

Czyli w tym przypadku AI używa kodu, którego zostało nauczone przy scrapingu tych danych, do generowania nowego kodu.

33:35

ale skoro bazuje na tym kodzie, to zgodnie z licencjami powinno informować o tym, kto był oryginalnym autorem oryginalnego oprogramowania, etc.

33:47

I właśnie na tym został oparty ten pozew zbiorowy.

33:52

Powodowie twierdzą, że Copilot generuje kod pochodzący z ich projektów open source, ale bez podania atrybucji, informacji licencji, która jest wymagana licencją, czyli pozbawia kod jego prawnych zabezpieczeń.

34:07

Co ciekawe, podnieśli oni również zarzut naruszenia Digital Millennium Copyright Act.

34:15

Niestety, w 2024 roku sędzia, który rozpatrywał ten wniosek, oddalił większość zarzutów, pozostawił tylko dwa.

34:24

Jeden oskarżający firmy o naruszenie licencji open source i drugi dotyczący naruszenia umowy.

34:32

Już na koniec, żeby Was nie zanudzić, jeszcze jedna ciekawostka.

34:36

CURL.

34:38

Jest to bardzo dobrze wykonany projekt open source.

34:41

Jest to narzędzie, które zna większość osób pracujących w ten czy inny sposób z aplikacjami webowymi.

34:53

W marcu tego roku jego twórca i główny maintainer musiał zrobić zbiórkę crowdfundingową na zakup laptopa, by móc pracować nad tym projektem.

35:08

I teraz wyobraźcie sobie sytuację.

35:10

Jest to projekt używany przez firmy Google, Apple, Meta, etc.

35:16

A gość musi zbierać pieniądze na zbiórce crowdfundingowej, żeby kupić sobie laptopa, żeby pracować nad tym projektem.

35:26

Czy to nie brzmi śmiesznie, żeby nie powiedzieć żałośnie?

35:31

Po prostu mamy sytuację, gdzie firmy działają na darmowym, publicznym kodzie, który jest utrzymywany przez społeczność i firmy przyjmują za pewnik to, że on będzie działać, że on będzie aktualizowany, że błędy będą usuwane, etc.,

35:48

ale nie dają nic w zamian od siebie za to, że mogą ten kod wykorzystywać.

35:53

Mamy tutaj prosty wzorzec biznesowy.

35:57

Wielomiliardowe korporacje.

36:00

czerpią ogromne korzyści z oprogramowania open source, które często stanowi krytyczną infrastrukturę ich biznesu, bez którego by nie zarobiły albo zarobiłyby dużo mniej, a wkładają w utrzymanie i rozwój tych projektów nic albo ledwo co.

36:21

Jest to dla mnie smutne i niezrozumiałe, bo w efekcie może skończyć się to tak, że stracimy oprogramowanie open source.

36:33

Albo stracimy je na zasadzie takiej, że autorzy będą zmuszeni do zmiany licencji na płatną, dzięki której będą mogli się utrzymać i utrzymać projekty, albo po prostu upadną i nie będzie już więcej tych projektów.

36:50

A wydawałoby się, że rozwiązanie jest takie proste, żeby firmy, które korzystają np. z takich bibliotek jak FF MPEG, przekazywały na projekt, dzięki któremu zarabiają ciężkie miliardy, choćby promil tego zysku.

37:09

To by wystarczyło na utrzymanie projektu, na to, żeby maintainerzy mogli zajmować się tym po prostu nie hobbystycznie, a w pełni zawodowo, żeby mieli czas

37:19

na naprawianie błędów, żeby mogli zatrudnić ludzi do tego, jeżeli byłaby taka potrzeba.

37:26

W efekcie wszyscy by na tym zyskali, bo zyskaliby i maintainerzy, i społeczność, ale też firmy, które wykorzystują te biblioteki, ponieważ miałyby lepsze, bezpieczniejsze oprogramowanie.

37:42

No i to chyba tyle na dzisiaj.

37:44

Dziękuję za wysłuchanie tego odcinka i zapraszam do kolejnego za dwa tygodnie, a przynajmniej tak to jest planowane.

37:54

Do usłyszenia.