 więc przechodzę teraz do Pana Łukasza Króla i do Pana kieruję właśnie takie pierwsze pytania. Jaka jest odpowiedzialność sieci społecznościowych, tych korporacji, które posiadają i projektują aplikacje, dzięki którym możemy porozumiewać się między sobą, a więc takich aplikacji jak Twitter, Facebook. W jaki sposób one są odpowiedzialne za szerzenie dezinformacji czy fałszywych informacji w sieci? Czy jaka powinna być odpowiedzialność? To wspaniałe pytanie i trochę przywołuję mi teraz do pamięci jeden z moich ulubionych nagłówków z amerykańskiego Wired Magazine. Ten nagłówek był bardzo prosty. Does Mark Zuckerberg know what Facebook is? Czyli czy sam Mark Zuckerberg wie, czym jest Facebook? Ponieważ wydaje mi się największym problemem z portalami społecznościowymi w tej chwili to jest to, że to są strony, które cały czas brną w przekonaniu i próbują i siebie przekonać jak i regulatorów, i świat itd., że są firmami czysto technologicznymi, a jednak to już nie są portale, które są czysto technologicznymi spółkami. To tak naprawdę są portale, spółki, firmy, korporacje, które tworzą naszą społeczną infrastrukturę, demokratyczną infrastrukturę i społeczą infrastrukturę. Więc wydaje mi się, że bardzo ważne tutaj jest po prostu zrozumienie ogromnej odpowiedzialności, które takie firmy powinny mieć, a do której się nie przyznają. Że algorytm Facebooka to jest fascynujący i w sumie też Twittera i YouTube'a. Ale najbardziej Facebooka, ponieważ przynajmniej w Polsce Facebook jest o wiele powszechnie używane od Twittera na przykład. I algorytm Facebooka, które decyduje na jakiej podstawie promować jakieś treści, więc na przykład jak się pojawiało Ice Bucket Challenge, to wtedy algorytm Facebooka bardzo lubił takie treści mocno wizualne filmy itd., więc ten mem jeśli to można nazwać memem się rozszerzył w tym czasie, dlatego ponieważ tej chwili po prostu była taka przypadkowość historyczna prawie, że algorytm Facebooka bardzo bardzo polubiły treści graficzne. Ale popatrzmy na to z punktu widzenia takiego, które politycznego, że gdyby na przykład były dwie partie polityczne i jedna partia polityczna wolałaby postować takie mini essaye na Facebooku, a druga partia polityczna chciałaby się dzielić bardziej treściami wizualnymi memami i pewnego dnia Facebook by zmienił swój algorytm powiedzmy miesiąc przed wyborami czy coś tym zajął i ta zmiana algorytmowa by naprzedto prowadziła do tego, że widzimy 90% treści jednej partii a 10% drugiej, ponieważ naprzedł algorytm preferuje treści wizualne, to jednak mogło to mieć ogromny wpływ na wybory i tak samo na przykład w Stanach Facebook wypróbował tę narzędzie, że jak ktoś głosował to może kliknąć, że ej ja głosowałem w tych wyborach i oczywiście są różne badania na ten temat, ale jednak niektórzy twierdzą, że to bardzo bardzo mocno podwyższyło frekwencje i co jest ciekawe to, że na przykład ostatnie wybory amerykańskie miały rekordowo wysoką frekwencję i to w sumie dzięki tej rekordowo wysokiej frekwencji też można powiedzieć, że Biden wygrał, więc nawet coś, co wydaje się bardzo pluralistyczne, jak na przykład akcentowanie treści graficznych nad treściami tekstowymi, albo na przykład takie małe, behawioralne mechanizmy, żeby zachęcić ludzi, żeby głosowały, to jednak po pierwsze wpływa na pewną grupę demograficzną, a nie na drugą, a po drugie to naprawdę może zdecydować o wyniku wyborów. Tutaj już od samego początku widzimy, że Facebook udaje, że jest koncertem technologicznym czysto, ale jednak Facebook już się staje kluczową infrastrukturą społeczną, która tak naprawdę może zacząć zdecydować o tym, kto wygrywa wybory, a kto nie wygrywa. I teraz wolniutko Facebook do tego się zaczyna troszeczkę przyznawać, ale dalej jakby Facebook próbuje podejmować kilka kroków związanych z bezpieczeństwem, kilka kroków związanych ze zwalczaniem dezinformacji, tylko żeby jakby regulatorzy i rządy się do nich zbyt nie przeczepiali. Więc tak samo widzieliśmy na przykład przed wyborami do Europarlementu w 2019 roku, gdzie Facebook tak samo stworzył tak zwane warrooms, czyli jakby salę bojowe, w których po prostu pracownicy Facebooka dni przed dosłownie wyłapywali i raportowali na temat dezinformacji. Wszystko dlatego, żeby Facebook po pierwsze nie szerzył zbyt dużo dezinformacji, ale po drugie, żeby nowo wybrany Parlament Europejski od razu nie patrzył na Facebooko jako główny wektor dezinformacji. Więc wracając do tego, jeżeli Facebook nie jest firmą technologiczną, to czym jest Facebook tak naprawdę? Wydaje mi się, że nikt nie wie realistycznie czym jest Facebook. Facebook jest i Twitter, i YouTube tym. Mówi głównie o Facebooku, bo jest największą w Polsce. Facebook jest taką dziwną hybrydą i zgadzam się w sumie z dziennikarzami takimi jak Ryan Heath, którzy uważają, że Facebook powinien być regulowany bardziej jak firma zajmująca się mediami, bardziej jak na przykład gazeta, wydawnictwo, stacja telewizyjna. W sumie Facebook w tej chwili jest w tym biznesie. I tutaj jeszcze jedna ciekawa rzecz jest taka, że po wyborach Baydena gazety całkowicie zaczęły inaczej pisać o Trumpie. Czyli przedtem Trump był w Stanach Głową Państwa. Więc jak Trump powiedział coś, co było powiedzmy dezinformacją czy coś, to i Twitter, jak i gazety miały taki problem, że z jednej strony są częścią tego ekosystemu mediów, więc muszą raportować na temat tego, co mówi Głowa Państwa, bo Głowa Państwa to bardzo, bardzo ważna osoba w państwie, ale z drugiej strony oczywiście gazety też nie chcą sprzeżyć dezinformacji. Więc cały czas, jakby mieli taki problem z tego, co pamiętam, Facebook też ma taki problem i Facebook do tego podchodził w taki sposób, że nie usuwali treści, przynajmniej w czasie wyborów do Europarlementu w 2019 roku nie usuwali treści przez zarejestrowane partie polityczne. Więc na przykład jak powiedzmy skrajna prawica Błoska dzieliła się jakimiś fałszywymi wiadomościami na temat powiedzmy sytuacji migracji, to Facebook albo nawet mową nienawiści to Facebook tego nie usuwał, dlatego ponieważ to się liczyło jako partia polityczna. Więc jakby Facebook już się coraz bardziej zaczyna zachować troszeczkę gazeta, raczej niż jako portal społecznościowy, albo jak zamknięty klub, gdzie ludzie się dzielą swoimi opiniami, więc wydaje mi się, że za niedługo będzie też miał podobne jakby odpowiedzialności związane z gazetami, z mediami, wydaje mi się tak, tak powinniśmy trochę Facebooka traktować w tej chwili. Więc mają duże odpowiedzialności, ale przede wszystkim najważniejsze jest w tej chwili, zanim możemy w jakikolwiek sposób mówić o tym jaka jest wina Facebooka, Twittera, YouTubea, jaka jest odpowiedzialność, najpierw musimy zadać tak naprawdę pytanie czym to w ogóle jest, czym są Facebook, YouTube i Twitter. I to jest temat na o wiele, wiele dłuższe rozmowy. Tak, to rzeczywiście jest bardzo ciekawa kwestia, bo pan mówi coś takiego, że mamy jakiś algorytm, czyli program, który działa w jakiś określony sposób, na przykład promuje jakieś określone treści. I teraz on sam w sobie może wyglądać niewinnie, ale kontekst społeczny, kontekst polityczny, w którym ten program funkcjonuje, nadaje mu pewne określone znaczenie, czyli na przykład takie znaczenie, że promuje na przykład treści jakiejś określonej partii politycznej. Jest ten kontekst, jeśli można tak powiedzieć, nadaje pewne szczególne znaczenie tym fragmentom kodu komputerowego, który decyduje o tym co pojawia się w naszym tak zwanym widzie, czyli w tym co widzimy, gdy korzystamy z jakiejś konkretnej aplikacji. Ale tutaj też bardzo często w tym kontekście mówi się też o tym, że tutaj istnieje jakieś sprzężenie zwrotne pomiędzy tym co preferują ludzie i tym jakie informacje są podsuwane. Bardzo często też oskarża się czy Facebooka, czy na przykład takie portale jak YouTube, o to, że są odpowiedzialne za radykalizację poglądów swoich użytkowników. I moje drugie pytanie właśnie dotyczy tego, w jaki sposób pojedynczy użytkownik może się bronić przed algorytmami, które chcą, jeśli można tak powiedzieć, czerpać jak największe zyski z tego, że przyciągają naszą uwagę, że wykorzystują nasze poznawcze słabości, naszą skłonność do pewnych treści, czy mając wiedzę na temat tego jak działa Facebook czy Twitter czy YouTube i tego, że mamy jakieś psychologiczne spłonności do oglądania coraz bardziej na przykład drastycznych treści, czy możemy się jakoś przed tym broni jako użytkownicy, czy są jakieś narzędzia, które możemy stosować, żeby się nie dać na to nabrać. To jest wspaniałe pytanie, jakby ma tyle różnych wymiaru, więc tak jak gdyby musiał zatwitować jedną odpowiedź, to niestety powiedzią jest, że żeby uciec od algorytmu, to musimy nie używać Twittera, nie używać YouTube'a i nie używać Facebooka. Jeśli chodzi o radykalizację algorytmową, to na pewno całe badania z poprzednich kilku lat sugerują, że istnieje, chociaż w tej chwili wyszedł bardzo ciekawy paper z Cornell University, który właśnie twierdzi, że radykalizacja istnieje, ale nie na poziomie algorytmowym, ale o tym paperze to mogę troszeczkę pójściem porozmawiać, jeżeli pojawią jakieś pytania. Ale ogólnie jest tak, że w tej chwili generujemy tyle treści, że w sumie potrzebujemy jakiegoś redaktora, że to nie jest tak, że po prostu mogę czytać wszystkie treści, które zostały wygenerowane, ale ktoś musi właśnie to redagować. I jak na przykład jest powiedzmy taka organizacja, jak na przykład The Guardian albo BBC, BBC jest wspaniałym przykładem, ponieważ BBC jednak ma pewne swoje kody, ma pewne swoje normy i BBC, nawet BBC te kody i normy wychodzą z legislacji brytyjskiej, więc jakby jest ogromna transparentność przynajmniej w teorii, co do tego, jaki jest etos redagowania BBC, jakby co BBC traktuje, w jaki sposób i co dla nich jest ważne, a co nie jest. I niektóre właśnie redakcje mają albo próbują mieć taki etos, że na przykład próbują opisać, że jak głowa państwa coś powie, czy to powinno być na pierwszej stronie, czy nie, różne takie rzeczy. Więc problem jest taki, że w tej chwili nie tylko jakby działamy z redaktorami w formie ludzi, ale też mamy redaktorów cyfrowych, czyli algorytmy. Patrząc na to, ile jest generowanych treści na Facebooku, na Twitterze, na YouTube'ie, to algorytmy są tutaj nieuniknione. Po prostu to nie byłoby możliwe, żeby był jakaś grupa ludzi w San Francisco, którzy siedzą w biurze Facebooka i po prostu wybierają mi co dzień najlepsze treści. To jest po prostu niemożliwe. A druga rzecz jest taka, że po prostu to jest oparte na tylu różnych punktach danych, że nie jesteśmy w stanie nawet zrozumieć tego algorytmu, jak on działa. I najprawdopodobniej Facebook i Google sami też nie wiedzą, jak działają jakieś algorytmy, bo są po prostu oparte na tylu, tylu miliardach punktów danych. Więc dla mnie to fajna jest taka analogia trochę prawie makroekonomiczna i mikroekonomiczna, że mogę powiedzieć, że jak na przykład zdecydowaliśmy, że jakiś sklep odniósł ogromny sukces gospodarczy, to jednak z jednej strony możemy zauważyć pewne trendy makroekonomiczne, które doprowadziły do tego sukcesu tego sklepu, ale nie możemy jakby powiedzieć, że to przez ten trend makroekonomiczny dokładnie można to przetłumaczyć na takie takie zyski w tym sklepie. Po prostu tak samo jak makroekonomia, system algorytmów jest zbyt skomplikowany, aby go jakby ogarnąć w taki prosty sposób. Więc dlatego wydaje mi się, że jedyne co możemy tak naprawdę robić, jeżeli chcemy od tego wszystkiego troszeczkę uciekać, to jest troszeczkę właśnie sięgać do transparentności i do jak najbardziej transparentych systemów, jakie możemy znaleźć i jednym z nich na przykład jest Wikipedia, bo na Wikipedia to od razu widać całą historię edytowania artykułu, widać też dyskusję na temat artykułu, jakby uzasadnienia tych różnych decyzji redaktorów w Wikipedia i tak samo na przykład wydaje mi się, niektóre bardziej otwarte źródła, może tak samo BBC też powiedzmy ma pewien swój kod redaktorski i tak dalej. Tutaj nastawiłem specjalnie tło, żeby Państwo nie musieli oglądać moje kuchni, też ustawiłem właśnie tło krakowa i to pochodzi z OpenStreetMaps. OpenStreetMaps to taka trochę Wikipedia mapowania świata, czyli mapy, które zostały 100% zbudowane przez woluntariuszy. I tutaj tak samo, jakby każda decyzja na OpenStreetMaps jest bardzo otwarcie udokumentowana i to się właśnie różni od Google Maps, że wiemy jak, wiemy kto jakby, może nie wiemy jaka osoba stoi za każdym dodaniem ulicy do OpenStreetMaps, ale wiemy i mamy dostęp bardzo, bardzo otwarty do tych danych. Do takiego stopnia, że jakby OpenStreetMaps nie chce się często angażować w konflikty polityczne związane z tym, jakie terytorium jest, jakie czytała Państwo jest suwerenne czy nie, raczej po prostu chcą jak najbardziej udostępniać otwarte dane i potem jedzie by inny transparentny sposób decyzyjny. Więc wydaje mi się, że musimy znajdować jak najwięcej organizacji i źródeł, które mają transparentny sposób robienia decyzji, powinniśmy zachęcać nasze redakcje do tego, ale niestety w tej chwili Facebook i Twitter takiego transparentnego sposobu decyzji nie mają. I wiem, że ktoś zadał takie pytanie, że jak Mark Zuckerberg i Jack Dorsey, czyli prezesi Facebooka i Twittera, byli z Kongres Amerykańskim zadawał pytania, ktoś powiedział, że powinniśmy zadać takie pytanie, że w tej chwili, jak kupujemy na przykład jedzenie, to tam jest lista składników. Dlaczego algorytmy, na przykład Twittera, bo Facebooka nie powinien także zawierać takie listy składników i problem jest taki, że w tej chwili ten algorytm jest zbyt skomplikowany. Więc pierwszym krokiem powinno być, żeby zachęcić albo legislacyjnie zmusić Facebooka i Twittera tego, żeby stworzyli algorytmy, które są wystarczająco otwarte albo wystarczająco zrozumiałe, żebyśmy mogli na ich temat dyskutować, a potem żeby je jak najlepiej dokumentować i jak najlepiej się tym dzielić. Sorry za taką długą odpowiedź, ale bardzo chciałem pokazać tomatę. Tak, bardzo dziękuję, no niestety mamy dosyć ścisłe ograniczenia. Czasowe miałem jeszcze dla pana przygotowane jedno pytanie, ale być może doopiero zadamy je w sekcji przeznaczonej właśnie na pytania, ale z tego, co pan mówi, to w pewnym sensie właśnie stworzyliśmy takiego smoka, czy takiego pootwora, z którym nie za bardzo wiadomo jak sobie poradzić. Jest na przykład taki ruch zwany na polski, można by to było przetłumaczyć jako cyfrowy minimalizm, który namawia do tego, żeby jak najmniej korzystać z tego typu urządzeń. Pan proponuje bardziej takie rozwiązanie open source, czyli transparentności, dostępności, tej informacji tego, w jaki sposób ona się tworzy. Jak najbardziej, tak, jak najbardziej i też uważam, że jakby musimy zaakceptować fakt, że jakby redakcja i rola redaktora jest nieunikniona i przez to także jakakolwiek rola algorytmu jest nieunikniona i tak trochę nie możemy wrócić do, nie wiem, do lat 30. i 70., że po prostu żyjemy całkowicie bez algorytmów, bo w tej chwili już generujemy zbyt dużo informacji, więc nie możemy myśleć o tym jak żyć bez algorytmów, musimy myśleć o tym jak żyć z lepszymi algorytmami i z bardziej transparentnym procesem decyzjeniem.